GEOMATICA Ultima Epoca

61
GEOMATICA SISTEMA DI RIFERIMENTO definizione e materializzazione 1)Sta spiegando quello che faremo nel corso, e sta facendo esempi ciance 2) ( Disegna) Dobbiamo capire cos’è il SR e come si materializza. Il SR è quel qualcosa che mi permette di rispondere alla domanda dove sono ,il SR è definito come l’insieme di regole necessarie e sufficienti per definire la posizione di un punto in un certo ambito dimensionale. SE facciamo l’esempio di un sulla lavagna, l’ambito dimensionale è 2D, prendo un punto come riferimento (origine) e traccio un asse che mi definisce una dimensione (l’altra è definita ad essa perpendicolare), concetto che si vede che è facile esprimere sulla lavagna più complicato da fare su tutta la superficie terrestre, ma comunque il ragionamento è analogo. Sottoliniamo il fatto che è abbastanza semplice dare una definizione di SR, ma quello che è più importante e complicato è la materializzazione del SR dove le scelte devono essere guidate dal buon senso e dalla comodità. é più complicato materializzare il SR della superficie terrestre perché la superficie terrestre è mutevole. Ci sono spostamenti regolari (ben definiti) e irregolari (casi come fukushinma e sumatra). Definire un SR è un procedimento “meccanico”(semplice) faccio delle scelte arbitrarie e blocco i gdl (così stabilisco le regole e informazioni nella definizione di SR), nell’esempio 2D i gdl sono 3, 2 li blocco scegliendo l’origine e l’altro lo blocco scegliendo l’asse. Nelle 3D i gdl sono 6 (3 traslazioni e 3 rotazioni), possiamo vederle nella rappresentazione di ewulero dove ho i 3 assi e una rotazione rigida nello spazio ( come prodotte di 3 rotazioni piane ognuna intorno ad una asse). La materializzazione (realizzazione) è un procedimento più complicato (scelta di più riferimenti che variano nel tempo). La via più semplice è la materializzazione per punti (esempio 2d). Introduco un punto che è l’origine O di coordinate nulle (o assegnate), prendiamo un’asse uscente da questo punto e dico che ha una certa direzione, ora devo tradurre questa operazione sotto forma di punti prendendo un altro punto P che giace su questa retta e gli definisco le coordinate (x indeterminata e una y che definita), riusciamo ad individuare completamente l’asse x. Se introduco una altro punto sulla retta con x soprassegnato diversa introduciamo quello che si chiama metrica, cioè stabilito io che la distanza OP vale modulo di x soprassegnato, tale informazione è necessaria se decidiamo di non utilizzare altre unità di misura ma la decido. Se io decido di y di utilizzare un’unità di misura già definite (metro in francia, lunghezza d’onda di decadimenti nucleari ecc…), potremo andare a produrre un’eventuale discrasia dal punto di vista metrico se utilizzassi anche la mia metrica (quindi non mi serve). Discorso diverso dal punto di vista della materializzazione pratica (lo vedremo), infatti le condizioni non sono così semplici , perché le coordinate dei punti sono variabile nel tempo e, dal fatto che le coordinate discendono da operazioni di misura e quindi affette da errori che dobbiamo controllare, e per fare ciò devo avere delle informazioni sono sovrabbondanti. Si deduce che nella pratica la definizione del SR coincide con la teoria mentre la materializzazione non (per via degli errori). 3) La materializzazione di un SR ha degli effetti immediati per quanto riguarda la possibile compresenza di diversi SR, e vedremo come passare da un SR all’altro. (rispiega cose fatte ieri). Adesso ci poniamo il problema della materializzazione di un SR 3D, dobbiamo ad andare a bloccare i 3 gdl delle traslazione e i 3 gdl alla rotazione. Per bloccare i gdl alla traslazione definisco un punto O come origine a coordinate nulle, per bloccare i rimanenti gdl le scelte sono arbitrarie, andiamo a identificare le direzione di un asse (supponiamo sia il z, analogo ragionamento per gli altri), prendiamo un punto P qualunque che giaccia in z, cioè con coordinate). Per definire completamente il SR, adesso sappiamo dove giace il piano xy (l’asse y e l’asse x giacciono sul piano ortogonale a z), ma non sappiamo in che modo x e y sono ruotati, devo avere un altro punto Q che giace sul piano xz (non è necessario che sia su uno dei 2 assi rimanenti), così l’asse x sarà l’intersezione del piano xy con il piano xz (piano meridiano di greenwich o piano meridiano fondamentale perché non passa proprio per greenwich quello deciso dal parlamento inglese nel 700).

description

geo

Transcript of GEOMATICA Ultima Epoca

Page 1: GEOMATICA Ultima Epoca

GEOMATICA

SISTEMA DI RIFERIMENTO definizione e materializzazione

1)Sta spiegando quello che faremo nel corso, e sta facendo esempi ciance 2) (Disegna) Dobbiamo capire cos’è il SR e come si materializza. Il SR è quel qualcosa che mi permette di rispondere alla domanda dove sono ,il SR è definito come l’insieme di regole necessarie e sufficienti per definire la posizione di un punto in un certo ambito dimensionale. SE facciamo l’esempio di un sulla lavagna, l’ambito dimensionale è 2D, prendo un punto come riferimento (origine) e traccio un asse che mi definisce una dimensione (l’altra è definita ad essa perpendicolare), concetto che si vede che è facile esprimere sulla lavagna più complicato da fare su tutta la superficie terrestre, ma comunque il ragionamento è analogo. Sottoliniamo il fatto che è abbastanza semplice dare una definizione di SR, ma quello che è più importante e complicato è la materializzazione del SR dove le scelte devono essere guidate dal buon senso e dalla comodità. é più complicato materializzare il SR della superficie terrestre perché la superficie terrestre è mutevole. Ci sono spostamenti regolari (ben definiti) e irregolari (casi come fukushinma e sumatra). Definire un SR è un procedimento “meccanico”(semplice) faccio delle scelte arbitrarie e blocco i gdl (così stabilisco le regole e informazioni nella definizione di SR), nell’esempio 2D i gdl sono 3, 2 li blocco scegliendo l’origine e l’altro lo blocco scegliendo l’asse. Nelle 3D i gdl sono 6 (3 traslazioni e 3 rotazioni), possiamo vederle nella rappresentazione di ewulero dove ho i 3 assi e una rotazione rigida nello spazio ( come prodotte di 3 rotazioni piane ognuna intorno ad una asse). La materializzazione (realizzazione) è un procedimento più complicato (scelta di più riferimenti che variano nel tempo). La via più semplice è la materializzazione per punti (esempio 2d). Introduco un punto che è l’origine O di coordinate nulle (o assegnate), prendiamo un’asse uscente da questo punto e dico che ha una certa direzione, ora devo tradurre questa operazione sotto forma di punti prendendo un altro punto P che giace su questa retta e gli definisco le coordinate (x indeterminata e una y che definita), riusciamo ad individuare completamente l’asse x. Se introduco una altro punto sulla retta con x soprassegnato diversa introduciamo quello che si chiama metrica, cioè stabilito io che la distanza OP vale modulo di x soprassegnato, tale informazione è necessaria se decidiamo di non utilizzare altre unità di misura ma la decido. Se io decido di y di utilizzare un’unità di misura già definite (metro in francia, lunghezza d’onda di decadimenti nucleari ecc…), potremo andare a produrre un’eventuale discrasia dal punto di vista metrico se utilizzassi anche la mia metrica (quindi non mi serve). Discorso diverso dal punto di vista della materializzazione pratica (lo vedremo), infatti le condizioni non sono così semplici , perché le coordinate dei punti sono variabile nel tempo e, dal fatto che le coordinate discendono da operazioni di misura e quindi affette da errori che dobbiamo controllare, e per fare ciò devo avere delle informazioni sono sovrabbondanti. Si deduce che nella pratica la definizione del SR coincide con la teoria mentre la materializzazione non (per via degli errori).3) La materializzazione di un SR ha degli effetti immediati per quanto riguarda la possibile compresenza di diversi SR, e vedremo come passare da un SR all’altro. (rispiega cose fatte ieri). Adesso ci poniamo il problema della materializzazione di un SR 3D, dobbiamo ad andare a bloccare i 3 gdl delle traslazione e i 3 gdl alla rotazione. Per bloccare i gdl alla traslazione definisco un punto O come origine a coordinate nulle, per bloccare i rimanenti gdl le scelte sono arbitrarie, andiamo a identificare le direzione di un asse (supponiamo sia il z, analogo ragionamento per gli altri), prendiamo un punto P qualunque che giaccia in z, cioè con coordinate). Per definire completamente il SR, adesso sappiamo dove giace il piano xy (l’asse y e l’asse x giacciono sul piano ortogonale a z), ma non sappiamo in che modo x e y sono ruotati, devo avere un altro punto Q che giace sul piano xz (non è necessario che sia su uno dei 2 assi rimanenti), così l’asse x sarà l’intersezione del piano xy con il piano xz (piano meridiano di greenwich o piano meridiano fondamentale perché non passa proprio per greenwich quello deciso dal parlamento inglese nel 700).

Page 2: GEOMATICA Ultima Epoca

I problemi pratici relativi alla a materializzazione del SR sulla superficie terrestre sono: la variabilità delle coordinate, e gli errori delle misure, quindi la bontà delle coordinate dipende dalla potenzialità dei sistemi di misura e dalla analisi e la correzioni degli errori, per fare questo abbiamo bisogno di avere informazioni ridondanti. Grande differenza tra definizione e materializzazione.

4) Moti terrestri dell’asse e della superficie terrestre A noi interessano 2 tipi di moti quelli dell’asse terrestre nello spazio e i moti dell’asse terrestre rispetto alla terra raggruppati come moti dell’asse terrestre, e i moti della superficie terrestre.I secondi è intuitivo ci interessano per capire come si comporta la superficie terrestre in quanto è li che vogliamo impiantare il nostro SR. Mentre ci interessano i moti dell’asse terrestre nello spazio (come si comporta la terra nel suo complesso) perché tutte le operazioni che dobbiamo andare a considerare per determinare le coordinate della superficie terrestre devono essere guidate da strumenti facenti parte della geodesia spaziale, cioè opportune costellazioni di satelliti ed altri strumenti. I singoli moti che l’asse terrestre compie nello spazio sono:-precessione: per cui l’asse terrestre viaggia nello spazio non semplicemente traslando ma ruota lentamente descrivendo un cono (di angolo 23°27’) con periodo di circa 25800 anni (esempio del moto di una trottola), moto che è dovuto alla attrazione del sole . A questo moto di precessione si sovrappone il moto i nutazione dovuto all’attrazione gravitazionale che la luna e il sole esercitano sulla terra, ma soprattutto la luna più piccola ma molto più vicina (luna dista 350000 di km, il sole dista 150 milioni di km) che fa oscillare questa traiettoria ( di circa 9,2”) con periodo di circa 18,6 anni, perchè dopo questo periodo la luna si ripresenta alla terra nella stessa posizione. Siccome la terra non è perfettamente calettata sul suo asse. (Figura che mostra il sse terrestre dal punto di vista del polo e come se sbucasse l’asse sotto i piedi). Si nota che l’asse di rotazione non è fermo ma fa una spirale (cerchio variabile) in un periodo di 435 giorni, di ampiezza dell’ordine di alcuni metri (langolazione varia da1-2)”. Tale moto che prende il nome di polar motion, è approssimativamente conico, intorno ad un punto convenzionale medio detto polo convenzionale terrestre. Ipotizzando che questo andamento sia abbastanza regolare, per via di quel che successo a fukushima si presume che ci sia stata una discontinuità della decina di cm, però non è possibile determinarlo subito, (e soprattutto non è che prima l’asse era fermo) si sottolinea che la figura mostra il moto dell’asse rispetto alla terra e non rispetto allo spazio quindi non centrano niente la precessione e nutazione. Ci si è accorti di quest’ultimo moto guardando le stelle alla fine dell’800 (Carloforte in Sardegna) con lo strumento dei passaggi. Dei moti della superficie terrestre dobbiamo considerare i co e i ctp.Siccome l’asse terrestre si muove è stato definito il polo convenzionale terrestre (così viene inteso il polo nord), come media del moto dell’asse terrestre sulla superficie. Considerando i moti relativi alla superficie terrestre si distinguono i moti di tipo periodico e i moti secolari (non hanno periodicità ma hanno un andamento nel tempo). Fenomeni periodici:-maree oceaniche e terrestri, bisogna sapere che quello che succede al mare per effetto della attrazione delle luna e del sole, succede anche alla crosta terrestre, a Roma 2 volte al giorno la crosta terrestre sale e scende di 30 cm. Le maree oceaniche fanno variare il carico idrostatico sulla crosta inducono delle deformazioni sulla crosta (deformazioni indotte) che arrivano fino ad alcuni cm. C’è poi il carico aerostatico dovuto alle variazioni della pressione atmosfera che deforma la crosta di alcuni mm. Visto che questi fenomeni hanno un motore ben individuato cioè l’attrazione gravitazionale della luna e del sole (in misura minore) le maree possono essere considerate periodiche, mentre le deformazioni dovute al carico aerostatico non possono essere considerate periodiche. Dobbiamo costruire dei modelli per descrivere questi movimenti, questi modelli sono importanti per poter adottare una posizione più una deformazione data dal nostro modello, oppure stabilire le coordinate al variare del tempo (ma è la stessa cosa, soliti viaggi del prof). Se vediamo i grafici relativi alla stazione di Matera vediamo che l’andamento non è che sia proprio regolare (in quanto la una non è sempre alla stessa distanza dalla terra), si nota anche che ci sono spostamenti di quote e spostamenti orizzontali. Consideriamo i fenomeni non periodici: oltre a quelli catastrofici legati a eventi sismici, ci sono quelli legati ai fenomeni della tettonica a zolle (in tutto le placche sono 50, quelle principali sono

Page 3: GEOMATICA Ultima Epoca

una 20) dove ogni zolla si muove vincolata alle altre ma per conto proprio (wegner fine 800) in realtà non si sa bene quale sia la ragione ultima che determina lo spostamento. La zolla che si muove più veloce e la zolla del pacifico spostamenti delle decina di cm/anno (è per questo che ci sono tanti terremoti) , nelle altre zolle gli ordini i grandezza degli spostamenti sono in genere di alcuni cm all’anno ( poi vedremo rispetto a che cosa). I movimenti delle placche sono essenzialmente bidimensionali, solo nelle zone di contatto (subsidenza) tra le placche ci sono forti movimenti relativi alla quota ma sono zone limitate, ci sono fenomeni non periodici che provocano spostamenti verticali. Gli spostamenti verticali possono essere provocati da fenomeni di origine naturale e artificiale. Tra quelli naturali è famoso il bradisismo di Pozzuoli dove il suolo sale e scende per via di fenomeni di vulcanismo secondario ( le camere magmatiche si riempiono e si svotano e determinano differenza di pressioni importanti) fenomeni dell’ordine della decina di metri. I fenomeni artificiali ci sono fenomeni di subsidenza (dovuti all’estrazioni di acqua e di idrocarburi). C’è un altro fenomeno che si manifesta alle alte latitudini nord (Canada, Siberia, Scandinavia) chiamato absidenza o rebound post glaciale, il suolo tende a salire dell’ordine dei mm l’anno per via del rilassamento dovuto al disgelo dell’ultima era glacialeCome facciamo a trattare i fenomeni non periodici? L’unico modo mettersela via dicendo che non possiamo definire le coordinate,o dire che queste variano e le devo di volta in volt in volta rimisurare, oppure ipotizzare un moto rettilineo uniforme, questo in genere non è vero, però è un modello valido per intervalli temporali limitati (a cui affiancare delle coordinate convenzionali). Consideriamo un grafico relativo agli spostamenti della stazione sopra la facoltà. La scala temporale è definita in settimane gps (il t =0 è l’epifania del 1980). Si vede che in circa 4 anni siamo andati in direzione nord est di circa 5 cm in entrambe le coordinate per effetto del moto della placca euroasiatuica (in verità la situazione è più complicata). Se vediamo l’andamento in quota esso ha una certa regolarità, ha un trend negativo con delle sue periodicità legate a fenomeni stagionali stabilità del SR dovuto a fenomeni e carcio e scarico della falda.

5) Viene proposto un esercizio ad una dimensione, per capire bene cosa significa: definire una posizione convenzionale di un punto P (in moto), utilizzare un modello di moto secolare, e utilizzare un modello di moto periodico. Ho uno strumento collocato in S(fermo) , mi muovo in ambito monodimensionale su una retta che per comodità chiamiamo x. Parlo di posizione convenzionale perché P ha una x dipendente dal tempo e ipotizzo che un modello buono per descrivere la posizione del punto sia rappresentato da una semplice legge. Questa legge è composta da 2 componenti una di moto periodico semplice e una di moto secolare (rettilineo uniforme) Supponiamo che il modello periodico sia noto, questo vuol dire che sono noti i suoi parametri fondamentali: l’ampiezza, la pulsazione e la fase iniziale. Per il moto secolare un buon modello per andare a rappresentare almeno in un intervallo di tempo definito la posizone in tempi diversi è il moto rettilineo uniforme, nell’espressione della legge oraria quello che è noto è solo l’istante di tempo in cui andrò a fare delle opportune misure per andare a trovare le quantità che sono incognite che descrivono il moto rettileno uniforme cioe x0 (posizione all’istante 0, che è la posizione convenzionale) e v. Il moto secolare non è incognito, quello peridioco si. L’ osservazione per poter trovare le inc, si ipotizza che con un strumento situato in S siamo in grado di misurare la distanza tra S e P, per trovare la posizione di P mi basterebbe una misura, ma ne faccio di più per avere ridondanza e farne una stima più raffinata. Purtroppo la situazione è più complicata in quanto P si muove, quindi se faccio la misura della distanza in tempi diversi otterrò delle posizioni di P diverse, alle’esecuzione di ogni misura di distanza dovrò connotare anche l’informazione temporale. (formule). Se io faccio n osservazioni a n istanti di tempo diversi metterò via n relazioni. Le mettiamo all’interno di un sistema, sistema di eq. di osservazione. Dobbiamo utilizzare un modello funzionale (che è lo stesso che si usava in topografia) che è lineare che lega il vettore x (n elementi) dove sono contenuti parametri inc. al vettore y (n elementi) nel quale sono contenute tutte le

Page 4: GEOMATICA Ultima Epoca

quantità osservate. Questo legame è legato dalla matrice disegno (all’interno ci sono i coefficienti delle incognite) e dal vettore termine noto (all’interno le quantità note)…22:00…piscio ….. 6) passaggio da un SR all’altro Le rinnovate disponibilità tecnologiche inducono all’operazione di progressivo aggiornamento,della materiallizzazione dei SR. Si rifanno le misure e si trovano nuovi valori di v e x0 anche se riferiti alla stessa epoca convenzionale leggermente diversi. Nel momento in cui vado materializzare diversi SR, è vero che saranno tra loro diversi ma in realtà non di tanto (fa l’esempio del il piano meridiano di greenwich che è stato spostato di poco rispetto alle dimensioni della terra). Il problema più generale consiste nell’avere 2 SR, e passare da uno all’altro determinando il legame analitico che descrive la trasformazione dal SR s al SR s’. Questa trasformazioe l’abbiamo gia vista, il SR è un corpo rigido che per orientarlo nello spazio si devono fare 6 scelte che bloccanno i sui 6 gdl , quello che andremo a fare per orientarlo nuovamente sarà un rototraslazione rigida ( formule). Con questa scrittura scrivo che partendo da s e prendendo il generico punto che in s ha coordinate xyz e lo ruoto tramite una matrice per fare in modo che abbia gli assi // al SR s’, successivamente faccio tre traslazioni che i posrtano O a O’. I 6 parametri che regolano la trasformazioni sono xyz omega fi e k e rappresentano gli angoli di rotazione ordinatamente intorno agli assi xyz ( avremo un prodotto matriciale di 3 rotazioni piane), (matrici) ricordarsi che omega è positivo se ruota in senso antiorario….. piscio 14:00 cose che si sanno e non ci perdo tempo

7) ciance modello funzionale stocastico della trasformazione tra 2 SR , non ci perdo tempo in più lui ha fatto confusione e i pischelli pure

SR locali e globali e tecniche di materializzazione8) Cerchiamo ora di capire come tutto quello che abbiamo visto in termini generali viene calato nel contesto geodetico. Quali sono i SR definiti e materializzati? Da un punto di vista generale, è importante considerare che di SR ne posso esistere di 2 tipi quelli globali (WGS84 che è quello associato al GPS) e quelli locali (ROMA 1940, ED1950 sistemi storici che non vengono più materializzati e hanno validità locale e altri non storici ETRF e RDN). Vedremo che Dobbiamo conoscere altri SR locali tutt’ora in uso, e altri sistemi globali. Il SR convenzionale terrestre è un SR globale, il termine convenzionale sta a indicare che per fissarlo si sono fatte delle scelte convenzionali, tali scelte sono: origine nel baricentro terrestre, asse z coincidente con l’asse di rotazione terrestre convenzionale (media, all’epoca 1984.0), piano meridiano di riferimento approssimativamente passante per greenwich (abbiamo bloccato tutti i gdl). La definizione non ha errori in quanto è un idea, mentre la realizzazione ha tutti gli errori che mi derivanti da tutte le misure effettuate per materializzarlo. Il WGS84 (SR globale), questo rispecchia la definizione appena data ed è una sua materializzazione, la cosa che non è molto buona è che è stato materializzato per esigenze esclusivamente militari. Ne consegue che ha delle particolari caratteristiche, è un SR che risulta materializzato da solo 5 stazioni fondamentali più 5 accessorie (10 stazioni). Le stazioni sono così poche per poter avere un sistema agile, però è poco accurato. Il tom tom ci fornisce le coordinate in questo SR. ( parla del GPS). Il problema di questo SR che essendo basato su poche stazioni, queste fanno poche misure, le orbite stesse dei S quindi sono basate su queste poche misure e quindi tutte le posizioni che il GPS ci fornisce è affetto da errori fisiologici. Quindi io in questo sistema non riesco a sfruttare al meglio delle mie potenzialità il GPS e non riesco a posizionarmi con una precisione superiore ai svariati metri. L’ITRS (international terrestrial reference system) è il SR convenzionale terrestre. Io devo realizzare al meglio l’ITRS anche perchè non esiste solo il GPS anzi tale sistema è arrivato dopo, prima c’erano altri 2 sistemi di misura il VLBi (anni 70) il satellite laser ranging (dalla fine degli anni 70). Bisogna capire che tutto quello che posso mettere in campo una compresenza di tecniche di misura (ne esiste una terza ma è in fase sperimentale). Queste prime 2 tecniche sono state soppiantate dal GPS perché se andiamo a vedere in tutto il mondo quanti sono i luoghi dove andiamo avere i vari sistemi di

Page 5: GEOMATICA Ultima Epoca

misura ne contiamo circa 30 per il VLBi , 70 LR e ,tra 400-500 per il GPS, (figura che mostra la distribuzione delle stazioni). Vediamo che le stazioni sono mal distribuite (la maggior parte nel nord del mondo), questo è un problema che mi ritrovero ogni volta in cui devo passare da un SR all’altro (l’informazione non è buonissima). Perché il VLBi ha così poche stazioni e perché è così importante? Le stazioni sono costosissime costituite da radiotelescopi che osservano quello che succede ai confini dell’universo conosciuto (14 miliardi di anni luce). Osservano segnali molto particolari che vengono emessi da sorgenti chimate quasar. Questo è utile perchè osservo punti situati all’infinito e posso supporre vista la lontananza che i segnali sono tra loro paralleli. Questo è importante per la materializzazione perché in ogni luogo in cui c’è una stazione VLBI riesco a determinare le coordinate. La situazione in verità è un po’ più complicata perchè l’antenna ha 100 m di diametro, ed è difficile materializzare un punto. Supponendo di togliere questi problemi, per utilizzare questi segnali per trovare le nostre posizioni vado a vedere i ritardi che ci sono tra l’arrivo dello stesso segnale ad una stazione e all’arrivo da un al’altra stazione. É questo è il principio fondamentale su cui si basa, tale stazioni costano decine di milioni di dollari. Il vantaggio è che il VLBi è l’unico che ci dice come gira la terra, e da questo riusciamo a capire come è disposto l’asse di rotazione terrestre rispetto all’universo e capire i moti di precessione di nutazione. Il laser ranging è più fitto e costa un po’ di meno. Il principio (si fa il paragone con la stazione totale) è un S in orbita tutto coperto da prismi, ci mettiamo in un punto mandiamo un segnale che rimbalza ritorna e noi riusciamo a misurare la distanza, mentre il S ha posizione nota. Noi utilizziaimo il LR per materiallizzer un SR per motivi economici e soprattutto perche i satelliti LR viaggianoi su orbite basse, e per tale motivo l’orbita del S risente maggiormente dell’effetto del campo gravitazionale terrestre. Nel momento in cui andiamo a scrivere il modello funzionale che lega la posizione del punto alle nostre osservazioni, nel nostro modello entra la posizione del baricentro terrestre. Quindi con il LR riusciamo a determinare il baricentro terrestre, e le sue variazioni dovute a effetti esterni. Questo è importante perché se il baricentro cambia posizione anche la nostra origine (per come è stata definito il SR) cambierà posizione.10) I gdl sono stati tutti bloccati grazie alle nostre osservazioni (il piano meridiano è una scelta convenzionale). Quindi teoricamente del GPS non è abbiamo bisogno, in realtà esso viene utilizzato per infittire la materializzazione del nostro SR, in quanto è molto economico e conseguentemente maggiormente distribuito anche se non è ancora ben distribuito in tutto il mondo. Il servizio IGS è il servizio più importante a livello internazionale, che anche se giovane ha preso molto soppravvento, grazie all’economicità del sistema su cui è basato (il gps). Ultimamente ha variato il nome (non l’acronimo) variando GPS in GNSS che è il nome più completo e sta per global navigation satellite systems, che comprende anche il glonass che è simile al GPS e quelli che verranno galileo in stato embrionale e il sietama cinese compass. Il servizio IGS contribuisce alla realizzazione del SR internazionale terrestre, in più si occupa di gestire la parte relativa al contributo dei sistemi GNSS. (figura della rete IGS). Dal punto di vista istituzionale ci sono 2 entità indipendenti che si occupano di fare cose diverse. La prima con sede a Parigi l’international eerat rodation servcie IERS ha il compito di determinare alcuni elementi di utilità sia dal punto di vista geodetico che astronomico, calcola i parametri di orientamento e di rotazione terrestre che consistono in 3 informazioni fornite quotidianamente: di quanto l’asse terrestre si discosta dalla posizione convenzionale del polo (sia in termini metrici, sia in termini angolari), l’altro parametro ci dice come la terra sta ruotando (infatti rispetto ad un tempo atomico la rotazione delle terra non è uniforme). Poi ha il compito di andare a riferire il SR celeste comodo da utilizzare per descrivere il moto dei S (dove la terra ruota all’interno di esso). Poi ha un compito fondamentale che è quello di andare a definire tutto un insieme di convenzioni (modelli) che intervengono nella materializzazione dei SR sia terrestri che celesti, uno di questi è il modello della marea terrestre. L’altra entità è l’istituto geografico nazionale francese che si occupa di andare a prendere i dati acquisiti da VLBI LR e GNSS e metterli insieme in una maniera intelligente, per realizzare il SR. Mette via e accumula le nuove informazioni per poter aggiornare la materiallizzazione del SR. La realilizzazione dell’idea (la definizione SR cioè dell’ITRF), prende il nome di ITRF (frame) e si nota come l’ITRS è

Page 6: GEOMATICA Ultima Epoca

immutabile nel tempo, mentre nell’ITRF viene connotato da un riferimento temporale che è l’anno in cui venne rilasciato (il primo è ITRF89 poi 94 97 mentre l’ultimo è l’ITRF2008, rilasciato nel 2010 nel frattempo è stato calibrato). Come si fa a aver una materiallizzazione? Abbiamo già visto come si fissa l’asse z e il geocentro (baricentro terrestre). Vediamo come si fissa l’asse x, cioè come viene decisa la posizione delle piano xz. Dobbiamo tenere conto del fatto che la superficie terrestre è costituita da placche crostali, e quindi se ancorassimo questo piano ad una placca crostale il piano vaiggerebbe con essa, questo avrebbe poco senso. È invece più importante definire un orientamento rispetto il quale il moto di tutte le placche possa essere rappresentato. Sulla base di dati geologici è stato costruito all’inizio degli anni 90 un modello dello spostameno delle placce (ha avuto origine in ambito geologico e non geodetico). Questo modello è stato confermato dai dati geodetici (per il 95%), si è pensato allora di integrare le 2 informazioni (geologica e geodetica), e ciò ha comportato di scegliere un piano xz che possiamo chiamare medio in maniera tale che la somma dei momenti di inerzia delle placche sulla superficie terrestre sia costante, questa costanza comporta che tutte le placche rispetto a questo piano medio nel loro spostamento non comportano una rotazione globale (moto univoco a rotazione nulla). Se io vado a scrivere la somma dei momenti di inerzia moltiplicata per la loro velocità angolare ripettto al SR prescelto, questa somma è nulla, questo permette di stabilte il piano medio. Vediamo un altro aspetto. Ci sono alcuni punti sulla superficie terrestre che rappresentano dei collegamenti tra la superficie terrestre e il mantello sulla quale galleggia la crosta, nella geodinamica è utile rappresentare il moto delle singole placche rispetto al mantello (e non rispetto al SR convenzionale). Questi punti non sono tanti, una di queste sono le isole Haway, quindi se capisco come si muovono le isole haway nel corso degli anni ho un evidenza geolgica di come la crosta si è spostata sopra il mantello. La metrica viene determinta da VLBI e LR, ma ultimamente tale scelta è stata rivista, e ora si utilizza il LR. Quando immaginiamo la materializzazione dobbiamo immaginare un elenco di posizioni e di velocità riferite ad una certa epoca, in tutto ciò la funzione del GPS è quella di densificare il SR. Questo è molto importante, possiamo produrre altri punti in questo SR. Facciamo un esempio semplice di punti che vanno a materializzare un ETRF 2000 il tutto consiste in un elenco di nomi, sigle e coordinate e un elenco di velocità tutto affiancato con la relativa precisione. Si nota che le velocità non sono tutte uguali, e i punti anche se sono vicini si muovono in maniera diversa e questo è la causa dei terremoti.11) Tutti i vari ITRF che sono stati fatti sono materializzazioni diverse dello stesso ITRS. Questi SR sono stati realizzati con l’ipotesi che i punti si muovano di moto rettilineo uniforme, quindi ad un epoca di riferimento avremo una certa posizione e velocità, con questa ipotesi posso muovere i punti in dipendenza dell’epoca alla quale voglio andare a conoscere le coordinate dei punti stessi. (formule) Se ho rispettivamente posizione e velocità convenzionali all’epoca di riferimento, la varianza della posizione e la varianza della velocità all’epoca di riferimento, posso andare a calcolare la posizione e la sua precisione ad un epoca t qualunque all’interno del periodo di validità del mio SR (basta che applico la legge del moto rettilineo uniforme, mentre per la varianza a qualsiasi epoca uso la legge di propagazione delle varianza. Se t è troppo grande rispetto all’epoca di riferimento l’errore esplode, è evidente che non devo considerare epoche troppo distanti da quella di riferimento, il che equivale a dire che è meglio ipotizzare intervalli di validità abbastanza stretti. In più questo errore risulta anche sottostimato in quanto il modello rettilineo uniforme potrebbe essere sbagliato soprattutto per periodi lunghi la cui validità potrebbe essere variabile al variare della posizione sulla superficie. Con il progredire delle tecnica possiamo avere precisioni migliori che propagandosi con le epoche provocheranno degli errori minori rispetto ai modelli costruiti a partire da misure meno raffinate. (Mostra figure con andamenti degli spostamenti di qualche cm sull ‘intervallo di validità) É banale dire che bisogna utilizzare la materializzazioni più recenti. Costruire nuove materializzazioni richiede comunque un grande dispendio di forze, acquisizione di dati per periodi molto lunghi, e trattamento dei dati, è per questo che non vengono rilasciate molto frequentemente (intervallo di 3-4 anni). Siccome nell’intervallo di validità del modello si è visto che la posizione dei punti variano anche di alcuni cm e la materiallizzazione di nuovi modelli è onerosa, si è tentato di correre ai ripari, andando a realizzare un SR in un maniera più semplice. Andando a

Page 7: GEOMATICA Ultima Epoca

materiallizzare un SR basato solo su misure GPS,anche se in verità non è proprio così in quanto il GPS non è autosufficiente,quindi utilizzo il VLBi e LR (per fare quelle misure che con il solo GPS non è possibile fare, geocentro e orintamento dell’asse z ), poi mi scordo da dove arrivano i dati che ci forniscono. Tale sistema viene gestito direttamene dall’IGS (negli altri due sistemi i dati confluivano a Parigi e venivano calcolati dall’istituto geografico francese). Questo sistema prende il nome di IGS in e ha anch’esso una connotazione temporale che indica l’anno di rilascio il primo è l’IGS00, con la materializzazione di ITRF 2005 è stato rilasciato l’IGS05 (che consiste nell’ITRF05 ma solo con i punti determinati prevalentemente solo con il GPS). La tecnica di materialzzazione è completamente diversa rispetto all’ITRF. Di materializzazioni ne vengono fatte 2, si fa una materializzazione settimanale che consiste nel prendere i dati delle stazioni attive in quella settimana, vado a calcolare le stazioni in una settimana e faccio una media giornaliera (su tutta la settimana). La seconda materializzazione viene fatta in termini di moto rettilineo uniforme andando a calcolare posizione e velocità relativa e epoca di riferimto molto distante il 98.0. Un'altra questione importante è quella legata alle effemeridi broadcast (precisione ordine del m) dei S che in genere sono fornite in WGS84, ma ne esistono anche altre dette precise che non vengono riferite al WGS84 altrimenti non sarebbero precise (precisione di 5 cm), in quanto la materializzazione WGS84 non è una materializzazione precisa, ma vengono fornite in IGS05. Ci si chiede come sono collocate fra di loro tutte queste materializzazioni del SR convenzionale terrestre che abbiamo preso in consiederazione cioè WGS84, l’ITRF08 e l’IGS05. ITRF e IGS sono diversi dal punto di vista dei dati che sono presi in considerazione: l’ITRF considera tutto gps LR e VLBI, mentre l’IGS (quasi) solo il gps, ma la differenza tra uno e l’altro è di qualche mm quindi per la maggior parte dell applicazioni pratiche sono indistinguibili. Mentre per il WGS84 è coerente con l’uno e con l’altro del livello di alcuni cm comunque meno del dm. Nel momento in cui io utilizzo un navigatore GPS che di per se mi fornisce una posizione con una precisione che va dai 5 e 10, tutti questi sistemi globali sono indistinguibili. Quando non c’erano ne LR ne VLBi ne tantomeno gps, si consideravano le coordinate come immutabili perché gli strumenti di misura erano grossolani e non erano in grado di misurare le varazioni delle posizioni (le misure avevano errori della decina di cm), ma il principio nel materializzare un SR era lo stesso che cè adesso da quelle coordinate venivano realizzate le mappe. L’esigenza pratica di volere che le posizioni siano le stesse oggi come domani si è posto il problema di andare a riconoscere se non fosse possibile andare arealizzare dei SR dove le coordinate siano sostanzialmente costanti col passare del tempo, nonostante la superficie terrestre sia mutevole.

ETRS89 materializzato ETRF e RDN12) Si è ritenuto utile una’altra materializzazione dell’ITRS a livello europeo, questo per avere una materializzazione nella quale le coordinate dei punti rimangano particolarmente costanti, nel senso che le loro variazioni nella stragrande maggioranza dellle applicazioni tecniche (tra cui le nostre) siano trascurabili (lo stretto di messina è la zona più osservata dal punto di vista geodetico della terra, faglie attive). Per ottenere questa materializzione, si è definito un SR solidale con la placca europea. Il primo ITRF è stato rilasciato nell’89, in cui non c’era la densità attuale di stazioni, però in giro per l’europa c’era un certo numero di R gps funzionanti si è deciso di prendere un certo numero di punti sparsi per l’europa e dire che il SR solidale con la placca europea era materializzato da questi punti con le coordinate ITRF calcolate nell’89 (non siamo andati a dire prendo l’asse z , prendo l’origine e il pianoxz ), abbiamo assunto una decisione molto più semplice che richiama la definizione dei SR antichi. Ovviamente questi punti da ITRF 89 si evolvono sia perchè la placca si muove e sia perché ci sono state altre materializzazioni (effettuate con strumenti più precisi). Comunque così facendo è stato definito il ETRS 89 (definito tramite una materializzazione) e materializzato dall’ITRF89. Si è deciso in questi vent’anni di densificare questa materilzzazione in ambito europeo (nell’89 le stazioni erano circa 20 ora sono più di 200), questo a comportato di calcolare nuove coordinate delle stazioni che via erano disponibili, tali coordinate però non erano più calcolate nell’89. La definizione ETRS89 è stata accompaganta da una prima materializzazione

Page 8: GEOMATICA Ultima Epoca

ITRF89 , la definizione e la materializzazione sono perfettamente coincidenti. Man mano che sono state disponibili nuove stazioni si è deciso di fare in ambito europeo come con gli altri SR internazionali, quindi ogni tanto ricalcolare tutto tenendo presente che io mi sto sempre spostando con la placca eoropea. Quindi questi ricalcoli non avevano lo scopo di andare a stimare la velocità di queste stazioni ma avevano solamente lo scopo di ricalcolare meglio le coordinate che avevo una prima volta calcolato nell’89 e anche per più punti. Da un punto di vista concettuale l’aggiornamento dell’ETRF deriva esclusivamente da nuove tecnologie e da infittimento e nuovi calcoli mentre le velocità sono nulle. La materializzazione attuale è l’ETRF2000, poi ci si è fermati perché si era gia spremuta tutta la precisione possibile ottenibile dalla tecnica, non aveva senso considerare altre materializzazioni, anche se la tecnica poteva avanzare di un pochino, ma l’entità di tale correzioni è così bassa soprattutto per le applicazioni pratiche che non valeva la pena fare altre materializzazioni. In ogni singolo stato si è provveduto a un’ulteriore densificazione dell’ETRF2000, quella italiana è una delle migliori in ambito europeo la densificazione è molto ben fatta e molto ben calcolata. Questa rete è costituita da circa 100 stazioni (una delle quali e sul tetto della facoltà), questa rete è stata chiamata RDN rete dinamica nazionale (anche se non si sposta e di dinamico c’è poco). Questa rete viene calcolata continuamente da 4 gruppi di ricerca (roma milano padova e dall’IGM), le coordinate non vengono aggiornate ma periodicamente controllate. Il monitoraggio serve a sapere se succede qualcosa di spiacevloe nel caso una stazione si spostasse. Questa rete è stata collegata ad una rete preesistente sul territorio nazionale e andava a materializzare il sistema ETRS89 nella sua prima materializzazione cioè l’ETRF89, la tecnologia GPS era ai primordi, si è utilizzato il GPS per andare a misurare alcuni punti con una precisione scarsa, è quindi stato usato come sistema di misura e non come strumento per materializzare il SR come nelle reti permanenti. (figura) (punti che materializzano l’ETRF in ambito nazionale). Tale rete è tutt’ora esistente. L’IGM 95 è una rete costituita 1234 punti (non stazioni) distribuiti in ambito nazionale le cui coordinate fisse andavano a densificare in ambito nazionale il SR ETRF89. Andiamo a vedere il legame che c’è attualmente tra 2 qualunque materializzazioni dell’ITRS e dell’ETRS. Consideriamo la nostra stazione permanente con coordinate in ETRF2000, posso conoscere quali sono le cordinate in ITRF2008 odierne (diverse da quelle che avevo ieri)?La differenza è che uno è un SR fisso, mentre l’altro è globale e tutte le placche si spostano. Andiamo a rappresentare il legame tra i 2 SR, i parametri che descrivono la rototraslazaione con variazione di scala evolvono nel tempo (l’ITRF ha coordinate continuamente mutabili). Esiste un sito web della rete di SP a livello europeo gestito dall’osservatore reale del belgio, dove decido da quale frame partire e a quale frame arrivare. Si devono introdurre coordiante cartesiane geocentriche e avrò quelle realative a quell’altro SR. La placca europea viaggia verso NE di 3 cm/anno, in 22 anni avrà fatto circa 66 cm, quindi bisigna fare estrema attenzione. In questo sito è anche possibile passare tra materializzazioni ITRF tra loro differenti. In ambito nazionale dal punto di vista tecnico bisogna utilizzare l’ETRF 2000 materializzazato dalla RDN, ad essere precisi in ambito nazionale si è deciso di associare come epoca di riferimento (epoca del primo calcolo delle 100 stazioni) il 2008.0. Quindi le coordinate ufficialmente rilasciate dall’IGM per le stazione delle stazioni RDN sono riferite al 2008.0, queste coordinate sono continuamente monitorate e considerate immutabili. C’è però un ulteriore difficoltà relativa più meno a tutti i territori che si affacciano al mediterraneo (ricorda che dall’ITRF si vedeva che l’italia non si muove tutto in questo modo). Quello che avviene in ambito nazionale è un po’ più complicato che in ambito europeo, nel senso che nel monitaraggio della RDN a parte eventuali fenomeni patologici (stazione in avaria, edificio che si assesta). L’italia fino all’appennino toscoemiliano, e la parte più a sud presentano delle differenze di velocità che per intervalli di alcuni anni non ha effetti sulle applicazioni pratiche, però dopo circa 20 anni le coordinate devono essere aggiornate, ma visto che esse vengono continuamente calcolate, tale aggiornamento non è traumatico e abbastanza fisiologico. (fa un check point e riassume comunque molto utile). All’ITRF posso associare un ellisoide che è quello WGS84 e rispetto a questo ellissoide viene riferito il modello di geoide (sviluppo in serie di 5 milioni di termini) IGB, IGS è la realizzazione dell’ITRF solo con misure GPS. Poi ci sono i sistemi storici,

Page 9: GEOMATICA Ultima Epoca

che devono essere considerati in quanto ci sono documentazioni d’epoca in cui ci si riferisce a questi. Comunque l’IGM ha fornito i parametri per passare da ROMA40 o ED1959 a ETRF2000.

Page 10: GEOMATICA Ultima Epoca

GPS

Un po’ di storia13) Il GPS è un sistema nato esclusivamente per motivi militari, in quanto la funzionalità di qualsiasi ricevitore gps dipende esclusivamente dalle scelte del dipartimento delle difesa USA, se decidono di escludere qualsiasi utente civile dall’uso del GPS possono farlo. é questo il motivo che ha spinto molti paesi a dotarsi del proprio sistema di posizionamento destinato all’utenza civile. L’idea del GPS è stata sviluppata alla fine degli anni 60 e le prime sperimentazioni a scopi militari agli inizio degli anni 80 negli USA ha avuto un impulso fortissimo durante la presidenza Reagan (per via dello scudo spaziale per guidare i missili a terra), e sperimentazioni in ambito civile in Europa e Italia fine anni 80. Parallelamente è stato sviluppato il Sistema gloonas che fino all’89 ha avuto un sviluppo confrontabile con il GPS, negli anni 2000 è stato ripreso e attivato. Il Galileo e il conmpass completeranno la disponibilità di posizionamento satellitare. Il satellite GPs è uno strumento molto complicato e costoso, Siccome l’idea è quella di avere 24 satelliti, che vengono costruiti 1 per volta , quelli che venivano costruiti dopo erano migliori per via del progresso tecnologico. Durante il periodo iniziale i satelliti erano pochi e il servizio era disponibile solo di notte. Sul satelliti sono montati molti dispositivi assolutamente vitali. Primi fra tutti sono gli orologi molto precisi (al rubidio), pannelli solari e c. Si stima che i satelliti abbiano una vita media di 7 anni e mezzo (certi sono durati di più certi sono durati di meno). La caratteristica fondamentale per la funzionalità pratica del GPS è che tale sistema può funzionare in tempo reale, e che ogni satellite comunica la propria posizione e comunica il segnale di tempo GPS.

Determinazione delle effemeridi e qualità della configurazione geometrica PDOPPer sapere dove stanno i satelliti c’è un sistema a terra che costantemente monitora e calcola le orbite, queste informazioni vengono caricate sul satellite, e da quest’ultimo inviate al ricevitore. Quindi c’è un segnale per comunicare le misure e per comunicare la posizione del satellite. Il satellite contribuisce al sistema se manda informazioni 24 ore su 24. Si distingue tra effemeridi trasmesse o broadcast (le più usate dai navigatori) e effemeridi precise o calcolate a priori (calcolate dall’IGS). Considerando che i satelliti viaggiano a circa 20 000 km di quota ad una velocità di circa 4 km/s si capisce che dobbiamo avere una certa precisione nel descriverne il moto. è importante sapere che passando da un’orbita broadcast (1 m di precisione media) a un’orbita precisa (5 cm di precisione media), dobbiamo considerare tutta una serie di effetti che con la precisione broadcast potevamo (era giustificabile) non considerare. Siccome i satelliti girano intorno alla terra e questa non è ne una sfera e ne un ellissoide, ma presenta una serie di irregolarità che si ripercuotono sul campo gravitazionale e che i satelliti sentono, nonstostante siano situati piuttosto in alto (infatti viaggiano a tali quote per risentirne poco) fino all’8 e 9 grado ne devo tenere conto. Inoltre anche le maree terrestri hanno effetti sui satelliti in quanto fanno oscillare la terre e ciò ne fa variare la gravità. Quindi quando parliamo di geoide stiamo ipotizzando un campo di gravità al netto dei fenomeni periodici, nella realtà se poniamo un gravimetro su un punto della terra vediamo che la forza di gravità varia durante la giornata. Ci sono inoltre effetti sulle orbite dei satelliti indotti dalle maree oceaniche, dall’attrazione della luna e del sole. C’è poi tutto quello che riguarda delle forze indotte dalla radiazione solare, infatti l’energia elettromagnetica proveniente dal sole che investe il satellite (pressione di radiazione ne fa variare l’orbita di diverse decime di m al giorno). Poi considerando che anche la terra illumina il satellite (luce che viene riflessa ) avremo una pressione di albedo molto più piccola che comunque dobbiamo considerare. C’è inoltre un minimo di attrito atmosferico e l’effetto del campo magnetico terrestre. Quindi il passaggio da effemeridi broadcast a effemeridi precise complica di molto il calcolo e si deduce perchè quest’ultime non siano calcolabili in tempo reale. In un modello ideale dove la terra è un corpo puntiforme in cui tutta la sua massa sia concentrata in esso, la descrizione delle orbite dei satelliti sarebbe banale e ottenibile tramite un semplice modello kepleriano. Il piano orbitale sarebbe

Page 11: GEOMATICA Ultima Epoca

costante, e le orbite eseguirebbero un ellisse con la terra (punto) concentrata in uno dei 2 fuochi . Questo modello in prima approssimazione è un ottimo modello, nel senso che per piccole porzioni di orbita che andiamo a rappresentare il modello kepleriano funziona ancora bene. I problemi iniziano quando voglio descrivere una arco molto lungo giorni o settimane, le perturbazioni vanno ad avere un effetto molto grande e le deviazioni dal modello kepleriano diventano importanti. L’arco in cui il modello kepleriano è valido è molto limitato, circa una decina di minuti, troppo breve per essere preso in considerazione. Quindi nella pratica il modello di keplero non viene mai utilizzato. Infatti l’intervallo temporale di interesse pratico minimo è di 2 ore (tempo che intercorre tra un aggiornamento delle orbite e l’altro) con un validità di 6 ore. Il modello della meccanica celeste che viene utilizzato è un modello che arricchisce quello kepleriano con dei termini che tengono conto approssimativamente delle perturbazioni che ci possono essere su 2 ore. Se consideriamo l’orbita giornaliera (l’orbite dei satelliti gps dura circa 12 ore, 12ore siderali) vediamo che trascurando la disomogeneità della terra, facciamo un errore sulla posizione del satellite di circa 10 km (un effetto enorme). Mentre la pressione di radiazione provoca un errore di 200 m. Le stazioni principali per il controllo del sistema sono piazzate approssimativamente (li dove è possibile, dove non c’è il mare) in maniera regolare lungo la fascia equatoriale. (si nota che quelle americane sono piazzate sulle base militari, per poter essere facilmente difendibili). I dati che vengono acquisiti routinariamente 24 ore su 24 dalle stazioni di tutto il mondo confluiscono tutti alla stazione principale che si trova in Colorado, dove si fanno tutti i conti, da cui vengono trasmesse le orbite alle 5 stazioni che vengono caricate su tutti satelliti della costellazione. Operazione che avviene ogni 2 ore (12 volte al giorno), ciò ci porta ad una precisione di gìcirca 1 m. Le effemerdi precise vengono calcolate dall‘IGS, i database si basano su basi provenienti da molte stazioni (più di 300), i calcoli che ne derivano sono molto più complessi (il SR delle eb è il WGS84 è mentre quello delle ep é l’IGS 05, SR equivalenti per scopi pratici cioè da navigazione, molto diverso per i scopi geodetici e topografici). Serve almeno un giorno per rilasciare un prodotto che va a costituisce le cosidette effemeridi rapide (precisione di 15-20 cm), mentre mi servono quasi 2 settimane per arrivare alle migliori possibili (precisione di 5 cm). Tutti questi dati sono gratuiti e è pubblici. I satelliti sono messi secondo una logica funzionale all’operatività del sistema (24 ore al giorno su ogni punto del pianeta e nelle immediate adiacenze). Nominalmente abbiamo 24 satelliti (possono essere di più) organizzati su 6 piani orbitali diversi spaziati tra di loro di 60° in ascensione retta e inclinati rispetto all’equatore di 55° gradi (al polo nord e su allo zenit non avrò mai un satelliti) l’altezza media e di circa 20000 km. (figura) Al variare del numero e della posizione dei satelliti varia la capacità di posizionamento del sistema GPS. La variabilità dei satelliti visibili varia da ai 4 a 8-9 satelliti. C’è una sigla PDOP che ci da l’idea della bontà della costellazione gps per il posizionamento, il valore di essa aumenta al diminuire del numero dei satelliti, però notiamo anche che ci sono configurazioni che hanno lo stesso numero di satelliti ma che hanno una valore del PDOP molto diverso (ad esempio una la metà dell’altro).Infatti quello che condiziona la bontà del posizionamento gps oltre al numero di satelliti visibili è anche come sono messi questi satelliti nel cielo rispetto all’osservatore, cioè qualè la configurazione geometrica. Se il PDOP è alto il posizionamento è impreciso, al contrario se esso è basso. C’è una regola pratica che dice che non è conveniente fare posizionamento assoluto quando il PDOP è superiore a 4. Bisogna considerare anche che il PDOP è condizionato dalla presenza di ostacoli vicino all’osservatore (il segnale GPS non è in grado di aggirarli).

Variabilità della configurazione geometrica14) evolvendo continuamente la costellazione satellitare rispetto alla sua visibilità di un osservatore sulla terra (configurazione geometrica), abbiamo una variabilità sia del numero dei satelliti che della stessa configurazione geometrica, e quindi del PDOP nel tempo. Sottolineiamo che con posizionamento GPS intendiamo il posizionamento di in utente in tempo reale in modalità navigazionale (tom tom) mentre per l’uso geodetico si intende una altr’cosa. Nel momento in cui c’è variabilità della configurazione satellitare c’è ovviamente anche una variabilità dell’elevazione

Page 12: GEOMATICA Ultima Epoca

sull’orizzonte locale del satellite in vista. Il giorno siderale è più breve di quello solare di 3 minuti 56 secondi. La costellazione si ripete con una frequenza di 12 ore siderali . Spieghiamo la differenza tra giorno solare e giorno siderale (figura) non ho capito. Per giorno sfoderale si intende occupare esattamente la posizione del giorno (un giro) prima rispetto all’universo, per giorno solare si intende il giorno siderale (un giro) più il valore angolare che riallinea il centro della terra con il centro del sole (ci si mette 3m e 56s), si dice che la costellazione GPS anticipa ogni giorno di 3m e 56 s. tornando al nostro discorso. Il satellite ad un certo punto culmina e poi tramonterà , per via che i piani orbitali sono diversi non tutti i satelliti culminano alla stessa maniera rispetto allo stesso punto anzi alcuni in certi punti possono culminare e tramontare 2 volte (rispetto allo stesso punto). Questi andamenti (andamento zenitale della costellazione GPS) sono molto importanti dal punto di vista pratico, ad esempio se ho impedimenti sotto ad uno certo zenit e verso una certa direzione, non vedrò mai i satelliti sotto quella zona. Infatti in generale tutti i software che permettono di avere questi plot permettono di inserire le ostruzioni e visualizzare così la carta degli ostacoli.(figura) Abbiamo un plot di esempio di un certa zona. Si tratta di un piano cartesiano nord-est dove in corrispondenza di qualunque retta uscente dall’origine individuo un azimut rispetto al nord, mentre i cerchi concentrici individuano un’elevazione. Al centro sono in corrispondenza della direzione nadirale (sopra di noi), man mano che mi sposto dal centro la circonferenza più grande rappresenta l’orizzonte. (Ad esempio il satellite 27 sorge verso sud a 190° di azimut percorre una certa traiettoria e culmina a azimut 135 zenit 85° e tramonta in direzione con azimut pari a 90°). Sono ostacoli tutti gli oggetti con dimensione pari o maggiore della lunghezza d’onda della portante GPS (sono 2 con λ simile circa 20 cm). Notiamo che in corrispondenza della bisettrice del 1 e 3 quadrante (cioè azimut 45 e elevazione paria a 60) notiamo che non passa nessun satellite. Questo per come sono fatte le orbite dei satelliti GPS, visto che i piani orbitali sono inclinati rispetto all’equatore 55 gradi di ascensione retta dell’orbita, non fanno passare il satellite sopra ad una certa latitudine in corrispondenza dei poli (zone coniche con ampiezza di 70 °), questo vuol dire anche che se abbiamo un ostacolo in quella direzione è ininfluente. Quindi se siamo nell’emisfero nord un ostacolo in direzione nord ci interessa relativamente (poco).

Orologi del satellite e del ricevitore scala del tempo gpsAndiamo ora a considerare il segnale analizzando la questione temporale. Il tempo nel sistema gps è cruciale. facciamo l’esempio del distanziometro ad impulsi (un analogo nella geodesia è il laser ranging) dove invio il segnale e misuro il tempo che ci mette a tornare (sistema a doppio senso), il GPS non funziona cosi, è un sistema a senso unico questo perché se dovessi inviare un segnale sarei individuabile dal nemico (scopi militari), è il sistema che emette il segnale mentre il ricevitore è un utente passivo. Questo ha la conseguenza che mentre con un sistema a doppio senso mi basta avere un orologio per determinare il tempo di volo dell’impulso, nel sistema a senso unico invece ho bisogno di 2 orologi (1 sul satellite e 1 sul ricevitore). Questi 2 orologi devono essere sempre ben sincronizzati tra di loro, altrimenti andrei a misurare un tempo sbagliato. Questa condizione nella pratica è impossibile da realizzare, ma possiamo un certo livello di sincronizzazione (della decina di nanosecondo) tale tempo moltiplicato alla velocità della luce ci fa sbagliare il posizionamento di 3 metri (considerando solo questo errore in realtà ce ne sono altri). Possiamo utilizzare degli accorgimenti: possiamo dire che non c’è sincronizzazione, però siamo in grado di calcolare gli errori di sincronizzazione. Siamo a posto perché sappiamo di quanto dobbiamo correggere la nostra misura. Questa condizione è realizzabile solo a livello degli orologi dei satelliti (più di uno su ogni satellite), che hanno orologi di una qualità eccelsa che presentano comunque una deriva nel tempo. Tali orologi li dobbiamo continuamente regolare (calcolare di quanto sono sbagliati), rispetto ad una scala di tempo universale calcolata a terra mediante una 60ina di orologi atomici chiamata scala del tempo GPS. Tale scala temporale verrà utilizzata come riferimento. Gli orologi che stanno nei satelliti vengono osservati dalle stazioni che controllano il sistema ed elaborano un modello di asincronismo (modello di errore) e si presume che esso valga per un po’ di tempo. Si suppone che il modello valga per 2 ore (come con le orbite) e questo avviene da sempre. Questa operazione non la

Page 13: GEOMATICA Ultima Epoca

possiamo fare all’interno dei ricevitori che hanno degli orologi più obsoleti (in genere un oscillatore al quarzo, di svariati ordini di grandezza più scadenti), quindi il problema è parzialmente risolto (satelliti si ricevitori no). Tutto ciò che non può essere risolto deve essere ritenuto incognito, tutto ciò che è modellabile invece è noto (con un certo errore ma noto). Questo è il concetto per cui sono necessari 24 satelliti. Questo perché per risolvere il problema di posizionamento oltre alle 3 incognite relative alle coordinate ho un’altra incognita relativa all’errore di sincronismo (di quanto è sbagliato l’orologio del mio ricevitore rispetto alla scala del tempo GPS), quindi mi servono almeno 4 equazioni, che saranno relative a 4 relazioni indipendenti che devono essere ricavate da 4 satelliti diversi. Infatti la costellazione del GPS è tale che ci permette sempre (24 ore su 24) di poter vedere almeno 4 satelliti. Con dts definisco l’errore dell’orologio del satellite (rispetto alla scala dei tempi). Il sincronismo varia nel tempo possiamo utilizzare un modello semplice polinomiale del 2 ordine, possiamo rappresentare l’asincronismo (in 2 ore ts con 3 parametri dts0, cioè all’istante iniziale) as bs come evolve linearmente e quadraticamente il nostro errore. Per tutti i satelliti della costellazione, appena accendo il ricevitore questi parametri mi vengono inviati dal satellite (un satellite manda i dati relativi a tutta la costellazione,così se ne vedo uno esso mi informa su tutti gli altri).

Onde e segnali del sistema gpsConvenzionalmente nel sistema gps si va a definire una frequenza fondamentale fo=10.23 MHz (in cui il segnale è una sinusoide), tale segnale viene utilizzato per generare altri segnali con dei moltiplicatori di frequenza, questi segnali generati sono chiamati portanti fondamentali del sistema GPS (anch’esse sinusoidali) caratterizzate ciascuna con una propria frequenza L1= 154fo, L2=120fo. Da queste portanti vado generare altri 2 tipi di segnali (quadri) detti codici pseudocasuali binari (caratterizzati da 2 valori 0 e 1 o –1 e 1 dipende dalla convenzione, il prof preferisce la seconda).15) La transizione da 1 a 0 è una transizione istantanea,questi codici sono generati con una sequenza nota chiamata sequenza di gold. Le principali proprietà delle sequenze di gold sono 2 ed entrambe vengono sfruttate nel sistema gps. La prima: se prendiamo una sequenza pseudo casuale e una sua identica replica (identica nella forma) quando andiamo a calcolare la cross correlazione lineare (R è il coefficiente di correlazione lineare) avremo il coefficiente uguale a 1. Se spostiamo una sequenza rispetto all’altra sulla scala dei tempi R teoricamente viene 0. Quindi nella sequenza di gold il coefficiente ora chiamato di autocorrelazione lineare è 1 solo se 2 sequenze uguali sono perfettamente correlate. L’altra proprietà è che se ho 2 sequenza diverse esse non saranno mai perfettamente correlate ed avrò sempre R pari a 0. Torniamo al problema. Nella pratica andiamo a generare 2 sequenze, la sequenza C/A (codice C/A) e la sequenza P (o codice P). L’utente civile ha a disposizione solo la sequenza C/A, mentre il P trasformato nel codice Y è disponibile solo all’utenza militare. Illustra la teoria del moto oscillatorio semplice e cioè: fase, periodo (se moto semplice è costante), pulsazione, ampiezza, fase, iniziale,e frequenza (derivata temporale della fase) . Si suppone velocità di propagazione costante e pari a c. Anche nei segnali quadri (i pseudo casuali nel nostro caso) posso definire una frequenza, che è intesa come numero di volte in cui potrebbe avvenire un transizione nel tempo o nello spazio (ma non quando avviene effettivamente, se facessi così avrei una frequenza minore). Vediamo come vengono costruiti C/A e P. La f di C/A è pari a un 1/10 di fo e λ pari a circa 300 m, mentre il codice P ha f pari a fo con λ pari a circa 30 m. Definiamo ora la lunghezza totale della sequenza pseudo casuale, che siccome è non infinita (visto che la generiamo noi è la lunghezza con cui la sequenza si ripete, nel caso di C/A è pari a 1ms, mentre per il codice P e di circa 37 settimane. Ne consegue che il codice C/A viene utilizzato come carta di identità (segnale identificativo) di ogni satellite, dentro il mio ricevitore ci sono memorizzate tutte le sequenze dei satelliti (che c’è o verrà mandato in orbita) e quando gli arriva la sequenza di un determinato satellite quest’ultima viene correlata con quelle che ha in memoria e così stabilisce quale satellite gli sta inviando il segnale. Il codice P non viene utilizzato tutto intero e siccome si suppone che nella costellazione non si raggiungerà mai il numero di 36 satelliti (così da non avere

Page 14: GEOMATICA Ultima Epoca

segnali uguali per S diversi), il segnale verrà tagliato in pezzi di una settimana e a ogni satellite è associata una sola settimana (poi per il resto è analogo a C/A). La lunghezza della sequenza di P è dovuta al fatto che correlare una sequenza lunga è più difficile e oneroso,questo per evitare che essa venga acquisita, discorso inverso per quanto riguarda la sequenza destinata all’utenza civile. Questi segnali non sono sufficienti a risolvere il problema di posizionamento, in quanto non abbiamo capito come vengono inviate le informazioni relative alle orbite e agli orologi e altro inviato da codice D detto messaggio navigazionale con f di 50 Hz (sempre ottenuta da fo), il messaggio si compone di 25 blocchi di informazione ciascuno della durata di 30 s (in tutto ci metto 12 minuti e mezzo,qunidi se voglio il posizionamento in tempo reale non lo scarico tutto). Oltre le informazioni relative alle effemeridi e agli orologi, il messaggio include informazioni relative alle orbite di validità più lunga nel tempo raccolte nei cosidetti almanacchi, che servono nel caso dovessi effettuare un rilievo posso stabilire approssimativamente lo scenario (posizione dei satelliti) relativo ad un certo periodo in una creta zona della superficie, considerando gli eventuali ostacoli. Gli almanacchi hanno validità mensile. Altre informazioni fondamentali sono i parametri descrittivi della ionosfera, con ionosfera si intende una zona circa 1000km dalla superficie, costituita da elettroni dovuti all’interazione della radiazione solare con il campo magnetico terrestre. Tale zona influisce molto fortemente con il segnale GPS. I parametri vengono calcolati tramite un modello ionosferico globale che viene continuamente aggiornato. Se non considero l’effetto ionosferico l’errore medio di posizionamento può essere di 100 m, quindi tale informazione deve essere sempre utilizzata. Consideriamo ora l’interazione tra portanti e codici. La portante è modulata dal codice ( figura). Ciò vuol dire che immagino che in ogni istante vado a fare il prodotto tra il valore della portante e il valore del codice (se considero –1 e 1). ( la figura e fuorvianta non rispetto la scala tra frequenze in gioco). Quando il codice ha il valore 1 il prodotto non ha effetti, nel caso sia -1 la portante viene ribaltata e così accade per ogni transizione della sequenza del codice. La portante L1 da ogni satellite viene emessa in 2 repliche sfasate tra loro di 90° (sen e cos). La portante in cos viene modulata da P o Y, la portante in sen viene modulata da C/A, mentre la portante L2 viene modulata solo da P o (Y). A entrambe le portanti viene sovraimposto il messaggio navigazionale (codice D). Quindi in pratica le portanti sono uguali, ma cambia la modulazione. Il ricevitore può ricevere tutto mentre il ricevitore civile può ricevere e demodulare solo la portante demodulata da C/A (in realtà ci sono ricevitori civili che utilizzano entrambe le portanti facendo il segnale a quadrato tornando al valore originale, ma raddoppia la frequenza, quindi non è proprio uguale al segnale originale). Il codice Y serve ai militari per farci le misure in tempo reale in quanto devono lanciare i missili (le misure sono di scarsa precisione per le applicazioni geodetiche). Ai noi geodetici invece, non interessa fare misure sui codici ma utilizzeremo le basi che però non sono in tempo reale (ma più precise).

Misure di codice (pseudorange) e di fase17)( riparla dell’inesattezza dell’orbit kepleriana e delle varie effemeridi degli orologi) (formule)Non abbiamo detto perché utilizziamo 2 portanti. Ci servono perché tramite 2 portanti riusciamo a stabilire l’entità dell’effetto ionosferico. Andiamo a vedere come si utilizzano i segnali. Supponiamo di lavorare in una configurazione ideale in cui tra R e S non ci sia in mezzo nulla (non c’è l’effetto dell’atmosfera inclusa la ionosfera), quindi il segnale viaggia a velocità costante pari a c. Supponiamo inoltre di avere a disposizione il codice su C/A (perché tutti i R lavorano su quella e perché didatticamente è più semplice comunque ciò che diremo vale anche per P).-misura di codice All’interno del ricevitore ho un generatore di codici che genera tutti quelli relativi ai satelliti esistenti. Il R riesce ad individuare il S che invia il segnale, teoricamente il R è in grado di correlare perfettamente le 2 sequenze (la sua e quella del S). Correlando le 2 sequenze faccio un operazione importante. Il S invia il segnale (il tempo di volo del segnale e di circa 7 centesimi di secondo) il segnale che arriva a R viene spostato dallo stesso sulla scala temporale per correlarlo con il suo. All’istante t0 il segnale e partito, a to più tempo di volo il segnale è arrivato a R e viene correlato con il suo, il segnale viene spostato di una quantità pari a al tempo di volo (deltat). Tutto questo è

Page 15: GEOMATICA Ultima Epoca

vero se le 2 scale temporali del R e del S sono perfettamente sincronizzate (non è mai così). Nella realtà dobbiamo andare a riferire le 2 scale temporali del R e del S alla scala temporale del GPS andando ad introdurre dei termini relativi al difetto di sincronismo degli orologi ts (tempo di invio rispetto alla scala dei tempi del S) e tr (tempo di emissione delle replica del segnale del ricevitore secondo la scala del tempo del ricevitore. Questi errori sono variabili nel tempo, ts è noto dal modello mentre tr è considerato incognito.( se andiamo a riferire tr e ts sulla scala dei tempi GPS otteniamo rispettivamente dtr e dts). L’osservazione si complica leggermente, dobbiamo sommare al tdv dts e dtr, e se moltiplichiamo tutto per c otteniamo una pseudodistanza (equazione pag 82) o l’equazione di osservazione allo pseudorange (rozza non viene mai utilizzata così). L’informazione geometrica all’interno dell’eq. di osservazione e contenuta in c x tdv. A quest’ultimo termine possiamo sostituire l’espressione del teorema Pitagora da cui si evince che all’interno ci sono le coordinate geocentriche del nostro R (formula). Si suppone che sono note le coordinate del satellite (tramite le effemeridi), mentre le incognite sono le 3 coordinate di R e tr (4 incognite che risolveremo andando a scrivere 4 eq di pseudorange). La misura elettronica che abbiamo ha un rumore (dal punto di vista della fisica della misura) che varia da 1/100 a 1/1000(il limite a destro è più veritiero allo stato attuale) della λ del segnale su cui vado a fare questa misura. Se utilizziamo C/A che ha λ circa di 300 m il rumore ci porterà ad un errore che va da 3 m ai 30 cm. Nei ricevitori poco costosi ho una precisione di 2 m, che consiste al limite fisico della misura. Se utilizzassimo il codice Y avremo un errore 10 volte più piccolo. – misura di fase (sulla portante): l’operazione che andiamo a fare è analoga ma c’è una fondamentale differenza rispetto a prima. Infatti se vogliamo andare ad allineare le 2 portanti, avendo esse la stessa forma troveremo infiniti punti in cui esse sono correlabili (ho infinite soluzioni). Risulta difficile stabilire l’entità dello spostamento sulla scala dei tempi, il che equivale a dire che non so quanti sono i cicli interi per allineare i 2 segnali più la differenza di fase (tra la fase generata dal satellite e ricevuta da R), mentre l’unica cosa che per adesso conosciamo è proprio la differenza di fase (compresa tra 0 e 2 pigreco). Analogamente a prima la fase che ricevo al tempo t è la stessa che è partita da S al tempo t meno il tdv. Se andiamo a scrivere la f come derivata della fase, e se prendiamo la fase e la sviluppiamo in serie di Taylor, supponendo che la fase è costante la derivata seconda nello sviluppo in serie si annullano (perche la derivata seconda della fase sarebbe la derivata prima della f nel tempo, ma f è costante). Se andiamo a scrivere (equazione) della fase inviata dal satellite al tempo bo …..Formule . Andiamo ad introdurre una grandezza che è l’espressione analitica di quello che abbiamo appena calcolato formule formule formule ………… Tutto questo è vero se la scala dei tempi a cui si riferiscono gli orologi di R e S fosse la stessa, e quindi introduco i soliti 2 errori dtr e dts ottengo un’espressione che dal punto di vista generale è simile a quella di prima, soltanto che dimensionalmente stiamo parlando in radianti, per esprimerla in lunghezza basta moltiplicarla per il λ del segnale ottenendo così l’eq. di osservazione della misura di fase. La differenza tra le 2 eq. di osservazione risiede nel fatto che in quest’ultima compare l’incognita relativa al numero di cicli (in quanto la portante si ripete identica a se stessa,e lo shift temporale è indeterminato, viceversa per quanto riguarda lo pseudo range), mentre il contenuto geometrico è lo stesso 18) l’edo della misura di fase assomiglia a quella relativa al distanziometro a sfasamento, soltanto che la scala dei tempi per lui è sempre la stessa, si ricorda che tale strumento funzionava bene solo se la distanza da misurare era minore di mezza λ (comunque l’ambiguità di fase veniva determinata con una apposita procedura). La differenza dal distanziometro è che il sistema S e R varia continuamente e quindi anche l’ambiguità di fase varia nel tempo.

Effetti dell’atmosferaAndiamo ora a considerare gli effetti dell’atmosfera. Possiamo dire che se l’errore dovuto all’atmosfera fosse confrontabile con il rumore di misura elettronica potremo anche non considerarne gli effetti. Purtroppo l’entità dell’errore atmosferico e molto più grande in quanto può variare da pochi m a qualche centinaio. Consideriamo la legge di Fermat, che dice che la propagazione del segnale elettromagnetico avviene attraverso il percorso in cui l’energia necessaria

Page 16: GEOMATICA Ultima Epoca

per mettere in moto la propagazione, (non la via geometricamente più breve) che in genere ha una forma diversa dal percorso rettilineo, l’effetto di tale legge varia al variare dell’elevazione con cui rilevo i satelliti. Questi effetti detti di curvatura sono abbastanza facilmente individuabili e modellabili, comunque essendo tale effetto di qualche decina di cm, quantità che è confrontabile con il rumore elettronico, l’effetto di curvatura non viene considerato nelle misure di codice. Mentre per quanto riguarda le misure di fase (la regola del rumore elettronico vale ancora) essendo la λ delle portanti molto più piccola il rumore elettronico è molto più piccolo e pari ad alcuni decimi di mm, l’effetto di curvatura deve essere considerato. Un altro aspetto riguarda il fatto che il segnale non si propaga a velocità c, ma una velocità diversa che dipende dall’indice di rifrazione del mezzo attraversato (lui parla di singoli elementini di atmosfera, e integrali di linea in quanto la velocità di propagazione varia da punto a punto) (formule pag 75 e 76).All’interno dell’errore atmosferico ci sono essenzialmente 2 grossi componenti una ionosferica ed una troposferica (non ci sono informazioni relative al messaggio navigazione perché è molto più piccola). C’è un modello che descrive il modello ionosferico, in cui nell’espressione compare un + e un – , questo perché ha effetti diversi per i 2 diversi tipi di segnali e quindi di misure. Il segnale di codice è ritardato nella sua propagazione dalla presenza della ionosfera (viaggia a velocità minore di c) in ragione di come è fatta la ionosfera. Il segnale di fase si propaga ad una velocità superiore a c (si ricorda che la fase è solo una rappresentazione e non ha ruolo sul trasporto di energia, il principio di Einstein è ancora valido) (spiega l’energia di gruppo). In questo caso la v del codice è la velocità di gruppo, mentre la v della fase della portante è la velocità di fase). C’è un termine relativo alla densità elettronica che aumenta all’umentare della radiazione solare (quindi l’effetto ionosferico è minore di notte), quindi c’è una forte dipemdenza con l’esposizione del sole e dall’attività delle macchie solari (periodicità di circa 11 anni). Otteniamo l’espressione del TEC (contenuto totale di elettroni) lungo il percorso del segnale, e varia da 10 alla 16 a 10 alla 18 elettroni al m2. C’è una dipendenza al variare dell’elevazione (errore di 1 m allo zenit fino 50 m). L’effetto ionosferico quindi non è in nessun caso trascurabile (ne col codice ne con la fase).19)Consideriamo ora l’effetto dovuto alla troposfera. Questo strato è concentrato nei primi 10-12 km di quota, la zon che influisce maggiormente è quella relativa a fino 2000 m dal suolo. La troposfera è una miscela di gas e vapori che in entrambi i casi (portante e codici) determina un ritardo sull’arrivo del segnale. C’è un’altra componente che interagisce dovuta alla presenza nella troposfera del vapor d’acqua. La prima componente è dipendente da temperatura e pressione mentre la seconda dipende dalla temperatura e dalla pressione parziale del vapor d’acqua (umidità). Queste 2 componenti causano un ritardo di un paio di m, quindi l’effetto è molto più limitato rispetto alla ionosfera (infatti nel segnale D, non c’è nessuna informazione relativa alla troposfera). L’effetto ci da comunque fastidio per due motivi. In primo luogo l’effetto ionosferico dipende dalla frequenza delle onde portanti, mentre l’indice di rifrazione non dipende dalla frequenza (non è dispersiva rispetto alle frequenze come nella ionosfera) e quindi non è possibile eliminare questo effetto (poi vedremo perché). La prima componente (secca) è responsabile di circa 90% dell’effetto, la seconda il 10%. La prima è anche la più facile da modellare, si suppone un atmosfera in quiete e un conseguente distribuzione delle pressioni di tipo idrostatico e isotropia riuscendo ad ottenere dei risultati abbastanza attendibile. La seconda componente (umida) è molto più difficile da modellare, in quanto la distribuzione dell’umidità è casuale, inoltre è dipendente da molti altri fattori tra cui l’umidità del suolo. Quindi il termine relativo alla componente umida la consideriamo incognita. Questo è peraltro il punto iniziale di quella che sia chiama GPS meteorologico, cioè dal momento in cui il segnale sente la presenza del vapor d’acqua, possiamo ad andare a elaborare il problema per identificare la presenza e la quantità del vapor d’acqua (il radar meteorologico identifica anche l’acqua liquida il GPS no). Modellando la componente secca andiamo a ipotizzare come è fatta l’atmosfera in direzione zenitale, questo è una condizione che si verifica molto raramente. Infatti bisogna considerare che se l’angolo di elevazione tra R e S è basso o il percorso del segnale all’interno della troposfera sarà molto più lungo rispetto alla direzione zenitale e il segnale sarà ritardato molto di più. Inoltre siccome il satellite si muove molto velocemente, dobbiamo costruire

Page 17: GEOMATICA Ultima Epoca

una modello che vada bene (che consideri bene l’effetto di ritardo) per tutte le elevazioni. Il nostro modello va bene se gli angoli di elevazioni non sono troppo piccoli (se l’elevazione è bassa il segnale attraverserà un ampia zona di strato limite turbolento difficilissima da modellare bene, per via di moti convettivi), quindi per quanto riguarda le applicazioni pratiche è buona norma non considerare satelliti troppo bassi. Nei modelli più semplici si fa l’ipotesi molto rozza in cui l’atmosfera ha un comportamento costante, cioè stratificata isotropa, e supponiamo di poter valutare il ritardo in una direzione qualunque, mappando il ritardo che abbiamo in direzione zenitale (in dipendenza di una mapping function in genere in funzione di un angolo di incidenza). Nel caso di applicazioni particolari si usano modelli più raffinati. L’errore che si fa in direzione zenitale è in genere di circa 2,5 m. Ovviamente l’errore diminuisce nel caso il clima e sia più secco. Nel caso di fronti temporaleschi siamo in presenza di una spiccata anisotropia. Andiamo ora a scrivere che la nostra pseudodistanza è data dal prodotto dalla c per un tempo di propagazione all’interno di quest’ultimi c’è il tempo di volo se fossi nel vuoto (con contenuto geometrico) più i ritardi dovuti alla ionosfera e dalla troposfera. Tutto questo viene inserito all’interno dell’equazione di pseudorange. Nel navigatore dell’automobile non utilizziamo quest’equazione, in quanto nel navigatore utilizziamo solo quello che possiamo sfruttare in tempo reale, cioè non consideriamo la troposfera aumentando così gli errori (quindi nell’osservazione di pseudorange posso anche fare a meno di considerarlo). Rimangono le 3 incognite di geometria e quella di orologio del ricevitore. Se consideriamo l’eq. di fase l’unica cosa che cambia rispetto alla distanza è che la troposfera ha un effetto di anticipo (segno – davanti la componente corrispondente). Nell’equazioni di fase però l’effetto troposferico deve essere considerato in ogni caso, perché il termine che viene osservato (λ moltiplicato con una fase) ha una precisione varabile tra un paio di mm e un decimo di mm (1/100 o 1/1000 di λ) . Quindi la modellazione complessiva dell’equazione di fase deve esser molto più raffinata, in quanto il rumore elettronico è molto più basso, e altrimenti si degraderebbe di una quantità troppo alta (3 ordini di grandezza) e non avrebbe più senso utilizzare le portanti.

Ambiguità iniziale di fase (numero di cicli interi)Consideriamo ora l’incognita N. Questo N è legato alla geometria della configurazione, cioè alla distanza R e S. N infatti sarà di una quantità pari alla distanza tra S e R diviso per la λ del segnale arrotondato all’intero inferiore (poi ci sarà la parte frazionaria detta frazione di ciclo). Supponiamo di generare il segnale partendo all’istante in cui io ricevo il segnale da S con una fase pari a 0 (non è proprio così ma concettualmente non è importante). Ho 2 segnali uno con fase 0 (quello generato da R) e un con una certa fase (quello ricevuto da S). La parte frazionaria della distanza (dovuto alla parte frazionaria di ciclo,questa equivalente alla fase del segnale che arriva) sarà una frazione della lunghezza d’onda. I 2 segnali per essere sovrapposti devono essere traslati della parte frazionaria di ciclo, ma questa non è l’esatta sovrapposizione, per essere esattamente sovrapposti nella scala dei tempi li devo traslare della parte frazionaria di ciclo più gli N cicli. Noi non sappiamo quanti sono questi N cicli (in quanto accendiamo il R GPS per sapere dove siamo, quindi per conoscere N è inutile spere dove sta il S.20) formule Scriviamo per 2 epoche successive di misura le nostre eq. di fase. Andiamo a vedere quante sono le incognite supponendo che il nostro R sia fermo e ci riferiamo al WGS84: Le 3 incognite di posizionamento sono le stesse, l’errore di orologio invece cambia nel tempo (dtr a t1 diverso da dtr a t2) e quindi ogni epoca si porta dietro un incognita. N1 e N2 sono incogniti e diversi tra loro). In tutto abbiamo 7 incognite (3 geometriche, 2 di orologio, 2 di ambiguità), quindi non riusciamo a risolvere il problema con un solo satellite. Se aggiungo all’epoca t1 un altro satellite, aggiungo una altra incognita di ambiguità, mentre per il resto non aggiungo niente (le 3 geometriche sono le stesse essendo R è fermo,dtr è uguale se l’epoca è la stessa), comunque constatiamo che aggiungendo S non risolveremo mai il problema perche ogni S che aggiungo mi porta un incognita in più (se ho m S avrò m+4 incognite su m equazioni). Questo problema è stato tecnologicamente risolto tramite una soluzione di tipo concettuale. Cosa dobbiamo conoscere in più per poter mantenere la stessa incognita N relativa al numero di cicli interi nelle 2 eq. relative alle 2

Page 18: GEOMATICA Ultima Epoca

epoche (a t1 ho N a t2 ho N + n, n è dato dal fatto che la distanza è cambia visti che S si muove)? Dobbiamo conoscere n (di quanto è variata l’ambiguità di fase. Così facendo abbiamo scomposto l’incognita dell’ambiguità relativa ad epoche successive in una quantità fissa N e in un quantità che invece si evolve. All’interno di ogni ricevitore GPS in grado di fare misure di fase (non è il caso il tom tom), c’è un secondo componente (oltre quello che fa la differenza tra la fase del segnale e generato e ricevuto e che calcola la frazione di ciclo) che per ogni S man mano che il S viene continuamente osservato mette via il numero intero di cicli di cui varia la distanza (è come avere l’orologio con la sola lancetta dei minuti e e da questa capire quante ore sono passate guaradandla continuamente), quindi in qualche modo riesco a determinare n, perché osservo continuamente come varia la fase. (fa l’esempio della sveglia della nonna ben 2 volte minuto 14).Questo componente si chiama contatori di cicli interi. L’eq di osservazione all’epoca t2 sarà tutta uguale t1 con l’aggiunta di n che è nota (concettualmente la parte misurata la posso mettere a sinistra, cioè a primo membro). Il bilancio eq. inc. è cambiato. Per 2 epoche ho 5 incognite (3 geometriche 1 di orologio e 1 di ambiguità) e 2 eq. Per 3 epoche avrò 5 inc. ma ho 3 equazioni .Infatti per ogni epoca che aggiungo, aggiungo un eq. senza aumentare il numero di incognite. Se ho 5 epoche avrò 5 inc e 5 eq (il problema non è ancora risolvibile poi ci dirà il perché, comunque il problema è di natura geodetica e non algebrica). N si chiama ambiguità di fase iniziale, perchè una volta iniziata la misura (ad una certa epoca) lei non varia più. Possiamo dire che osservando con continuità il S al variare delle epoche N è incognita, ma costante al variare con le epoche. Se non è più verificata la condizione di osservazione continua nel tempo iniziano i problemi. Se io perdo il contatto con il mio S (per qualsiasi motivo, in genere impedimenti e ostacoli) avviene quello che si chiama cycle slip (rifà l’esempio della sveglia) perdo il conteggio dei cicli interi n, e così quando riacquisto la possibilità di osservare il S avrò perso l’ambiguità di fase iniziale. Posso agire in 2 modi, o trovo con altri metodi la possibilità di calcolare quanti sono i cicli interi che ho perso, oppure avrò un'altra incognita di ambiguità iniziale di fase. Ci sono vari fenomeni che causano i cycle slip (intervento di pagano che dice che anche l’incognita del tempo di orologio del R varia nel tempo, dice che tale problema l’affronterà dopo 25) ( poi riassume).

Osservazione di fase con 2 S In verità se cambio epoca l’orologio del R cambia il suo errore, quindi ogni volta che aggiungo un epoca mi porto dietro un incognita di orologio. Ne consegue che se osservo un solo S non riesco a chiudere il discorso anche a diverse epoche, mentre aggiungendo più satelliti l’errore dell’orologio rimane invariato per ogni osservazione (ma non a diverse epoche). Andiamo ora a considerare la costellazione nominale, notiamo che se osserviamo 4 o più S sullo stesso piano orbitale, non riesco a risolvere il problema geometrico, perché riesco a determinare solo la mia posizione all’interno del mio piano orbitale ma non ho l’informazione sulla dimensione, quindi è necessario osservare S che appartengono a piano orbitali differenti. Andiamo a scrivere le eq. di fase all’epoca t. Le incognite sono 3 geometriche e una di tempo al tempo t e una di ambiguità iniziale. Nel e momento in cui prendo 2 S appartenenti a 2 piani orbitali diversi, ho 2 equazioni per ogni epoca t e 6 inc (le ambiguità iniziali sono una per ogni S). Complessivamente le incognite fisse sono 5 e una variabile (che è quella di tempo). Quindi se ho 1 epoca e 2 S, ho 2 eq. in 6 inc. Se ho 2 epoche e 2 S, ho 4 eq in 7 inc. Se ho 3 epoche e 2 S, ho 6 eq. in 8 inc. Se ho 4 epoche , ho 8 eq. in 9 inc. Quindi se ho 2 S devo mettere via almeno 5 epoche. Non è possibile fare posizionamento in tempo reale con le osservazioni di fase (5 epoche implica che deve passare un po’ di tempo). Allo stato attuale ci sono volte che riesco a osservare 10 S. Quindi per il fatto che esistono le incognite N ambiguità iniziale di fase, non è possibile usare le fasi per il posizionamento in tempo reale, e quindi tali eosservazioni non hanno interesse militare. Noi facciamo meglio di loro perché abbiamo scopi diversi, e possiamo far passare un po’ di tempo. Quindi per gli scopi civili il GPS può essere sfruttato per ottenere un posizionamento con accuratezza migliore (utilizziamo la fase e non il codice).

22)osservazioni di codice e posizionamento assoluto

Page 19: GEOMATICA Ultima Epoca

In genere per posizionamento assoluto si fa implicitamente riferimento alle osservazioni effettuate esclusivamente sui codici pseudo casuali (per l’utente civile il codice C/A). In verità anche le osservazioni di fase possono essere utilizzate per il posizionamento assoluto ma non in tempo reale (comunque non conviene, poi vedremo il perché). Dobbiamo ad andare a vedere quale è il modello funzionale che ci permette di andare a fare il posizionamento assoluto.( vedi topografia) Per posizionamento assoluto noi (geodetici) intendiamo un tipo di posizionamento che ha l’obiettivo di determinare le coordinate di un punto inc. su qualche SR tra quelli che abbiamo visto. Andiamo a precisare quale è questo SR. Noi per il PA implicitamente intendiamo il P nel sistema WGS84, però per le caratteristiche di precisione del PA che sono intorno ai 5 m in tempo reale, e poco meglio se le osservazioni sono su più epoche, sostanzialmente non vi è pratica differenza tra tutti SR che abbiamo visto (la differenza tra ITRF, ETRF e WGS84 e ben inferiore al livello medio di precisione del PA).

Modello funzionale e modello stocastico del posizionamento assoluto nelle osservazioni di pseudorangeLe edo non sono lineari nei parametri geometrici (di nostro interesse, le coordinate) e devono essere linearizzate (nello stesso modo di sempre, come abbiamo con la stima ai minimi quadrati). Andiamo ora ad analizzare l’eq di osservazione linearizzata. Noi ci concentreremo su 3 termini relativi ai coefficienti delle incognite del problema linearizzato, queste incognite sono la differenza tra il valore inc della singola coordinata meno il corrispondente valore approssimato. Ci sono altri termini tra cui l’incognita dell’errore di orologio del R, gli altri termini che diamo per noti tra cui la distanza tra S e R calcolata sulla base delle CA (quelle che otteniamo linearizzando), i termini noti da modello (orologio del S, ionosfera, troposfera ) e gli errori di misura. (la troposfera non viene considerata se stiamo lavorando in tempo reale altrimenti si). Per fare posizionamento anche in TR ed in qualsiasi momento ho bisogno di almeno 4 satelliti. Supponiamo di avere 4 S, e cioè non mettiamo in gioco il problema relativo alla ridondanza, le eq sono lo stesso non lineari. Quindi non è che la linearizzazione sia dovuta esclusivamente alla soluzione di minimi quadrati, ma la dovremo fare lo stesso (per risolvere il sistema non lineare). Inizialmente la soluzione era di tipo euristico, si andava supporre che il punto potesse stare in posizioni prefissate sulla terra e si andava a vedere quale posizione in base alle osservazioni disponibili ere la più probabile, tale posizione veniva utilizzata come posizione grandemente approssimata e poi si risolveva il problema. Tale soluzione subiva il problema velocità di esecuzione (per via dei vari tentativi). Negli anni 80 è stata introdotta una soluzione in forma chiusa denominata soluzione brancroft, questo ha dato un contributo enorme. Comunque queste soluzione non è quella ottima nel caso di più eq che inc, e mi devo porre comunque il problema di andare trovare la soluzione in 2 momenti. Dobbiamo prendere 4 S, i migliori 4 (dal punto di vista geometrico poi vedremo cosa si intende), utilizziamo l’algoritmo di bancroft e otteniamo una soluzione, tale soluzione se abbiamo più di 4 S ci fornisce i valori approssimati. Questi valori vengono inseriti all’interno del sistema con più eq che inc, tale sistema viene linearizzato e lo risolviamo ai minimi quadrati. Quindi non ho più bisogno di andare a fare tentativi.(equazioni vettori e matrici) Andiamo introdurre il versore R S, le cui componenti sono i 3 coefficienti delle incognite (differenza tra coordinate approssimate R e S ), delta x r è il vettore delle correzioni dei valori approssimati delle coordinate del R. Se ho tanti m satelliti (e 1 sola epoca) vado a strutturare un sistema, ho il vettore delle osservazioni di pseudorange, il vettore delle incognite, la matrice disegno, il vettore dei termini noti, e il vettore del rumore. Se ho più epoche devo fare una successiva sovrapposizione e vettoriale di equazioni dello stesso tipo. Andiamo a vedere ora il modello, stocastico cioè quello che ci dice quanto sono precise le osservazioni che stiamo misurando. Facciamo delle ipotesi semplificative che derivano anche dal fatto che stiamo utilizzando OP e che l’obiettivo di precisione è di ordine metrico. Le ipotesi sono: osservazioni tra loro incorrelate, e che la precisione delle osservazioni che stiamo considerando è la stessa (la matrice dei cofattori è identitaria). Nel momento in cui ho più epoche (quindi non in TR ma a posteriori) avrò una successione di vettori (le osservazioni,disegno e termine noto). Il vettore delle

Page 20: GEOMATICA Ultima Epoca

incognite geometriche e è sempre lo stesso, ma avrò un’altra incognita relativa all’errore di orologio (sempre ipotesi di R fermo sulla superficie, rispetto al SR), per risolvere il problema mi basta avere 2 osservazioni relative a S in piani orbitali diversi. Andiamo a vedere l’impatto sul posizionamento degli errori relativi alle grandezze che abbiamo supposto note. Denotiamo con epsilon pallino l’errore relativo di una generica grandezza. Andiamo a sostituire nella matrice dei termini noti i nostri termini noti con il relativo errore che è incognito. La presenza di tutti gli errori di modello, si scarica linearmente sulle mie incognite. Consideriamo l’errore sulle effemeridi, tale errore non mi va a influire sull’osservazione ma varia il modo in cui questa osservazione si concretizza in termini di coordinate. Se io ho un solo satellite l’effetto è immediato, in quanto sarà una traslazione. Siccome avrò un effetto complessivo di errori diversi, contemporaneamente presenti sulla posizione di tutti i S che sto osservando, sarà la combinazione lineare di tutti gli errori dei satelliti che mi determinerà uno spostamento del mio R. Analogamente per quanto riguarda l’orologio del S in quanto un errore di orologio si scarica sul valore della distanza misurata. Discorsi analoghi valgono anche per il modello troposferico e ionosferico. Tutto ciò determina uno spostamento complessivo del mio R, rispetto ad una teorica posizione corretta (che non conosciamo) se tutto fosse perfettamente noto, la natura di tale errore non è elettronica ma è determinata dal fatto che noi nelle OP supponiamo di avere dei termini perfettamnet noti. C’è un ulterioree errore legato alla schematizzazione della misura in quanto tale, esso è importante relativo alle OP . Questo errore si chiama multipath, che tiene in conto che il segnale elettromagnetico percorre dei percorsi multipli per raggiungere la posizione della mia antenna. Noi abbiamo sempre supposto il segnale elettromagnetico segnale si propaghi secondo la via elettricamente più breve (di minima energia) questo e è vero solo per il segnale diretto. In realtà ci sono altri segnali relativi alla riflessione che questo segnale ha con degli oggetti situati sulla vicinanze dell’antenna. Dal punto di vista fisico quello che andiamo a misuare oltre che alla distanza di propagazione del segnale diretto (distanza SR) è legato a un complesso di interferenza: questo fenomeno si manifesta in dipendenza delle caratteristiche dell’ambiente circostante e dal tipo di antenna. Comunemente le antenne vengono schermate alla base, per evitare di ricevere il segnale riflesso dal suolo comunque questo non basta. Ci sono altri oggetti pericolosi tra cui superfici conduttive, oggetti metallici anche specchi d’acqua, o qualunque superficie che presenta poca rugosità come vetri e alcuni tipi di mura. Gli errori legati al modello sono dello stesso ordine se non superiori di quelli legati al rumore elettronico. Quindi l’errore di rumore è dominato da altri errori (prevalentemente la ionosfera, e il multipath) indipendentemente se facciamo osservazioni in TR o meno. Difficilmente riusciamo ad ottenere precisioni migliori di alcuni metri.

Effetti della configurazione geometrica e PDOP ( matrici) Andiamo a vedere ora l’effetto relativo alla geometria dell’osservazione, cioè come sono messi i S rispetto il R (vedi PDOP). Vediamo la formula relativa all’accuratezza. Notiamo che l’accuratezza è legata al modello funzionale (tramite la matrice disegno) e al modello stocastico (tramite la matrice dei cofattori) e ad un scalare che è legato al vettore degli scarti residui cioè al contenuto di rumore e alla bontà del modello funzionale in termini di quanto questo modello sia adeguato per spiegare questo fenomeno. La matrice disegno dipende esclusivamente dalla geometria dei satelliti (mentre sigma e Q dipendono dalle osservazioni)(Q nel nostro caso è I), perché se guardiamo alla singola equazione vediamo che i coefficienti delle incognite dipendono dal versore R S, cioè dipendono da come i S sono disposti nel cielo rispetto al mio R. La dipendenza dalla configurazione geometrica viene sintetizzata in pochi indici PDOP, HDOP, e VDOP. Andiamo a considerare il modello funzionale (posizionamento assoluto in tempo reale), le inc. sono 4,quindi la matrice di covarianza delle incognite è di ordine 4, all’interno di essa una sottomatrice di ordine 3 è relativa alla precisione alle inc geometriche, mentre quella di ordine 1 è relativa alla precisione (varianza) dell’incognita di tempo del ricevitore. La sottomatrice 3x3 (è completamente piena) nella diagonale trovo i termini proporzionali alle varianze (ma non sono le varianze) delle coordinate, questi termini sono in cofattori. Pel calcolare il PDOP prendo unicamente i cofattori li vado a sommare e faccio la

Page 21: GEOMATICA Ultima Epoca

radice quadrata, quindi strizzo in un indice solo, quello che di per se è un informazione matriciale. Gli altri indici il TDOP faccio la stessa cosa relativa all’orologio del ricevitore. Il GDOP è l’indice che posso andare a costruire se considero tutte e 4 insieme (geometria e orologi del R), tenendo conto che 4 grandezze non sono dimensionalmente omogenee (moltiplico il tempo per c al quadrato). HDOP e VDOP sono ottenuti in maniera analoga dopo che la matrice 3x3 è stata trasformata in coordinate cartesiane locali, cosi da poter distinguere la componete locale altimetrica nelle direzione normale all’ellissoide, dalla componente locale planimetrica relativa al piano tangente all’ellissoide. La configurazione negativa è quando ho i satelliti tutti dalla stessa parte (forte indeterminazione orizzontale) al di là del numero di satelliti osservati che influisce ma fino ad un certo punto.

Piccola parentesi23) Non ha senso dire (utilizzando il GPS) che ho una certa precisione perché, la configurazione geometrica cambia continuamente. I modelli e la qualità dei R cambiano anche loro ma molto più lentamente. Se le osservazioni le facciamo su diverse epoche e vado a determinare la mia posizione è come se avessi il R in moto (anche se è fermo), quindi per ogni epoca introduco 3 coordinate geometriche e una di tempo ce lo fa vedere per vedere quanto oscilla la soluzione di una ventina di metri (un po’ meno marca te y e in z in alcune fasi). Non è casuale che le 3 coordinate hanno comportamenti così differenti. Ci sono altre potenziali cause d’errore, che sono quelle introdotte volutamente dai militari per degradare le applicazioni civili. L’antispooting rende il codice P segreto, ne esiste un’altra che era stata inserita e porta ad avere precisione di 10 volte inferiori e anche peggio (basta sfalsare le informazioni relative all’orologio del S).

Osservazioni di fase nel posizionamento assoluto E possibile utilizzare le OF per fare posizionamento assoluto acquisendo osservazioni su più epoche e trattarle tutte insieme? Si. L’unico vincolo che dobbiamo considerare è che ogni S porta una N e per questo devo avere un certo numero di epoche. La forma delle edo è analoga alle OP, la differenza fondamentale sta nel vettore delle incognite in cui sono i parametri relativi alle N. Ci sono ulteriori problemi che derivano dal fatto che queste osservazioni sono elettronicamente molto più precise rispetto ai codici (del mm e anche meglio), precisione che non è comunque utilizzabile nel posizionamento assoluto. Questo perché per sfruttare tale precisione strumentale dovrei utilizzare un modello che descrive tutti gli effetti che consideriamo noti con un grado di precisione migliore della precisione elettronica (perché tali effetti devono essere inseriti nel modello). Non siamo in grado di raggiungere tale precisione perchè le cause d’errore sono talmente tante di tale entità, che è inutile utilizzare le misure di fase per tentare di sfruttare la loro precisione. Neanche se utilizziamo effemeridi precise, e gli orologi precisi scendo da 1 m a 5 cm. In realtà così facendo otterrei un effetto negativo,in quanto un livello di precisione raggiungibile è analogo alle OP, pagando di più in quanto i R che fanno misure di fase sono più sofisticati e conseguentemente costano di più, è per questo che il posizionamento assoluto con le misure di fase non viene mai fatto (fa il riassunto di quello che è stato fatto oggi).

Piccola parentesi 2Perché il GPS è più preciso nel posizionamento orizzontale rispetto al posizionamento verticale? Considerando che quando siamo in una posizione qualunque sulla superficie terrestre io ho a disposizione solo metà del cielo, dal punto di vista azimutale la disponibilità dei satelliti e di quasi 360 a parte una piccola zona, invece dal punto di vista zenitale ho una disponibilità di quasi 180 gradi (perché c’è il suolo, ed inoltre è sconveniente guardare S con bassa elevazione). Quindi per quanto riguarda le applicazioni pratiche il GPS è meno affidabile in quelle relative alle altimetrie (anche se si possono utilizzare). Estremizziamo la situazione, ipotizzando di essere situati al polo nord, possiamo dire che siamo 2 volte precisi sul piano tangente all’ellissoide e 1 volta tangente ala posizione normale all’ellissoide(scrive formule e figure considerazioni geometriche banali e si bulla

Page 22: GEOMATICA Ultima Epoca

della sua raffinatezza terminologica. ma va a ciapà i rat! termovalorizzati!). Se fossi all’equatore? Concludiamo che in ambito nazionale la maggior incertezza nel posizionamento GPS in quota si concretizza su un incertezza sulle coordinate cartesiane geocentriche x e z , mentre y molto di meno in quanto per come è messo il SR cartesiano geocentrico l’Italia ha una longitudine (6 e 18°) prossima il piano meridiano di riferimento yz. ( se uno c’ha la figura capisce).

24) posizionamento relativoDa oggi in poi ci riferiremo al posizionamento che può avere applicazioni di tipo geomatico, caratterizzato da precisioni ben più elevate. Fino a pochi anni fa si riusciva avere precisione elevata solo con il PR adesso non è più così, in quanto esistono tecniche molto sofisticate che ci permettono di raggiungere precisioni molto elevate anche con il PA, tali tecniche comunque sono solo oggetto di ricerca applicate a scopo scientifico e quindi non diffusa all’utenza civile. Con PR possiamo ambire a precisioni del cm e qualche cm. Il GPS può arrivare a precisioni migliori anche mm, che sono conseguibili ma comunque non necessarie nelle applicazioni pratiche ma solo in applicazioni particolari. Per ambire a questo livello di precisione ho la necessità di raffinare i nostri modelli (non lo vedremo, ricordati che è il modello che domina la precisione sulle misure di fase che altrimenti sarebbero ben più precise). (fa il paragone del teodolite , e ci ricorda delle regole di bessel mostrando che con delle accortezze elimino gli errori, ci si chiede se sia possibile fare la stesa cosa con le osservazioni GPS tramite delle combinazioni di misura). Di queste combinazioni in ambito GPS ne posso fare 2 concettualmente molto diverse. La prima combinazione è legata a osservazioni dallo stesso R mettendo insieme le osservazioni di codice e di fase. La seconda combinazione di osservazioni sulla stessa frequenza o i 2 codici o le fasi o combinazioni di osservazioni tutte relative a ricevitori diversi. Queste combinazioni possono essere prese in considerazioni solo se sono effettuate contemporaneamente (alla stessa epoca). Noi sostanzialmente ci occuperemo esclusivamente delle portanti, possiamo fare combinazioni anche con i codici ma normalmente ciò non viene fatto perché sostanzialmente il grosso della precisione l’abbiamo già tirato fuori. Con le combinazioni delle OC riusciremo si a migliorare la precisione del posizionamento ma comunque non ha molta importanza, peraltro di codice ne vedo solo 1 e io la necessità di utilizzare diverse frequenze (quindi le 2 fasi). Finora delle fasi non siamo riusciti a sfruttare appieno la loro potenzialità. Da adesso considereremo solo le OF.

Combinazioni tra misure di fase ( se non hai le formule non vai da nessuna parte ) La struttura fondamentale delle combinazioni che vengono effettuate da un singolo R, sono molto semplici e consistono in combinazioni lineari (formule). Le osservazioni vengono combinate tra loro con dei coefficienti alfa e beta, questi coefficienti sono scelti a priori in modo tale che la combinazione abbia qualche prerogativa dal punto di vista dell’accuratezza acquisita dall’informazione. Vediamo le combinazioni più importanti, Wide lane serve per ottenere una combinazione che ha prerogativa di avere una lunghezza d’onda notevolmente superiore della λ di L1 e L2. La lunghezza d’onda dell’onda combinata cambia e vediamo perché. (formule della generica combinazione, per forza). La generica L è data da λ per p (la fase vera e propria), la mia fi combinata la posso scrivere come la f per t, sarà data da un certo alfa per fi diL1e un certo beta per fi diL2. Cambiamo annotazione alfa e beta diventano N1 e N2 (che combinano le fi, mentre alfa e beta combinavano le distanze). Possiamo andare a scrivere N1xf1t+N2xf2t il tempo è lo stesso ma le frequenze sono diverse, se semplifico tutto per t ottengo che la frequenza combinata in termini di cicli è data da N1xf1+N2xf2. Sappiamo che la f è data c/λ e quindi da questa relazione posso ricavare la lunghezza d’onda della combinazione in funzione delle λ delle 2 portanti L1 e L2, sostituiamo a f c/λ e poi capovolgo l’equazione. Ottengo così in funzione dei coefficienti n1 e n2 determino la λ della combinazione. Quello che complessivamente posso poi andare a scrivere alfa λ1 p1 + beta λ2 p2, poi (siccome L=λxp) altre formule…23….. semplifico per c. …. Formule……. Tutto deve essere = a n1 e a n2 . Otteniamo 2 relazioni che forniscono le relazioni tra alfa beta N1 e N2. Capiamo che è del tutto indifferente andare a considerare i coefficiente alfa e beta piuttosto che N1 e N2. La combinazione

Page 23: GEOMATICA Ultima Epoca

wide lane è la combinazione nella quale in particolare N1=1 e N2=-1, così che la (λ = c(f1-f2) λ totale è circa 86 cm (mentre λ1 è circa 19 cm e λ2 e circa 24 cm). Per la wide lane basta sapere che il suo grosso vantaggio consiste nell’avere una λ sufficientemente maggiore di L2 e L2 (lo capiremo quando andremo a studiare i metodi per determinare l’ambiguità iniziale di fase), per ora ci basta sapere che abbiamo la necessità di andare a lavorare su λ sufficientemente grandi. Andiamo ora a vedere la combinazione ionospheric free o L3 (non ci piace chiamarla L3 perché gli ultimi satelliti forniscono una terza frequenza che serve per migliorare la resistenza all’effetto ionosferico, comunque c’è il rischio di fare confusione). Siccome l’effetto ionosferico è inversamente proporzionale al quadrato della frequenza, noi alfa e beta li costruiamo in modo tale di avere una grandezza depurata dell’EI (alfa e beta avranno una certa espressione). Notiamo che la somma tra alfa e beta è pari a 1. ( formule per forza) Partiamo dalle nostre 2 osservazioni sulle nostre 2 frequenze e andiamo a inserire nelle nuova combinazione L3 le espressioni di alfa e beta. In tutti i termini comuni alle edo li raccogliamo,mentrei termini non comuni (i 2 termini delle ambiguità iniziali di fase e i 2 termini ionosferici) inserendo gli alfa e beta nell’espressione eliminiamo il termine relativo alla combinazione lineare degli effetti ionosferici. Non possiamo raccogliere le ambiguità iniziali di fase in quanto sono tra loro diverse in ragione del fatto che λ1 e λ2 sono diverse. Se andiamo a considerare L3 questa combinazione non è più affetta dalla ionosfera.Il modello ionosferico che era molto difficile da costruire, adesso non ci interessa più perchè abbiamo a disposizione un osservabile costruita, non più affetta dall’EI. C’è però tutta uns serie di svantaggi importanti,cioè devo avere a disposizione dei R a doppia frequenza (che riescono a osservare le 2 frequenze) e questi R costano molto di più rispetto agli altri che ricevono solo la portante L1. Solo i R di classe geodetica hanno questa prerogativa. Un altro svantaggio è che se vado a fare una combinazione L3 si combinano anche gli errori, secondo la legge di propagazione della varianza (supponendo che le 2 osservazioni sono tra loro incorrelate). C’è una altro aspetto molto importante: nel momento in cui vado a vedere come sto combinando i termini che contengono le ambiguità iniziali di fase, mi rendo immediatamente conto che nel momento in cui vado a combinare questi interi non otterrò più complessivamente un valore di N intero competente con la combinazione L3 (mentre per la Wide lane ottengo ancora una N intera). Questo obbliga ad un doppio passaggio, il primo consiste nel determinare N1 e N2 (relative a L1 e a L1) e poi utilizzarle come quantità note nell’espressione di N3( relativa appunto a L3). Vediamo invece cosa succede sulla wide lane (formule per forza). Se siamo in termini di fase mi basta semplicemente fare la differenza tra fase di L1 e la fase di L2 (perchè N1=1 e N2 =-1). Formule. Otteniamo una espressione appositamente espressa in termini di fase per mettere in evidenza N1 e N2. (tante formule). C’è un termine che mi interessa mettere in evidenza che deriva dalla combinazione lineare dalle N1 e N2 essendo una combinazione a coefficienti interi è ancora intero, da questa grandezza possiamo andare ancora definire una N3 intera.

25) differenza singola e differenza doppia e base GPSSi tratta semplicemente di considerare due R che acquisiscono contemporaneamente e prendere le ralative osservazioni contemporanee e farne la differenza. Possiamo applicare quest’operazione sia alle OP che alle OF, comunque a noi interessano soprattutto quest’ultime. Il vantaggio della differenza singola è che elimina l’effetto dell’orologio del S, perché sto osservando contemporaneamente (alla stessa epoca) da 2 R lo stesso S, tale errore è lo stesso e se andiamo a fare la differenza tra le osservazioni tali termini di errore si elidono. Questo è importante anche se questo termine è supposto noto, perché comunque elimino anche l’errore con cui questo termine è supposto noto e quindi miglioro la precisione della mia osservazione. L’errore dell’orologio del S provoca un errore sulla distanza di circa 1 m, che è la stessa entità dovuta all’incertezza che c’è sulle effemeridi, se ho un errore di un m non posso certo avere la precisione del cm, quindi lavorando sulle fasi il modello dell’errore di orologio non va bene, e devo rimuovere il modello che non riesco a migliorare. Dal punto di vista della costruzione della DS non ha importanza se parto dall’OF su L1 o L2 o L3 (quest’ultima costruita sulle prime 2), quindi posso utilizzare anche le

Page 24: GEOMATICA Ultima Epoca

combinazioni così da poter utilizzare la costruzione ionospheric free (la DS è una combinazione di combinazioni). Consideriamo ora un'altra combinazione la differenza doppia in cui consiste in 2 R che guardano 2 S contemporaneamente. La DD può essere vista come costruita da 2 DS, avrò una DS che compete ai R e al S1, e una altra DS che compete al secondo R e al S2, faccio la differenza di queste 2 DS. Notiamo che con la DD tolgo dall’eq. il termine dovuto all’errore d’orologio del R, oltre quello del S che era già stato tolto con la DS, in totale comunque tolgo tutti i termini relativi agli orologi (formule). Avremo un termine geometrico che contiene la DD delle distanze, un termine ionosferico e uno troposferico (entrambi sotto forma di DD degli effetti iono e tropi), e il termine N (anche’esso sotto forma di DD). Le N che avremo sono 4, come 4 sono le osservazioni. Siccome le varie N sono numeri interi anche la loro differenza sarà un numero intero. Si ricorda che se la DD la faccio su L3, perdo l’effetto dovuto alla ionosfera, però ho lo svantaggio di avere N non interi (non a causa della DD ma per via della combinazione L3). L’edo alle DD è non lineare sulle sue incognite geometriche, e la dobbiamo andare a linearizzare per rendere calcolabile la posizione dei 2 R (3+3 incognite) e i 4 termini di ambiguità N (4 inc), le incognite di tempo non ci sono più. Dalle DD non riusciremo mai trovare la posizione dei 2 R. Questo perché considerando le 6 inc. geometriche che dobbiamo determinare ci accorgiamo che nella pratica non possono essere determinate, anche nel caso avessi più eq. che inc . Il problema non è di ridondanza ma di contenuto geometrico. L’unica cosa che riusciamo a stimare è una differenza di posizioni tra A e B (non riusciamo a determinare la posizione di A e di B, ma solo di un punto rispetto all’altro), ecco perché si parla di PR. (formule). Prendiamo l’eq alla singola fase e asciughiamo il formalismo accorpando un po’ di termini (utilizziamo altre annotazioni) 17:00 Andiamo a fare la DS, in queste eq sono esplicitate le 2 grandezze geometriche inc il deltaxa e il delta xb che sono i vettori correzione alla coordinate approssimate dei 2 R. Nell’ambito di tale modello linearizzato, se io fossi in grado di stimare delta xa e delta xb avrei risolto il mio problema (per adesso le N non ci interessano). Queste 2 inc vettoriali (composte ognuna da 3 grandezze scalari) non sono però determinabili. Andiamo ora a sommare a sottrarre il versore Rb S moltiplicato per la correzione relativa alla posizione del Ra (avrei ottenuto lo stesso risultato Ra S per Rb, non cambia nulla). Raccolgo il versore Rb S e la correzione alla posizione di a. (spiega altri passaggi). Notiamo che le grandezze al denominatore sono diverse per i 2 R che sono in posti diversi e guardano 2 satelliti che sono in 2 posti diversi. Però se i 2 R non sono troppo distanti tra loro ad esempio 10 km, essendo i satelliti a 20000 km circa, queste 2 grandezze sono si diverse ma molto simili, suppongo di considerarne il valor medio e di sostituirlo a entrambi i valori, così facendo mi sono trovato un denominatore comune (in termini approssimati, ma di buon senso), il numeratore si semplifica perché la posizione del S compare in tutte e 2 le parti dell’eq. Ottengo che la differenza tra i 2 versori Ra e Rb diretti verso lo stesso S è pari al rapporto tra la posizione relativa tra a e b (calcolata in funzione delle coordinate approssimate) tra il valore medio delle distanze di a e b dal S.La grandezza delta x ab è una grandezza che viene chiamata prodotto topografico del GPS o base GPS. Andiamo a sostituire a quanto ottenuto la variazione della posizione di b meno la variazione della posizione di a (questa quantità può essere vista come la variazione della base). Andiamo a fare una valutazione dei termini come coefficienti delle incognite. Possiamo stimare sia delta x a che delta x ab (dice che ha parametrizzato le posizioni di a ed i b, come la posizione di a e la posizione di b rispetto ad a)? No, perché deltaxab è un valore che abbiamo supposto essere dell’ordine della decina di km (numeratore), e la distanza media dei R da un S e di 20000 km (denominatore), il termine complessivo dato dal rapporto di questi 2 è molto piccolo 5 x 10-4 (diventa ancora più piccolo se i R si avvicinano). (formule) Questa grandezza geometrica (quale?) è poco sensibile a alla posizione di a, cioè la posizione di a compare nell’espressione ma con un coefficiente molto piccolo e quindi c’è poca informazione per stimare questo parametro (quale?) In pratica combinando le osservazioni per elidere effetti indesiderati ottengo delle combinazioni con un contenuto geometrico povero (man mano che i R sono più vicini) dal punto di vista della posizione assoluta dei 2 R. Ho invece un informazione interessante per quel che riguarda il versore, che non dipende dalla vicinanza dei R e dalla distanza dal S, e quindi ho tanta informazione per fare la base.

Page 25: GEOMATICA Ultima Epoca

(inverte gli indici relativi ai S e R per mostrare che non sarebbe cambiato nulla). Andiamo ora a considerare la DD e vediamo che non cambia nulla (prendiamo 2 S chiamati i e j), ma dal punto di vista geometrico il discorso è lo stesso o scarsa informazione per stabilire il PA e una buona informazione per costruire la base.

26)( riassunto puntata precedente) (formule) Modello semplificato ipotesi di base corta a b R 12345… S modello funzionale Nel proseguo supporremo sempre di avere a che fare con basi corte (il ragionamento che abbia fatto inizierà a valere un po’ meno man mano le basi sia allungano), e solo con reti grandi di stazioni (tipo IGS) posso avere una qualche speranza di determinare posizioni assolute anche se ciò non ci serve. All’inizio abbiamo detto che il GPS non è una tecnica autoconsistente in quanto sono state necessarie altre misure (vlbi per l’orientamento dell’asse terrestre e il LR per il baricentro), quindi il GPS è la tecnica che a partire dalle poche e costose misure fatte mi densifica la materializzazione del SR sulla superficie terrestre. Quindi visto che ho a disposizione quelle 2 tecniche per fare PA lo scopo principale del GPS consiste nel determinare molte più posizione note, e non mi interessa fare PA se mi posso ad ancorare a punti noti (ci sono comunque delle tecniche molto promettenti che sembra possano dare buoni risultati utilizzando le OF per il PA ma non le vedremo). Il discorso generale è che qualsiasi SR è stato materializzato con dei punti acquisiti mediante questa filosofia (anche con basi lunghe). Noi utilizziamo l’ipotesi di base corta per un motivo di pratica operativa, in quanto i software commerciali (non scientifici) dei R sono costruiti in maniera semplice e si basano tutti sull’ipotesi di base corta.(mostra formule DD delle OF) Abbiamo il termine che contiene geometria ionosfera e troposfera, il termine che contiene le incognite geometriche (cioè la base), i termine contenente le incognite di ambiguità iniziale (da ora in poi come incognita di ambiguità iniziale considerremo la DD delle 4 N, e sarà un numero intero). Uno dei problemi che vedremo (la settimana prossima) consiste nel stimare le incognite ai minimi quadrati. Le chiameremo edo anche se si tratta di un combinazione di edo (le DD in realtà non sono edo) . Avremo un sistema di edo alle DD e ogni eq. avrà una strutture di questo genere ( formula generica). Il problema che differenzia questo problema ai minimi quadrati dagli altri visti è la natura delle eq. Noi eravamo abituati a risolvere eq. ove le inc. erano tutte numeri reali. Noi invece dobbiamo stimare contemporaneamente sia delle inc. che sono numeri reali e sia inc. che sono numeri interi. Il fatto di avere delle inc intere è un informazione importantissima che dovrà essere tenuta in conto. Supponiamo di avere 2 R e 4 S in vista, cioè la configurazione minimale standard del GPS se utilizzato in tempo reale, e supponiamo di avere i R abbastanza vicini (è veritiero il fatto che se sono vicini vedono gli stessi S). Possiamo riferirci sia a OP e OF (l’unica differenza è la presenza delle N o meno), facciamo il sistema, tale sistema è risolvibile se osservo almeno 4 S su almeno 2 piani orbitali. In realtà in questo caso tale precisazione non è necessaria, perché se siamo sulla stessa epoca e nominalmente su ogni piano orbitale abbiamo 4 S che sappiamo essere equispaziati, vuol dire che ne vedrò 2 e gli altri non saranno visibili (li avremosotto i piedi). Quindi se vado a osservare 4 S alla stessa epoca sono sicuro che non viaggiano tutti sulla stessa orbita. Il fatto di avere almeno 4 S è importante e adesso vediamo il perché. Nel caso delle DD delle OF dove intervengono le inc. N ( le inc. in totale saranno le 3 inc. geometriche più le DD delle N ). Devo capire bene quante sono queste inc N. Nel momento in cui posso costruire almeno una DD (almeno 2R e 2S) nasce la prima inc N. Se prendo un terzo S ne posso scrivere altre 2 inc N (in tutto Nab12 Nab13 Nab23). Mi accorgo però che solo 2 inc sono indipendenti 1 , mentre una è combinazione lineare delle altre 2, quindi di queste 3 N solo 2 sono realmente delle inc. Se ho 4 S avrò al massimo 3 inc N indipendenti, se ho m S avrò m-1 inc N indipendenti. In questa configurazione (2R e 4S) le inc che entrano nel mio sistema saranno le 3 inc. geometriche e le 3 inc N. Ad ogni epoca di osservazione posso scrivere tante edo tante quante sono le possibili DD linearmente indipendenti, mentre le altre possibili DD sono combinazioni lineari e non forniscono nessuna informazione aggiuntiva. Quindi ho 3 eq in 6 inc, da cui si capisce che non è possibile risolvere il problema in tempo reale (d'altronde avevamo già visto che con le OF non riusciamo a fare posizionamento in TR

Page 26: GEOMATICA Ultima Epoca

e non è che farne la differenza cambi qualcosa). Se prendiamo ad esempio 2 epoche avrò 6 eq in 6 inc, le inc geometriche sono le stesse , le inc. N sono le stesse se siamo riusciti ad osservare i S cono continuità (assenza di cycle slip). Comunque ogni volta che ho un cycle slip aggiungo un incognita (ho una nuova N).Comunque ogni volta che ho un cycle slip è come se stessi osservando quel S per la prima volta. Siccome le nostre N sono le DD è sufficiente che io perda il contatto con uno dei S coinvolti nella combinazione. Facciamo 2 esempi: supponiamo di fare le DD tra ab12 ab23 ab34 e che tra un epoca e l’altra perdo il contatto con il S1. Consegue che l’incognita Nab12 mi cambia (ma solo quella).Mentre se considero un altro esempio in cui scelgo di fare le DD tra ab12 ab13 ab14, adesso il problema è che il S1 compare in tutte le DD e quindi se ho un cycle slip dovrei aggiungere 3 inc (invece di una sola come nel caso precedente) . Si capisce che nonostante la scelta di come costruire la DD sia arbitrari,esistono comunque scelte più furbe di altre (quelle che ti fanno introdurre meno incognite), da determinare con particolari criteri. Nella pratica e nei software si utilizza tale filosofia: ad esempio se scelgo di utilizzare un solo S come riferimento su cui costruire le DD, tale S che viene scelto sarà quello migliore ( il più visibile, il più elevato e con meno cycle clip), infatti i software hanno una particolare utility che ci indica quale S é stato tracciato meglio, e quello con l’elevazione più elevata . Utilizzando più epoche andiamo a comporre il tutto in maniera tale da impacchettare più edo. Una caratteristica del GPS è quella di avere problemi in generale molto ridondanti. Ad esempio supponiamo di avere 2 R e osservare 5 S per 240 epoche, supponiamo di avere un osservazione ogni 15 secondi (in quel tempo un S percorre circa 50 km) e supponiamo di non avere cycle slip. Avremo 7 inc (3 geometriche e 4 di ambiguità N) e 960 edo alle DD (ogni epoca 4 DD per 240 epoche). Otteniamo una ridondanza enorme.

Modello stocastico delle differenze doppieAbbiamo capito come comporre il modello funzionale, andiamo a vedere invece come si costruisce il modello stocastico. C’è qualcosa che non ci piace e che non abbiamo mai visto in nessuna delle misure topografiche finora studiate. Supponiamo per semplicità che la singola osservazione o di codice e di fase sia caratterizzata da una certa varianza ad es 1cm per l OF e 1 m per le OP. Adesso anche supponendo (cosa che si fa sempre, ma nella realtà non è cosi, ma ci può stare) che le singole osservazioni eseguite ad una certa epoca siano tutte indipendenti, così avremo una matrice di covarianza con una struttura ben precisa. (anche pensare le misure tutte con la stessa precisione non è completamente vero, vedi PDOP) . Riprendiamo il nostro esempio 2R e 5 S . (formule della generica DS in forma più raccolta)34 :30 (formule e matrici). Y1ab=y1a-y1b, analogamente per y2 y3 y4 y5. La singola differenza prima è uguale alla matrice S dei coefficienti per il vettore delle osservazioni R S. Facciamo la propagazione delle covarianza che risulta piuttosto semplice perché il modello è lineare, e trovo ( formule) Cxy=sigma 0 quadro per I, nient’altro che una matrice diagonale in cui sulla diagonale principale ho delle varianze doppie perché risento del rumore di ya e yb.. e si combinano i 2 rumori. A livello di DS sono ancora incorrelate e hanno varianza doppia rispetto alle osservazioni di partenza. Scriviamo ora le DD (in funzione delle DS) e andiamo a fare la propagazione delle varianza, il problema cambia completamente faccia. Cioè la matrice di covarianza delle DD anche se le osservazioni sono tra loro indipendenti non è più una matrice diagonale, e quindi tutte le DD sono tra loro correlate, tramite coefficienti che non sono piccoli (di 0,5). Il modello stocastico è più complicato di quelli visti finora (rispetto alle osservazioni di topografia, il gps ha osservazioni correlate). Si ricorda che quando vado a costruire il risolutore ad un certo punto devo passare attraverso la matrice normale in qui compare Qinversa, si capisce quanto sia più difficile calcolare l’inversa di una matrice piena piuttosto di una matrice diagonale. Diventa complicato soprattutto se consideriamo l’esempio dove abbiamo 240 osservazioni, quindi Q sarà una matrice 240x240. La matrice dei cofattori in verità non è completamente piena ma è piena ogni pezeetino corrispondente a un’epoca, la matrice è diagonale a blocchi (e si inverte con dei ,metodi un po’ più veloci). Se aggiungiamo un S o un R il problema si complica molto velocemente di ordini di decine di migliaia e bisogna utilizzare delle tecniche di calcolo numerico

Page 27: GEOMATICA Ultima Epoca

appropriate altrimenti non ce la faccio. Vent’anni fa questo aspetto era uno dei problemi principali e sono stati sviluppati dei metodi appositi di soluzione. Vediamo ora cosa succede agli errori di modello, che prima avevamo accorpato nel termine b (contenete troposfera ionosfera e coordinate del S). Vediamo che impatto hanno sulle DD. Ricordiamo che nel PA tanto sbagliavi e tanto mi si riperquote sulle misure. (formule) b è una somma di errori relativi alle effemeridi agli orologi alla troposfera e alla ionosfera. Nel momento in cui passo alle DD il modello generale degli errori consisterà nella differenza degli errori. Ricordiamo prima che avevamo detto che non siamo in grado determinare la posizione di tutti e 2 i R.A causa del fatto che il termine esiste però ha un coefficiente piccolo per poter estrarre l’informazione. Ragioniamo ora in termini relativi dicendo che un estremio delle base è noto, cioè la quantità non riusciamo determinarla con il modello e quindi dobbiamo supporla nota con un certo grado di errore che mi andrà a influire sulla precisione delle determinazione dell’altro estremo della base e quindi dell’altro ricevitore. Come e quanto? L’effetto di tale errore si scaricherà sulla misura in ragione del coefficiente piccolo ma non nullo. Quindi prima dicevamo che un estremo della base non era determinabile per via del fatto che nella formula il coefficiente è piccolo e abbiamo poca informazione, mentre oggi diciamo che il coefficiente è piccoloe che se io dovendo dare per nota la posizione dell’estremo delle base sull’altro estremo l’errore si scaricherà in funzione del coefficienti. La stima della base è condizionata dalla bontà della stazione data per nota. Complessivamente tutti gli errori che devo andare a prendere in considerazione sono tutti quelli visti finora più quello con cui è nota la posizione della stazione di appoggio. Questo termine è più piccolo di ieri perché stiamo facendo la differenza di 2 termini molto simili tra loro, perché al numeratore hanno la stessa quantità che è la base approssimata, al denominatore hanno la distanza media dei 2 R della base dal satellite i e dal S e J. La base è corta quindi la distanza dei 2 R dal medesimo S è la stessa. È vero che i S i e j sono diversi, ma sappiamo che tutti S stanno a 20000 Km. Quindi il numeratore è lo stesso e il denominatore è leggermente diverso e facendo la differenza, questa è molto piccola (solito discorso niente di nuovo) .

Effetti degli errori sulla stima della base dal punto di vista quantitativo (un po’di numeri)Possiamo distinguere 2 tipi di errori (che riepilogando sono troposfera ionosfera , effemeridi , orologi, e coordinate note del punto che dobbiamo avere) che impattano la stima della base in 2 modi diversi: possono causare un effetto di scala (cambia il modulo della base e le sue singole componenti variano in maniera isotropa), oppure possono causare variazione sulle singole componenti e non sul modulo delle base (i rapporti delle componenti vengono modificati). Questi 2 effetti sono combinati tra loro e il complesso degli errori determinano una distorsione globale della base, in modo che cambia la lunghezza e il rapporto delle singole componenti. (tabella con il valore dei rispettivi errori) Cerchiamo di andare a quantificare questi effetti, inanzitutto vediamo cosa succede per l’errore sulle coordinate del punto che do per noto e il discorso è analogo anche per le effemeridi, complessivamente per quanto riguarda entrambi gli errori, l’errore dipenderà dalla lunghezza della base. Noi ci focalizziamo sulle basi corte, e 5 cm è l’errore medio delle effemeridi precise, e 5 m per le effemeridi broadcast (che sono quelle più utilizzate nella pratica, non aspettiamo 2 settimane). Con effemeridi precise al m e con una base di 10 km l’errore complessivo sulle osservazioni e dell’ordine del mm, si capisce che nell’ambito delle applicazioni pratiche tale errore è trascurabile. Se la base che vogliamo calcolare è lunga, ad esempio 1000 km ho errori tra 5 e 10 cm inacettabili dal punto di vista della potenzialità che il GPS mette a disposizione, dovremmo fare ricorso alle EP che comunque non mi permettono di avere precisioni migliori alcuni mm.

28)(riassume) Andiamo a capire per il rilievo delle basi corte che cosa deve essere utilizzato dal punto di vista della posizione dei S e dalla conoscenza del punto indietro noto. Il primo caso riguarda S o PI noti in ipotesi di grande accuratezza con errore dei S 5 e 10 cm cioè si utilizzano le EP (sulla base errori

Page 28: GEOMATICA Ultima Epoca

del mm), anche se con EB l’errore sarebbe stato poco più grande, anzi in verità nella pratica non ha senso ipotizzare basi corte utilizzando EP. Per quanto riguarda la posizione del punto noto, la condizione è la stessa si suppongono errori del m, sulla stima della base ho errori del mm. Io potrei anche accontentarmi sulla posizione del punto indietro delle precisione che si ottiene in TR (5 e 10 m) pagando un prezzo sulla base del mezzo cm che nella pratica è tollerabile, nella pratica non si fa mai ma è solo per esempio comunque l’impatto di questa cosa non sarebbe devastante. In sintesi nelle applicazioni pratiche le EB e le posizioni approssimate con precisione di qualche m dal punto di vista della stima della base è accettabile, ovviamente la base la stimo bene però la posizionamento del punto avanti sarà stimata in ragione delle errore del PI. Se utilizzo EB sto implicitamente lavorando nel WGS84 nel senso stretto (perché?). Quindi tutto fila bene con quello che ricevo in TR dai miei S e con quello che posso fare in TR come PA, ma solo a livello di base, dovremo avere un ulteriore informazione per attaccare bene questa base a punti che siano noti meglio (meglio del m e delle decina di m, dell’ordine del cm),per trovare l’altro estremo della base con una precisione soddisfacente nel SR WGS84. Come faccio? Dovrei avere una precisione migliore sul punto indietro e dell’ordine del cm. Questa possibilità mi deriva da informazioni precedenti tra cui la posizione delle SP. Supponendo che il PI sia una SP, avrò una precisione sulla stima di tali coordinate molto vicina alla precisione massima conseguibile con il GPS, oppure se non ho a disposizione una SP posso utilizzare punti la cui posizione è stata determinata attaccandosi a una rete o a qualche SP, questa è la filosofia con cui è stata costruita il SR nazionale IGM 95 che andava a materializzare ITRF89. Utilizzo quelle coordinate e implicitamente mi vado mettere all’interno SR che utilizza quelle coordinate. Visto che IGM 95 è stato attaccato alla RDN stiamo facendo un’operazione che in ambito nazionale mi colloca nell’ETRF2008 (epoca 2008.0) che è il SR nazionale attualmente vigente. Andiamo ora a vedere gli effetti sulla stima della base dovuti agli effetti della troposfera, ionosfera e multipath. Anche qua l’effetto in termini assoluti è variabile in dipendenza con la dimensione della base. Posso decidere di eliminare l’effetto ionosferico decidendo di utilizzare la combinazione L3, in caso contrario sappiamo che la ionosfera provoca sulle OF una anticipo della fase e ciò determina un fattore di scala,così che la distanza tra S e R è più corta,e quindi l’effetto è un accorciamento complessivo delle distanze , con un entità di un decimo di ppm fino a una ppm, cioè 1 mm si 10 km fino a diversi mm o qualche cm su 10 km. Quindi l’effetto ionosferico può causare degli effetti comparabili se non superiori a quelli provocati dalle effemeridi (posizione S) e dalla posizione del PI. Il tutto dipende dalla lunghezza della base (essendo une effetto di scala) per basi fino a 4 -5 km siccome l’effetto e di qualche mm spesso non ha senso considerare la combinazione ionospheric free (perché l’effetto ionosferico in questo caso è scarso, perdo il valore intero della N, e ho una combinazione di osservazione e quindi un rumore superiore (ho solo svantaggi non mi conviene), però se la base è più lunga devo considerare l’ipotesi di utilizzare la ionospheric free. Il limite di utilizzo non è netto in quanto la ionosfera varia sia con il giorno che con la notte ma anche secolarmente con l’attività delle macchie solari (dipende se sono di giorno e se l’attività solare è alta, è una questione di buon senso) Indicativamente sotto i 5 km è meglio non utilizzarla, sopra i 10 km è meglio considerarla. Un altro dato indicativo è che il rumore che si ha utilizzando le combinazioni di fase è indicativamente 3 volte superiore all’osservazione semplice, e ciò vale per tutti i tipi di combinazioni.Consideriamo ora l’effetto troposferico. Come entità è molto più piccolo rispetto all’EI, però non è dispersivo con la frequenza e quindi non è eliminabile tramite combinazioni di fase (in verità esiste una combinazione di frequenza ma non vale la pena di usarla per fare posizionamento) ed inoltre la componente umida (il 10% dell’effetto) è molto variabile e molto difficile da prevedere, e quindi la gran parte degli errori dovuti nella stima delle base sono dovuti all’ET , e ptincipalmente dovuti alla componente umida (è si il 10% dell’effeto sul segnale,però non è modellizzabile). Abbiamo 2 possibilità. La prima è la più comoda e in pratica è quella che viene utilizzata sempre anche se non è quella che porta ai risultati migliori. Si dice che siccome lavoro con una base corta confido nel fatto che le DD vadano mitigare la gran parte del mio effetto . Siccome i R sono vicini e guardano li stessi S, si può supporre che i R guardano la stessa zona di troposfera e siccome l’ET è piccolo si

Page 29: GEOMATICA Ultima Epoca

dice che facendo la differenza l’ET si elide approssimativamente ad un livello sostanzialmente innocuo. Questo è vero per la stragrande maggioranza delle osservazioni. Questa assunzione inizia a cader nel caso i 2 R siano in zone situate a quote molto diverse, perché la troposfera è poco spessa e la gran parte dell’effetto è concentrato nei primi 2 km (esempio monte bianco e courmayer), in questo caso l’ET genera sulla stima della base una la distorsione molto alta anche dell’ordine delle decina di cm (comunque questo è un caso molto particolare, che non può essere normalmente affrontato con dei software correnti). Apriamo una piccola parentesi relativa alla meteorologia GPS. Si suppone di conoscere perfettamente tutta la geometria (vero solo nelle reti di SP) supponiamo incognita la grandezza troposferica fondamentale che consiste nel ritardo in direzione zenitale, e da questo vedere l’acqua contenuta in atmosfera in ausilio delle previsioni meteorologiche.

Effetto del cycle slip e del multipath sulla stima delle baseConsideriamo ora l’effetto sulla stima delle basi dovuto ai cycle slip. Noi leghiamo il cycle slip al concetto di errore nel caso non ci accorgiamo del suo verificarsi. Come faccio sapere se si è verificato un cycle slip . Esistono molte tecniche, noi ne vediamo una molto semplice ma molto efficace ed è molto diffusa sia nei software commerciali e anche in buona parte di quelli scientifici. Partiamo dall’equazione alle DD di fase (formula) dentro b infiliamo orbite atmosfera e geometria, mettiamo in evidenza la parte geometrica (correzione alla base) delle inc e la parte non geometrica (la DD di ambiguità iniziale di fase). Andiamo ad accumulare una serie di osservazioni lungo un certo arco temporale e vado a considerare per ogni epoca una grandezza che si chiama differenze doppie residue (formule). Si sposta da 2 a primo membro un termine, mettendo in evidenza le inc di geometria e le inc di ambiguità. Andiamo a introdurre un’altro tipo di combinazione di osservazioni che è rappresentata dalla differenza nel tempo tra 2 DD residue. Andiamo a vedere cosa c’è dentro a questa relazione.(formule). Abbiamo un termine che è rappresentato dalla differenza rispetto i coseni direttoti dalla stazione b verso i S i e j rispettivamente all’epoca ti e all’epoca ti-1. Supponiamo che le 2 epoche siano distanti fra loro pochi secondi. In tale intervallo il satellite si è spostato di una quantità considerevole ma angolarmente si è spostato di poco (4/20000) al R, stiamo guardando anche una altro S e per questo S faccio la stessa considerazione. Facendo la differenza tra i due termini (quali?) e mi rendo conto che questa differenza può essere vista anche come differenza delle differenze tra il versore sotto il quale vedo il Si all’epoca i-1 e il versore sotto il quale vedo il Si all’epoca i meno la stessa cosa per il Sj. Se ho notato che il S tra le 2 epoche si è angolarmente spostato di poco,e quindi se faccio la differenza troverò un termine che è molto prossimo lo zero,in quanto la differenza tra 2 quantità molto prossime allo zero sarà anch’essa molto prossima allo zero. Nel momento in cui vado a considerare la differenze tra 2 DD residue ottengo un‘espressione, nella quale mi rendo conto se le 2 epoche sono vicine tra loro, il termine contenente le incognite geometriche avrà un coefficiente molto piccolo. Tale eq non è buona per estrarre le inc geometriche, ma è buona per cercare i cycle slip. Questo perché il 1 termine è molto piccolo. Il 2 termine non è altro che la differenza delle DD di N all’epoca ti-1 e ti, se tra queste 2 epoche non c’è stato nessun cycle slip (nessuna interruzione) questo termine deve essere uguale a zero. Stiamo constatando una caratteristica importante di questa osservazione, se io la vado fare le osservazioni tra epoche poco distanti in assenza di cycle slip, la geometria ha un effetto molto piccolo mentre le ambiguità hanno un effetto nullo. Se invece è avvenuto un cycle slip o più di uno ottengo che la differenza temprale tra le DD residue si discosterà da zero. Tutte le volte in cui questa combinazione è diversa da zero c’è stato un cycle slip. Possiamo cercare il valore di una grandezza che chiameremo entità del cycle slip che risulta essere pari a quanto a modificato il valore della DD dell’ambiguità iniziale delle epoca ti-1 e ti. Tale grandezza dal punto di vista numerico è un numero intero (in quanto combinazione di 8 numeri interi), così facendo oltre a determinare la presenza o meno di cycle slip, riesco anche a calcolarne l’entità che teoricamente sarà un valore intero. Se vado a vedere la grandezza data dal rapporto tra λ e la differenza nel tempo di 2 DD residue dovrebbe concettualmente uscire una grandezza intera, ma nella realtà non avviene mai perché all’interno ci sono gli effetti degli errori di osservazione e quindi non sarà mai un intero.

Page 30: GEOMATICA Ultima Epoca

Cosa me ne faccio di questo valore? Dobbiamo utilizzare un po’ di buon senso. Vado a calcolare questa grandezza e capire se essa sia diversa da 0 oppure no, (devo stare attento in quanto la grandezza non sarà diversa da 0 per lo stesso motivo per cui non è intera) devo capire se tale quantità sia significativa per l’esistenza di un cycle slip oppure no, e fissare una soglia per stabilire se c’è solo l’effetto di un rumore complessivo (di modello e di osservazione) o meno . Supponiamo che ci sia il cycle slip lo andiamo a valutare e troveremo un valore non intero, il criterio che posso andare a seguire è che se abbiamo fissato una soglia di valore che mi stabilisce se c’è il cycle slip o meno ragionevolmente per stabilire l’entità di tale cycle slip potrò utilizzare la stessa soglia (che stabilisce di quale l’entità media del mio valore non intero si deve discostare dall’intero più vicino). Abbiamo il caso più semplice in cui il cycle slip calcolato sia molto prossimo ad un intero, e ragionevolmente fissarlo all’intero più vicino, così ho fatto la stima di una quantità intera. Cioè se torno indietro nella mia osservazione non ho bisogno di introdurre una nuova incognita di ambiguità perché calcolando l’entità del cycle slip ho stabilito di quanto è variata l’ambiguità iniziale di fase rispetto all’epoca precedente (questo avviene quasi sempre a parte qualche caso particolare che vedremo). Questo problema non ce lo poniamo più nel caso l’interruzione duri molto tempo, in questo caso ci conviene introdurre un ulteriore incognita N, perché risulta molto più difficile discriminare all’intero e la stima sarebbe poco affidabile e non avrebbe senso. Non abbiamo detto nulla riguardo a epsilon. La presenza di un cycle slip induce un effetto molto superiore agli errori di misura perché ad esempio perdendo anche un solo ciclo su una sola delle combinazioni R e S possibili. Un ciclo è l’equivalente in lunghezza di una di λ, quindi abbiamo un errore di circa 20 cm. Considerando che se l’errore della stima della base è di 1mm, l’errore introdotto dal cycle slip è di centinai di volte l’errore di misura (dovuto al rumore elettronico). Mi basta mettere una soglia di questo genere di pochi cm per capire se questo CS c’è o non c’è. Ricordando che stiamo usando frequenze di 10 alla 9 Hz e quindi l’interruzione anche se piccola, di cicli me ne fa perdere tanti . 29)Consideriamo ora l’effetto del multipath. Quando vado a considerare la DD ho l’effetto del multipath sulle 4 osservabili che la compongono e quindi mi aspetto che ci sia un amplificazione o una mitigazione di questo effetto a seconda di quale sia la coppia dei S che sto considerando e come sia disposta rispetto agli ambienti relativi ai 2 R. Quello che succede è che se ho superficie riflettenti intorno ai R, e ci sarà un effetto che in genere non è quantificabile. Infatti nelle edo non compare mai un termine relativo al multipath perché non siamo in grado di modellizzarlo (quello che non è dentro il modello entra dentro gli scarti), l’effetto del multipath andrà quindi a finire negli scarti residui della stima ai minimi quadrati delle DD. Se io in teoria facessi stime perfette, cioè senza errori e coerente con il modello che sto utilizzando (nella realtà gli errori sono ineliminabili e il modello non è adeguato per tener conto dell’effetto del multipath ) l’effetto lo trovrei all’interno degli scarti ed è facilmente individuabile. Perché se ad esempio considerando 2 R che stanno nello stesso luogo e osservo oggi 2 S, lascio li i R e osservo anche domani. Il giorno dopo (con anticipo di 3 minuti e 56) la costellazione si ripresenta identica a se stessa, se non è cambiato l’ambiente, l’osservazione fatta il giorno prima o il giorno dopo avrà sempre rumore dovuta al multipath. Nella pratica si fa così, essendo il multipath dipendente dalla essenzialmente dalla geometria R e S e dall’ambiente, a meno di variazioni delle ambiente si ripresenta identico ogni giorno (meno 3 minuti e 56 s), mi basterà andare a vedere come sono fatti gli scarti residui di oggi e di domani rialliniandoli indietro di 3 minuti e 56 secondi, se trovo dei comportamenti simili, questi comportamenti sono dovuti al multipath, questo viene fatto da tempo e si è ravvisato che questi comportamenti simili sono comportamenti sostanzialmente a diverse se frequenze. Quindi il multipath causa negli scarti residui nelle eq alla DD delle oscillazioni che possono avere ampiezze anche ampiamente superiori all’errore di misura (qualche cm), che però sono identiche la stessa ora del giorno siderale. Queste frequenze sono delle basse frequenze che vanno da qualche minuto a mezz’ora. Questo comporta che se faccio sessioni di misura brevi, cioè accendendo il R e lo spengo dopo qualche minuto è molto probabile che abbia avuto del multipath e mi rimanga dentro come effetto. Se tengo acceso il R per più tempo (osservazioni più lunghe) avrò che l’effetto oscillatorio del multipath esisterà sempre, però l’effetto si andrà sostanzialmente ad annullare. Osservazioni

Page 31: GEOMATICA Ultima Epoca

molto più prolungate nel tempo (più di mezz’ora, ore e alcune ore) saranno affette da multipath ma tale effetto sulla stima delle geometria sarà sostanzialmente nullo. Al contrario se le misure sono i effettuate su intervalli molto brevi.

Stima della base e delle N procedimento Quale l’ordine logico con cui partendo dai dati acquisiti da 2 R arrivo alla stima della base. Questa operazione viene normalmente fatta in maniera occulta da qualsiasi software dei nostri R. Le ipotesi sono le sempre le solite: 2 R che osservano contemporaneamente gli stessi S. Dobbiamo considerare note la posizione del PI e le posizioni del S, i modelli dell’atmosfera e la posizione del punto avanti (questa mi serve per linearizzare le’eq). Le CA del punto avanti me le devo procurare, le posso determinare con il PA tramite le OP (3 inc posizione più le inc di tempo) ( riassume il PA) e otteniamo una posizione precisa a qualche metro e ci va bene. Adesso ho sia per A (PI , note) che per B (approssimate) delle posizioni, poichè nella stima successiva quello che cerco è la stima delle base , facendo la differenza tra le 2 posizioni ho già una prima stima delle base (approssimata). Possiamo migliorare questa stima utilizzando un ulteriore passaggio di preprocessamento, che consiste nell’utilizzare le DD sulle OP e ciò porta da errori di qualche m a errori di pochi dm. Quest’operazione non sempre viene fatta dai software commerciali, comunque è possibile farla. Per la stima della base sull’OF, la prima cosa che devo fare è quella di togliere i cycle slip (con il metodo spiegato prima), quelli che riesco a stimare interi li metto via, mentre quelli che non riesco a stimare aggiungo un'altra inc di ambiguità iniziale di fase. Sapendo quante sono le epoche di osservazione, quanti S ho visto e quindi quante eq alle DD ho a disposizione, e sapendo quanti CS sono riuscito a determinare, so anche quanti inc devo risolvere. Cioè le coordinate, le N iniziali, e le N dovute ai cycle slip. Quello che otteniamo risolvendo il sistema è quella che si chiama soluzione float cioè in virgola mobile. L’appellativo di soluzione avirgola mobile spetta alle ambiguità N, perché i minimi quadrati dal punto di vista del principio di stima sono ciechi rispetto alla caratteristica numerica delle inc. Nel senso che i minimi quadrati non lo sanno che le N devono essere dei numeri interi, e quindi se entro con questo sistema nei MQ e tutte le inc vengono stimate reali anche le N), ed è per questo che si chiama stima float. Questo aspetto ci da fastidio perché io ho un informazione in più, (l’interezza delle N) e che non viene utilizzata. Tale informazione la dobbiamo usare, possiamo utilizzare il principio molto rozzo utilizzato per determinare l’entità dei CS (arrotondare all’intero più vicino), e comunque esistono criteri più intelligenti che mi permettono di evitare di fare errori abbastanza gravi. (17:40 riassume e anticipa). Il problema che ci dobbiamo porre dopo avere fatto una prima stima delle base è quello di trovare i valori interi delle N, avendo a disposizione 2 informazioni date dalla stima ai MQ, le stime reali di N, e la matrice di covarianza delle stime. In particolare se entro dentro questa matrice ho a disposizione lo scarto quadrato medio di ciascuna di queste incognite. Vedremo che ci sono criteri che considerano l’intera matrice di covarianza (ma noi non li vedremo)30)Vediamo un criterio molto usato e abbastanza intelligente per la stima alle N in termini interi.L’uso più semplice che si può fare dell’informazione stima reale e sul suo scarto quadratico medio, si tratta andare di fare una ipotesi che è sostanzialmente verificata sempre con buona approssimazione, che consiste nell’avere a che fare con osservazioni e con le loro combinazioni lineari distribuite normalmente (od i gauss) ciò implica che i minimi quadrati (adottando un modello di stima lineare, cioè eq lineari) conducono a stime che nuovamente hanno distribuzione normale. Quindi i nostri parametri sono distribuiti normalmente, e grazie a questa ipotesi possiamo definire degli intervalli (in funzione del scart quad med) centrati sul valore stimato ai quali compete un certo livello di probabilità. Stiamo considerando delle distribuzioni normali ad una sola dimensione, la cui caratteristica è avere intervallo centrato al valore medio di ampiezza pari a 6 volte lo scarto quad medio dove in questo intervallo compete più del 97% di probabilità, se non fosse normale sarebbe l’89 % per il teorema di chebicev (ci importa relativamente). L’ipotesi di normalità ci fa guadagnare un 10%. Noi facciamo così, per questo intervallo centrato sul valore stimato reale, se all’interno di questo intervallo cade un solo valore intero molto probabilmente tale valore intero è

Page 32: GEOMATICA Ultima Epoca

quello effettivo della N. (mostra una tabella esempio) (In questo esempio le N sono state stimate prima approssimativamente determinando approssimativamente la distanza R-S mediante l’OP, perché quando vado a linearizzare lo faccio anche rispetto alle N, quindi il valore piccolo di N sulle tabelle è relativo alla correzione del valore approssimati.) All’interno di questo problema notiamo che stiamo utilizzando un satellite di riferimento per fare le nostre DD, tale S è quello migliore (per tutti i soliti motivi già visti, un po’ più alto sull’orizzonte). Altro aspetto che notiamo che il S 23 compare 2 volte e vuol dire che tale S è stato interessato da un CS che non sono riuscito a correggere. Notiamo inoltre che questi valori N sono vicini a dei numeri interi, questo può essere più o meno vero bisogna vedere che quantità si intende con vicino, e questo dipende da quelli che sono valori degli scarti quadratici medi. Seguendo questo criterio possiamo ottenere delle soluzioni di tipo di verso. Abbiamo 3 casi. Il primo è quello che ci piace di più e riguarda il fatto, che nell’intervallo cade un solo valore intero e lo prendo come stima intera della nostra N. Il secondo riguarda il fatto che all’interno dell’intervallo non cade nessun valore intero, cioè il mio valore reale di stima è così discosto da qualsiasi valore intero che all’interno del suo intervallo non c’è nessun valore intero. Il terzo caso è quello dove all’interno dell’intervallo compaiano più valori interi. In queste 2 ultime situazioni non siamo in grado di scegliere, e allora si utilizza un metodo iterativo, cioè si rifà tutto il calcolo utilizzando le N stimate intere (del 1 caso) come valori noti. Così facendo, vincoliamo ulteriormente la soluzione del sistema, e le N che cadevano nel 2 e 3 caso adesso avranno di valori sempre reali ma diversi e può essere che adesso cadano nel primo caso. Questo approccio viene condotto fino a quando le iterazioni conducono a nuove ambiguità iniziali che ricadono nel primo caso,e se ad un certo punto questo non avviene più, non siamo più in grado di aggiornare le nostre N e non abbiamo più motivo di proseguire. Alla fine avremo la maggior parte delle N che cade nel primo caso e una piccola parte che ricade negli altri 2. Abbiamo 2 casi molto comuni. Possiamo avere una situazione in cui ci fermiamo, non riusciamo ottenere valori interi per le N, perché all’interno delle nostre osservazioni abbiamo poca informazione per determinare quel parametro, questo può succedere quando ho osservato il S per così poche epoche che in realtà all’interno delle osservazione esso è presente ma l’informazione comunque poca, o nel caso di osservazioni particolarmente rumorose. Si sottolinea il fatto che questo caso viene risolto più facilmente se utilizziamo tutta la matrice di covarianza(con criteri di fissaggio delle ambiguità più complessi) invece di utilizzare solo lo sqm. Possiamo avere una caso più doloroso dove riesco a stimare il parametro con una buona precisione (in cui lo scarto è piccolo, e quindi anche l’intervallo), però è stato stimato non intero. Significa che all’interno di quel parametro sono fluiti degli altri effetti (tipicamente di rifrazione atmosferica), e questo è un caso tipico dell’esempio dei 2 R a forte differenza di quota (monte bianco courmayer) tale effetto si riperquote sulle coordinate principalmente sulla quota. Dopo aver applicato questo criterio iterativo, vado a definire il complesso delle ambiguità intere e quelle non intere (nel nostro esempio è solo una) ottengo la soluzione finale, intesa come soluzione di tipo geometrico (la soluzione geometrica che ottengo all’ultima iterazione utile, e quella finale a cui mi affido) . ( mostra dei grafici 21 ) L’entità degli scarti residui delle eq alle DD alla fine del trattamento è di svariati mm fino a1 cm mezzo, e tali scarti sono dovuti agli effetti non modellabili e agli errori di misura. Andiando a vedere l’andamento degli scarti riusciamo a riconoscere gli effetti dovuti al multipath (le oscillazioni) Facciamo un ultima osservazione a proposito del SR a cui vado a riferire i risultati, abbiamo detto che se facciamo l’ipotesi di basi corte, mi vanno bene i dati broadcast e cio che mi interessa conoscere è il SR in cui ho nata la posizione del PI, poiche sarà lo stesso dove riferirò la posizione del punto da stimare. Questo funziona bene quando utilizzo il WGS84 ITRF ETRF RDN ETRF2000 (epoca 2008.0) , poichè utilizzando EB questi SR sono sostanzialmente indistinguibili. Possiamo avere un grave errore (che oggi si incontra un po’ meno rispetto al passato) se andiamo a utilizzare come coordinate del PI una posizione nel SR nazionale vecchio (tipo Roma 40 o ed1950) e utilizzare tale posizione come partenza per il calcolo della base. La differenza di coordinate relative nel medesimo punto in Roma 40 e in WGS84 ammonta all’incirca a 100 m, utilizzando questo sistema si distrugge la stima della base e si fa un grave danno, non bisogna farlo mai.

Page 33: GEOMATICA Ultima Epoca

Livello di precisione delle determinazione della base dal punto di vista pratico ( discorsi un po’ confusi) Prima di tutto bisogna capire che il tutto dipende dalla lunghezza della base (se base lunga devo avere modelli più raffinati), tutto dipende dalla durata del mio rilevamento (se più lungo limito l’effetto del multipath ed è più facile determinare la soluzione delle N) da quanto tempo io contemporaneamente osservo i miei S, quindi devo essere ben sincronizzato altrimenti butto via gran parte del mio lavoro. Indicativamente con 5 S in vista i rilevamenti variano da pochi minuti a poche decine di minti in relazione della lunghezza delle base, in genere ho sempre più di 5 S in vista, ma solo se la visibilità del cielo è completa. Per basi corte 10 minuti vanno bene e abbiamo esaurito il livello di precisione ottenibile che è in genere è di livello del cm (con ricevitori economici che utilizzano le portanti L1). Con R geodetici (che osservano anche su L2), miglioro la precisione perché miglioro di molto la possibilità di avere ambiguità iniziali intere vincolando maggiormente il problema. Se utilizzo questi R per pratiche ingegneristiche (e non geodetiche) a parità di strumento con tecniche di misura più raffinate posso avere precisioni molto migliori, ma è raro in genere il target di precisione che ci interessa è al livello del cm. (riassume per vedere se c’ha spiegato tutto)

Reti di basi GPSPer rete si intende una struttura di basi che mi permette di determinare la posizione di più punti, non contemporaneamente, facendo un passaggio ulteriore nell’elaborazione dei dati. Ho più posizioni inc e mi rendo conto che almeno un estremo della base deve essere noto, e devo decidere un punto dal quale parto e per adesso supponiamo che quel punto sia uno solo. Suppongo da questo punto di aggiungere la base 1, poi posso aggiunger la base 2 che parte dal punto stimato e non noto (oppure dal punto noto dipende non ho capito) dalla base 1 e così via. Questa struttura di basi ci riporta la posizione dei punti che ci interessano. Per determinare ad esempio 4 punti ci basterebbero 4 basi che si diramano dal punto noto, da un punto di vista geodetico non ci va bene il fatto che la precisione delle coordinate dei 4 punti è figlia solo di quanto sono stato bravo a determinare queste 4 basi. Non ci sarebbe il principio fondamentale che abbiamo visto in topografia e cioè che deve essere rispettato in tutti gli schemi di rilievo geodetico delle ridondanza dell’informazione. La ridondanza c’è solo alle DD, ma non nelle schema delle basi e quindi se abbiamo determinato male una delle basi non abbiamo il modo di verificarlo e dobbiamo accettare i risultati che otteniamo così come sono senza poter giudicarne l’affidabilità. Nella pratica non mi accontento mai di determinare un numero di basi pari al numero dei punti da determinare, e vado a costruire una rete di basi iperstatica cioè ridondante. Nell’esempio 4 basi e 4 punti ho 12 inc (3 per punto) e 12 eq (3 per base). Nell’esempio del pentagono con tutte le diagonali ho 15 inc e 30 eq. Abbiamo un problema legato al modo con cui vado a costruire le nostre basi ( figura), all’interno di un triangolo di basi , abbiamo una struttura ridondante o meno in dipendenza al modo con cui le basi sono state costruite e (stimate). Perché se suppongo che le 3 basi sono state costruite andando ad utilizzare le informazioni acquisiste da un ricevitore e quelle acquisite da altre 2 che hanno funzionato contemporaneamente a quello,in questo caso le 3 basi non sono indipendenti, perché per stimare 2 basi differenti utilizzo le stesse informazioni relative allo stesso punto e non aggiungo informazione. Posso benissimo scrivere queste basi, ma esse non costituiscono un aggiunta nell’informazione. Le basi indipendenti sono solo 2 e per scegliere quella che è indipendente esistono vari criteri, in genere si scelgono quelle più corte (che in genre sono le più precise).

31) Le reti GPS nella pratica attuale non si fanno quasi più, ma il prof ce le spiega lo stesso perché in certi casi e indispensabile farle. Torniamo a al caso precedente (riassume): sappiamo determinare bene la differenza di posizioni, cioè basi e quindi dobbiamo fissare un punto indietro, avrò bisogno di n-1 punti da cui posso costruire n-1 basi. Questa struttura che stiamo considerando è una struttura

Page 34: GEOMATICA Ultima Epoca

minima dal punto di vista geometrico, ho n-1 punti che si portano 3(n-1) inc, e n-1 basi che si portano 3(n-1) eq, cosa che in qualsisi tipo di informazione non va bene. Si riscoeda che se supponiamo che i R funzionino contemporaneamente riuscirò a costruire delle basi che non sono tutte linearmente indipendenti, e quindi anche nella fortunata ipotesi di avere molti R che funzionano contemporaneamente posso si definire tutte le basi ma quelle indipendenti saranno proprio n-1. Come facciamo a costrurire una struttura ridondante costituita da basi indipendenti? Utilizziamo un criterio che va ad aggiungere informazione. Consideriamo lo schema a pentagno (10 basi, 5 punti + 1PI, 5 R che funzionano contemporaneamente quindi n=5 (figura). Andiamo a far funzionare i miei R per più tempo, cioè supponiamo di far funzionare dei ricevitori contemporaneamente per un quarto d’ora in modo tale da poter costruire n-1 basi indipendenti (in questo caso 4), poi me ne servono altre. Successivamente vado a fare altre misure di un altro quarto d’ora e con questi dati (del 2 quarto d’ora) posso andare a formare altre n-1 basi (in questo caso 4), queste basi sono indipendenti dalle basi costruite il quarto d’ora precedente perchè non sono state acquisite contemporaneamente. In pratica noi aggiungiamo delle informazioni (che per noi sono osservazioni) tante quante sono necessarie per costruire tutte le basi indipendenti di cui abbiamo bisogno, alla fine del 2 quarto d’ora ho messo via informazione per costruire 4 basi nel 1 primo quarto + 4 basi nel 2 quarto, mi servono altre 2 basi, quindi ci sara un 3 quarto d’ora nel quale se faccio funzionare tutti i R rileverò 4 basi indipendenti dal 1 e 2 quarto d’ora . In tutto ho 12 basi indipendenti. Nel terzo quarto d’ora avrei avuto bisogno di mettere via solo 2 basi, che per essere rilevate era necessario far funzionare contemporaneamente almeno 3R. Per costruire le basi mancanti sceglierò 3 R funzionali. Con questa idea semplice si costruiscono nella pratica reti di basi GPS tutte indipèendendento tra loro. Tutto quello che abbiamo misurato come 1 2 3 quarto d’ora, viene chiamto come sessione di misura GPS . Quindi con un linguaggio rigoroso, per gcreare basi indipendenti nel numero da me voluto devo andare a realizzare più sessioni di misura GPS in modo tale che, in funzione di R, io ho possa generare tutte le basi che io voglio.In realta il procedimento è complesso in quanyo se ho reti grandi ad esempio 100 punti difficilmente avrò a disposizioen 100 R, e quindi i R devono essere spostati tra i vari punti e può essere complesso, visto che una base può esere lunga decine di km. (racconta dell’infittimento dell’IGM 95 nel lazio circa 1300 non che è stata fatta con 1300 R, erano un certo numero che pian piano sono stati spostati sulla regione). In mancanza di altre esigenze cerchiamo sempre di privilegiare schemi che cercano di tenere la lungheza delle basi la più piccola possibile per mettermi più possibile su l’ipotesi di base corta in cui il nostro modello funziona meglio soprattutto dal punto di vista dell’abbattimentoo degli errori (tra i quali la rifrazione atmosferica),ma non sempre questo si può fare. Cosa me ne faccio di tutte queste basi? Le metto insieme e imposto un modello calcolo analogo al problema di topografia. Andiamo a rivedre rapidamente un esempio di modello di calcolo, supponiamo di avere al rete a triangolo (2 punti+1 noto, 3 basi). Le quantità note sono il PI,mentre le inc sono i 2 punti restanti e suppongo si avere messo via 3 basi indipendenti. Si capisce che non posso aver fatto un'unica sessione di misura(in base a quello che ho detto poco fa), ma ce ne sarà stat sicuramente un seconda. I 2 punti inc mi porteranno dietro 6 inc (le coordinate), mentre le grandezze note in termini di base sono 9 (3 per base). Ho un problema a 9 eq e 6 inc, come faccio a risolvere questo problema? Andiamo a fare quello che si chiama compensazione di una rete di basi. In generale questo è un problema che si risolve sempre mediante al stima ai minimi quadrati (formule), il mio obiettivo è di trovare la posizione dei punti incogniti e la loro precisione (matrice di convarianza), cioè trovare il vettore x il vettore x stimato e la matrice Cxx. Ricordiamo che le cordinate dei punti inc (componenti cartesiane) sono riferrite al SR al quale io sono andato a fissare per ciascuna base la posizione del PI (può esser il WGS84 l’ETRF2000 ecc..). Per ciascuna base l’elaborazione delle misure alle DD avrà generato le proprie matrici di covarianza che dobbiamo mettere insiseme. (formule e matrici) Il vettore delle osservazionei contiene le componenti cartesiane delle mie basi (9 elementi), il vettore delle inc. contiene le coordinate dei miei punti inc (6 elementi). Nell’ambito del solito modello lineare, nel termine noto compaiono le coordinate del PI, per la matrice disegno dobbiamo capire come strutturata la

Page 35: GEOMATICA Ultima Epoca

generica eq alla base gps, l’edo (esempio base ab) deve esprimere ciascuna componente cartesiana (le mie osservazioni) rispetto alle incognite coinvolte (la componente delta x delle base ab è xb-xa analogamente per y e z yb-ya, zb-za). Le prime 3 righe della matrice disegno contengono le differrenze tra le coordinate xyz del punto b e le corrispondenti coordinate del punto a. Se moltiplico matricialmente tale riga della la matrice disegno per il vettore delle incognite ottengo semplicenmmnete xb vettore – xa vettore (cioè xyz del punto b – xyz del punto a, sono vettori), la seconda riga della matrice disegno sarà quella relativa alla seconda base (xyz c- xyz b) analogamente per la terza terna di righe successiva (si intende la terza riga della matrice disegno per il vettore delle incognite)..Per quanto riguarda il modello stocastico la matrice di covarianza del vettore delle osservazioni è riempito tenendo presente che ogni base è stata calcolata indipendentemente dalla altre e quindi sono tra lo incorrelate. La matrice di covarianza sarà dell’ordine pari alla dimensione del vettore delle osservazioni (quindi 9x9), nella quale sono presente solo blocchettini diagonali 3x3, si applica ai minimi quadrati e si risolve tutto. Analizziamo ora un altro problema tramite un esempio. Nella pratica attuale serve fare un lavoro di questo genere quando devo materializzare localmente un SR a cui ancorarmi, ad esempio quando stiamo realizzando una grande infrastruttura (tronco stradale, discarica). Per fare questa operazione non è mai buona norma mantenere un solo punto noto, questo perché questo punto noto nelle sua determinazione sarà noto con un certo grado di errore e quindi se utilizzo solo quello, anche supponendo di avere basi perfette, le mie basi soffriranno dell’effeto di tale errore (più dell’incertezza dovuta alla determinazione delle basi). Quello che si fa sempre è utilizzare più di un punto noto in maniera che globalmente la posizione dei punti che vado a determinare non sia determinta in maniera esclusiva della precisione con cui è determinato con un punto solo. Se ho più punti noti, gli effetti derivanti dalla precisione con cui sono noti, vengono mediamente compensati e confinati, e globalmente miglioro la precisione con cui stimo gli altri punti. Quest’idea che si applica da sempre si concretizza in un concetto detto inquadramento delle rete GPS (figura) che consiste nell’attaccarsi a diversi punti noti. Questo tende migliorare globalmente la precisione delle mie posizioni dei punti delle rete. Quindi non devo mai considerare un punto solo come punto noto. (esempio della regione lazio, si infittiva per dare la possibilità di ancorarsi a più punti noti per poter costruire un eventulae rete).

Determinazione dell’enttà globale dell’errore

32) Abbiamo uno schema che schematrizza una DS, supponiamo di considerare un generico S e un punto A dove ho piazzato una SP (come uno di quelli che appartene alla rete IGS, alla rete europea o alla RDN), dopo un certo tempo (anche abbastanza breve) le coordinate di A sono note in un qualche SR (supponiamo che sia l’ETRF2000, comunque vale per tut gli altri) con un otma precisione a livello di qualche mm. Se io conosco dove è messo A e se so la posizione del S tramite le efemeridi precise, considerando gli errori che so essere in gioco, cioè la posizione del S è mediamente nota con 5 cm d’errore, mentre la posizione di A è mediamente noto con 1 cm di errore. La distanza tra S e A sarà nota tramite la legge delle propagazione della varianza (radice quadra di 5^2+1^2) con poco più di 5 cm d’errore. Tuto ciò e semplicemente esito della conoscenza delle posizione di S e A. Da A osserviamo S, e l’osservazione sarà afeta da tut quegli errori che abbiamo visto (ionosfera, troposfera, multpath, errori di orologio di R che do per inc e di S che do per not), in teoria a meno dell’incertezza di poco più di 5 cm, la distanza che osserviamo dovrebbe essere la stessa che calcoliamo conoscendo la posizione di S e A. In realtà non c’è congruenza tra quello che osservo e quello che calcolo a causa degli errori che abbiamo appena elencato, questo però vuol dire che andando a vedere di quanto si discosta la distanza osservata da quella calcolata (a meno dei 5 cm e + di incertezza) riusciamo a stabilire l’enttà dell’efeto degli errori di misura e di modello sulla nostra osservazione. Abbiamo trovato un modo non per calcorare il singolo errore ma per determinarne globalmente o meno del nostro S. Supponiamo ora di accendere il R situato in B che è il punto di cui vogliamo determinare la

Page 36: GEOMATICA Ultima Epoca

posizione e supponiamo che B sia sufcientemente vicino ad A (ipotesi di base corta). Allora possiamo dire che potendo determinare il modello d’errore che infuisce sull’osservazione di A, possiamo dire che tale modello d’errore (valido per A) valga anche per le osservazioni relatve a B, se B è abbastanza vicino ad A (lo possiamo supporre visto che la maggior parte degli errori è dovuto all’atmosfera). Quindi conoscendo l’errore su B quando andiamo a fare l’osservazione, possimao togliere dall’osservazione corrispondente l’errore, depurando l’osservazione dagli errori di modello e di misura (a parte quei solit 5 cm e più con cui è nota la distanza calcolata). Nella pratca l’idea fondamentale sulla quale si basa l’uso del GPS è che deve esistere un infrastrutura deta rete di stazioni permanent per i servizi di posizionamento che nello schema e il mestere svolto dal RA. In questa rete conosciamo bene le posizioni, mentre la rete funziona per ogni SP io vado a determinarmi l’errore per ugnuna di esse e poi dico, che posso applicare questo modello d’errore a punt che sono vicini a questa stazione. Il passaggio successivo è che di SP (come A) ne ho una certa rete, per la zona dove esiste questa rete posso supporre di essere capace di farmi questo modello di errore, e quindi vado regionalizzare la variabile che chiamo modello di errore (tramite tecniche geostatstche più o meno avanzate) su tuta la zona della rete, in modo tale che in ogni momento in cui sta funzionanedo la rete, localmente in ogni stazione avrò un modello di errore. Ogni modello sarà un po’ diverso rispeto a ogni stazione per via delle loro carateristche diverse (che può essere la quota, inclinazione ad generare multpath ecc…). Questo modello d’errore regionalizzato per essere implementato, viene fornito da una infrastrutra all’utente che si trova in B trasmete il modelleo d’errore, tramite un server internet a cui accedo con un telefonino. Al 90% oggi il GPS si usa così. Consideriamo ancora la regione Lazio (slide). Atualmente queste ret di SP per servizi di posizionamento si basano quasi esclusivamente sul GPS (si sta facendo qualcosa con il glonas). Queste sono infrastruture atve, in quanto materializzano un certo SR e nel momento in cui rendono disponibili il modello di errore consentono ad un utente di posizioanarsi in quel SR. Ci permete di georeferenziare cioè trovare la posizione nel proprio SR a qualsiasi utente dotato di R GPS che è in grado di dialogare in tempo reale con la nostra infrastrutura. Il R nel suo frmware fa tuto quello che già abbiamo visto, rendendo accessibile il GPS anche all’utenza non esperta. Ed è così che si fanno i sistemi informatvi (consulenza del comune dei tombini di Roma, circa 400.000 tombinatori roma) non si poteva determinare la posizione dei tombini con le basi GPS, non mi serviva certo la posizione del cm. Vediamo i difet dovut all’uso del GPS . Per fare una rete di questo genere bisogna avere a disposizioone i migliori R possibili e poi c’è bisogno di un centro di controllo dove per ogni singolo R prende il suo modello di errore, da sui si costruisce la variabile regionalizzata e rende disponibile questa grandezza su un sito internet. (nel Lazio questo è un PC). Il crespi e il suo team ha fornito dei servizi senza dichiararlo per via del fato che non il servizio

non era afdabilissimo (cioè 24 ore su 24). Lazio ecce ciance e compiaciment. Dal punto di vista delle precisione si può dire che la variabile generalizzata è buona ma non perfeta, in ambito nazionale c’è uan regola d’oro (derivante da considerazioni da anni di sperimentazioni) che dice che con questo tpo di ret possiamo dire che al massimo si raggiunge una precisione di un paio di cm di precisione orizzionatle e 4-5 cm in quota. Per alcune applicazioni non ha senso utlizzare queste ret, se possiamo avere precisioni più scarse utlizzo R più economici, se voglio precisioni migliori utlizzo altre tecniche. Le applicazioni di queste ret sono comunque tantssime, limitate solo dalla fantasia. Dal punto di vista di protezione civile: perimetrazioni d’urgenza localizzazione mezzi di soccorso, posizionamento cinematco di piataforme. Ingegneria civile, sopratuto in ambito catastale. Ingegneria ambientale ce ne sono altretante (fa l’esempio del modello digitale del fondale del tevere e la modalita dei trasporto solido e georeferenzizione delle barca, e il vedere l’efeto delle paratoia sulle onde di piena, determinazione degli zeri idrometrici)

Page 37: GEOMATICA Ultima Epoca

FOTOGRAMMETRIA (immagini satellitari ad alta risoluzione google heart)

33) La fotogrammetria è una tecnica (consolidata iniziata negli anni 20) che utilizza come strumento principale di rilievo delle immagini degli oggetti che si vogliono studiare. C’è distinzione tra fotografia e fotogramma (indipendente dal supporto analogico o digitale). I vantaggi sono: la libertà di studiare oggetti distanti senza doverli vedere di persona ma studiando l’immagine, ne consegue che tutta la cura con cui veniva effettuata l’operazione di rilievo con i sistemi di rilevazione convenzionale (gps stazione totale e altri) ora viene posta nella fase di acquisizione. Il rilievo è concettualmente continuo (a parte i pixel) non essendo discreta questo comporta che non c’è bisogno di individuare punti rappresentativi, e una particolare cura oltre che nell’acquisizione anche nell’elaborazione dell’immagine al fine di estrarre le informazioni. Svantaggio principale è il fatto che tale tecnica non è autosufficiente in quanto dovremo lo stesso a determinare (e quindi occupare) con le tecniche convenzionali pochi punti che consentiranno all’informazione contenuta nell’immagine di poter essere georeferenziata in un certo SR. L’applicazione principale è la produzione di carte topografiche (una volta) e cartografia numerica (oggi) finalizzati alla produzione dei modelli digitali del terreno DEM ( descrizione della morfologia del terreno che è discreta ma è riconducibile ad una descrizione continua in 3 dimensioni), l’ortofotocarta che è una immagine che viene opportunamente trasformata in maniera tale da conferirle un contenuto metrico (l’immagine di partenza non è a scala costante e quindi non ha contenuto metrico e quindi è necessario effettuare una certa operazione). Altri: tra cui la progettazione di design, la visione robotizzata alle simulazioni di volo.

Definizione del modello (più semplice) e 3 ipotesi Centro di proiezione O :supposto puntuale che dal punto di vista pratico viene supposto materializzato dall’obiettivo della camera di presa, cioè l’ipotesi classica dell’ottica geometrica per cui esiste un punto per il quale passano tutti i raggi ottici che attraversano l’obiettivo. Si suppone dal punto di vista geometrico che l’immagine sia schematizzabile come una proiezione centrale , tutti raggi ottici passano per il centro di proiezione. Altre ipotesi forti consistono nella forma del luogo dove realizziamo l’immagine che noi supponiamo piana (ipotesi al giorno d’oggi accettabile) , e che i raggi ottici si propaghino in linea retta (ipotesi non vera l’atmosfera crea diffrazione , inoltre c’è diffrazione anche all’interno della camera). Nel piano immagine identifichiamo un sistema di coordinate (sistema immagine nel senso 3d) ξ η ed un terzo asse z ortogonale al piano immagine e diretto da piano immagine verso il centro di proiezione. Distanza focale c dal centro di proiezione al piano immagine (distanza a cui dobbiamo mettere a fuoco il nostro obiettivo). L’immagine viene schematizzata con una prospettiva centrale nel senso

Page 38: GEOMATICA Ultima Epoca

che è una proiezione secondo rette tutte appartenenti al fascio proprio di rette cha ha il centro nel centro di proiezione (in realtà non è proprio vero). Andiamo ad introdurre qualche complicazione, non è detto che il cdp abbia coordinate immagine ξ ed η nulle (non ci da troppo fastidio se conosciamo queste coordinate csi0 e η0 l’altra è c). Non sappiamo come è messo il SI (origine e assi) rispetto al SR sul quale vogliamo determinare i punti del nostro oggetto quest’ultimo chiamato sistema terreno o oggetto xyz che può essere arbitrario e spesso si tratta di un sistema cartesiano locale. (minuto 39 SR). Vogliamo passare dalla posizione del punto P sul piano immagine P’ alla posizione del punto P nel sistema xyz. Sappiamo che P (nel nostro modello) si trova sulla retta congiungente O P’ (e P appunto); dobbiamo sapere dov’era al ,momento dell’acquisizione il centro di presa e dobbiamo inoltre determinare la giacitura del piano immagine (sempre al momento dell’acquisizione). Ci servono le 3 coordinate del cdpresa e i 6 parametri di giacitura del piano immagine (traslazione e rotazione). Sappiamo che il nostro piano immagine deve essere a distanza c dal centro di presa , così facendo blocchiamo i 3 parametri di traslazione del piano e ci rimangono da valutare in tutto 6 parametri.

34) Il problema consiste nel capire se sia possibile, una vota nota la posizione e l’assetto del corpo rigido formato dal piano di proiezione e centro di proiezione (il che equivale a conoscere dove e come è situato nello spazio il sistema di coordinate ξ e η), determinare la reale posizione nello spazio del punto P conoscendo la sua proiezione sul piano immagine P’. partendo da queste considerazioni sappiamo la giacitura della semiretta che congiunge OP’ , inoltre anche P appartiene a questa semiretta (modello semplificato in realtà non è proprio così) però non sappiamo in che posizione della semiretta esso si trovi. Quindi non possiamo estendere la nostra conoscenza in ambito tridimensionale (ho 2 coordinate e ne vorrei 3 non è possibile) l’unica cosa che conosciamo è la giacitura della semiretta, e quindi non è sufficiente avere una sola immagine.

Avendo 2 immaginiDobbiamo introdurre delle ipotesi. la prima (non è strettamente necessaria però è quella su cui normalmente lavoreremo non è molto lontana dalla realtà ed è molto frequente) si suppone che le 2 immagini abbiano caratteristiche identiche (non vuol dire che le immagini sono uguali) cioè si suppone che il sistema immagine (gli assi e la posizione del centro di proiezione rispetto al piano immagine cioè la distanza focale) sia uguale per entrambe le immagini 1 e 2. La geometria così realizzata risolve il problema in quanto introduce un ulteriore vincolo, infatti introducendo un'altra immagine che “guarda“ P introduciamo un'altra semiretta . Il punto P sarà quindi il punto di intersezione delle 2 semirette. Quindi più in generale il metodo fotogrammetrico può funzionare solo se siamo in grado di acquisire immagini di tutti i punti del medesimo oggetto (di cui vogliamo determinare la posizione in un SR) da almeno 2 immagini (punti di vista differenti) Se ho più di 2 immagini iniziamo ad introdurre ridondanza, anche se 2 immagini non bastano ad acquisire completamente l’oggetto che ci interessa (soprattutto per l’aereo) più mi alzo più grande sarà la zona che vedo però perderò di dettaglio, dobbiamo trovare un compromesso che dipende da quale aspetto dell’acquisizione ci interessa.Se aumento la distanza reciproca tra i 2 centri proiezione delle 2 immagini la precisione con cui ricostruiamo la posizione del punto aumenta, conoscendo questa caratteristica riusciamo a capire se una acquisizione è buona o meno.

3 step del procedimento fotogrammetricoL’acquisizione dell’immagine si chiama presa. Mentre per orientamento si intende la ricollocazione delle immagini in identica posizione e assetto rispetto all’atto della presa, cioè determinare la posizione del centro di presa e l‘assetto del mio corpo rigido (6 parametri di posizione è assetto). Il terzo passo è la ricostruzione della posizione del punto P e si chiama restituzione.

Page 39: GEOMATICA Ultima Epoca

Parametri I parametri di orientamento interno: sono quei parametri mediante i quali abbiamo identificato la posizione del centro di presa rispetto al piano immagine (cioè le sue 3 coordinate rispetto al piano immagine che sonoξ0η0 e c) e servono a ricostruire la proiezione centrale. La nostra immagine contiene la posizione dei punti sul piano immagine ma se non conosciamo il punto rispetto da cui fare la proiezione non riusciamo ad identificare questi punti nello spazio. Cioè determinare la posizione di O rispetto al piano immagine se si sposta ,la nostra semiretta cambia giacitura e lo stesso punto sull’immagine verrà identificato in una zona differente dello spazio. Questi parametri in genere sono forniti direttamente dalla casa costruttrice della camera, e differenziano la camera fotogrammetrica (a parte la distanza focale non sappiamo i parametri di orientamento interno perché non ci servono) da una camera fotografica. Mentre per un uso metrico delle immagini tali parametri sono indispensabili,nel certificato di taratura la c la η 0 e la ξ 0 vengono fornite con una precisione dell’ordine del centesimo del mm o spesso a qualche mm.35)Parametri di orientamento esterno: che definiscono rispetto allo spazio (piano immagine cdp) la posizione (3) e l’assetto (3) del corpo rigido costituto dal cdp e dal PI ……..INDAGA……Come determino questi parametri? L’orientamento esterno può essere determinato solo se sono determinati alcuni punti (detti punti di appoggio) sull’oggetto (terreno) oltre che sull’immagine

Equazioni di collinearità (formule)Per collinearità si intende la condizione geometrica che il punto O cdp , P’ e P giacciono tutti sulla stessa retta, questa condizione viene utilizzata per esprimere analiticamente il nostro modello. Si introducono quindi le equazioni di collinearità. Andiamo a considerare il versore Ei che identifica la retta dal punto di vista immagine. Considerando i punti O e P’, Ei è il vettore che li congiunge diviso la distanza (di) che li separa, analogo ragionamento per quanto riguarda il versore relativo al sistema oggetto Eo prendendo i punti O e P e considerando la distanza (do). Poi dobbiamo dire che i 2 versori sono identici tenendo conto del fatto che i 2 versori sono espressi secondo coordinate differenti relative a SR che hanno gli assi non allineati tra loro e quindi il legame tra questi 2 versori nel momento in cui per ognuno di essi esprimo le componenti relativamente al s cartesiano relativo sarà espresso tramite la matrice di rotazione. Consideriamo le coordinate del centro di proiezione O secondo il SI (ξ0η0 e c) e secondo il SO (x0y0z0), e le coordinate di P’ che sono ξ η e O nel SI e le coordinate di P xyz nel sistema oggetto (identificazione delle posizione dei 3 punti in gioco). Formule….. Ei è il versore nel sistema immagine, Eo è il versore nel sistema oggetto. I 2 versori per la condizione di collinearità devono essere lo stesso versore. La matrice di rotazione R esprime la rotazione da SI e SO (Rtrasposta se da SO a SI dipende dalla convenzione, R è matrice ortogonale quindi l’inversa è uguale alla trasposta). La collinearità viene introdotta ponendo uguale direzione espressa dai 2 versori, vogliamo esprimere tale condizione in forma scalare. Il rapporto tra di e do e una sorta di fattore di scala tra Ei e Eo che dipende dalla direzione. Delle 3 equazioni che risultano solo 2 sono tra indipendenti , la terza è individuata dal fatto che i moduli dei versori devono essere entrambi unitari (posso utilizzare una come un‘altra arbitrariamente,ma noi consideriamo quelle che sono più utilizzate). In genere si prendono le prime 2 eq. e le si dividono per la terza. Dobbiamo esplicitare R per ottenere le due eq. espresse in forma scalare (matrice quadrata 3x3) di questi 9 (combinazione di funzioni trigonometriche) termini quelli indipendenti saranno solo 3 (rotazioni nello spazio, 3 angoli). A questo punto si esplicitano i primi membri di queste 2 eq . in maniera tale che questi contengano solo le coordinate immagine, ottenendo la forma che normalmente viene utilizzata in fotogrammetria. Otteniamo un sistema di eq. contenenti tutti i parametri precedentemente illustrati ,vediamo ben esplicitati i 3 parametri di orientamento interno, mentre dei 6 parametri di orientamento esterno solo 3 sono bene esplicitati x0 z0 z 0 , mentre gli altri 3 sono occulti e sono gli angoli da cui dipendono i 9 elementi della matrice. Gli angoli sono ω (rot intorno a x),φ ( rotazione intorno a y), k ( rotazione intorno a z). complessivamente all’interno delle eq. di collinearità sono contenuti i 9 parametri che globalmente governano l’orientamento sia est che int, i 3 parametri xyz che determinano la posizione del punto nel SO, e i 2 parametri che

Page 40: GEOMATICA Ultima Epoca

governano la posizione nel SI ξ ed η. Vediamo che se noi conosciamo la posizione del cdp x0y0z0 e se io conosco l’assetto (9 termini),e conosco la posizione del punto P oggetto xyz conosco tutto quello che è contenuto nei 2 rapporti; conoscendo i 2 rapporti e come è fatta la camera di presa , ricostruiamo la posizione sul piano immagine del nostro punto . Questo significa esprimere analiticamente quello che avviene durante la presa. Facendo il ragionamento inverso, partendo dalle coordinate immagine e conoscendo come è fatta la camera di presa e supposto la conoscenza dell’orientamento esterno, notiamo che stavolta le incognite sono 3 (coordinate del punto oggetto nel So) e abbiamo solo 2 eq. Quindi il problema così come è posto non è determinabile in quanto abbiamo un gdl che non viene bloccato. Se io conoscessi almeno una coordinata di P nel SO , potrei determinare le altre 2 ? la risposta è si. Possiamo dire che esiste una qualche funzione che lega insieme le 3 coordinate oggetto (noi adesso non sappiamo cos’è espressa in maniera implicita). Questo è il ragionamento su cui si basa la produzione di ortofotocarte. Questa informazione aggiuntiva consiste in un DEM , infatti il DEM dal punto di vista analitico è una funzione che esprime il legame tra le 3 coordinate oggetto ,( nello specifico permette di dedurre la quota ortometrica, conoscendola possiamo trovarci la z tramite sistemi di trasformazioni di coordinate ( vedi topografia ). Quindi l’utilizzo del DEM è come se utilizzassi un eq in più che quindi rende il problema determinabile.

36)Problema dell’orientamento dell’immagine o georeferenziazione in un sistema locale Prima si era supposto noto l’orientamento. Nella realtà nel momento dell’acquisizione non abbiamo la possibilità di determinare l’orientamento esterno . Dobbiamo utilizzare le eq. di collinearità per determinare questi parametri. Dobbiamo determinare i 6 parametri, sapendo per ogni punto che andiamo a visualizzare su un immagine possiamo scrivere 2 eq. , i punti da osservare quindi devono essere almeno 3. Di questi 3 punti possiamo andare a misurare le coordinate I sul piano immagine. Quindi conosciamo solo i pdoi e le CI. Per collocare nello spazio il PI dobbiamo utilizzare le eq di coll , ma è necessario conoscere le CO di questi punti e quindi sapere la posizione dello spazio dei punti o meglio i punti devono essere noti in entrambi i Si e So. Questi punti possono essere determinati con le tecniche tradizionali. Per fare questo costruisco un Sistema di 6 eq di collinearità e a questo punto possiamo determinare il problema. Risulta evidente che il metodo fotogrammetrico non è autosufficiente. Questi 3 punti noti non possono essere tra loro allineati (neanche approssimativamente, altrimenti l’informazione è scadente) in quanto non risolvono la rotazione intorno alla retta lungo la quale sono allineati (c’è indeterminazione sull’assetto). Nella realtà i punti sono molti di più di 3 in quanto lavoriamo in un ottica di ridondanza. Considerando il fatto che per determinare la posizione di un punto servono almeno 2 immagini in cui per ognuna di questa bisogna fare un operazione ed in queste immagini le Co saranno differenti ( le misuriamo), ma cmq algebricamente mi bastano sempre 3 punti noti.E se inoltre non conoscessi pdoi? Considerando che questi sono uguali per ogni immagine (in quanto la macchina con cui rilevo è sempre la stessa) avremo 3 incognite in più indipendentemente dalle immagini considerate mentre i 6 pdoe variano da immagine a immagine . Abbiamo in totale per una singola immagine 9 parametri di orientamento incogniti, risulta che mi servono almeno 5 punti noti ( in verità è così che la casa costruttrice determina i pdoi).

orientamento relativo Abbiamo adesso 2 immagini che guardano lo stesso punto, per ogni punto sul terreno possiamo scrivere 4 eq di coll (2 per immagine). Per determinare la posizione del singolo punto ho quindi 4 eq. e 3 inc. Quindi ogni punto si porta dietro 3 inc. ma ci permette di scrivere 4 eq , quindi una in più delle inc. per ogni puntoAdesso se e consideriamo nel bilancio delle inc. i pdoe abbiamo altre 12 inc. (6 per immagine, e indipendenti dal numero di punti), quindi per determinare il problema avremo bisogno di rilevare almeno un totale di 12 punti (dove la ridondanza =1 per ogni punto ci permette di individuare allaφne i 12 pdoe). In totale avremo un sistema di 48 eq. in 48 inc. , questo sistema è risolvibile

Page 41: GEOMATICA Ultima Epoca

soltanto se decidiamo di attribuire ai punti a terra una posizione indeterminata, infatti nella risoluzione del sistema risolviamo solo la condizione di intersezione delle rette di collinearità corrispondenti ai 12 punti che abbiamo messo in gioco (condizione di orientamento relativo). Questa condizione significa che le 2 proiezioni centrali relative delle 2 immagini sono tra loro orientate com’erano orientate al momento della presa , il complesso delle semirette unito ai piani che adesso vanno a costituire un corpo rigido (grazie proprio all’orientamento relativo) ha un orientazione nello spazio indeterminata (non c’è alcun SR). La collocazione del corpo rigido può essere determinata solo se attribuiamo delle coordinate note ai punti a terra.

Trasformazione omografica (formule)Supponiamo ora che il nostro oggetto (tutti punti nel SO) abbiamo coordinata Z=0 nel SO (tutti i punti giacciono nel piano xy). Le eq. di coll. possiamo esplicitarle rispetto a xy ( giriamo le eq. di collinearità), possiamo andare a dividere entrambi i termini per c3, otteniamo le eq di coll in una nuova forma. I parametri dai quali dipendono le 2 eq adesso sono 8 questa particolare condizione di collinearità si chiama trasformazione omografica (è la proiezione centrale di punti su un piano con giacitura qualunque su un altro piano anch’esso con giacitura qualunque, nel nostro caso sono piano immagine e piano xy del SO).

37) Piani immagine e oggetto tra loro // immagini normali (formule) Poniamo l’ulteriore condizione che i piani immagine e oggetto siano tra loro paralleli (asse z ortogonale a entrambi i piani), ciò comporta che i 2 angoli ω eφ sono nulli, mentre k è non nullo. La matrice di rotazione si riduce ad una matrice di rotazione piana intorno all’asse z . zo è coordinata del cdp nel SO (cioè è anche la distanza tra il cdp e il piano dove è contenuto l’oggetto), il rapporto Z0/c è un fattore di scala (che è uniforme). Otteniamo un trasformazione che è una rotazione piana alla quale viene applicata un fattore di scala a cui successivamente viene applicata una traslazione (rototraslazione piana con variazione di scala) i parametri che governano la trasformazione sono 6 (le traslazioni x0 y0 che determinano la posizione del cdp , le traslazioni sul piano dell’immagine ξ0 η0 cioè i pdoi., k , e il fattore di scala). Questa condizione può essere accettabile per le immagini acquisite da aereo, ma è in genere non vera ma ci si può avvicinare o ricondurre. Nella pratica può realizzare questa condizione facendo volare un aereo sempre alla stessa quota con camera fotogrammetrica in direzione nadirale, il livello di approssimazione con cui si può effettuare questa condizione e dell’ordine di qualche grado, incertezza abbastanza piccola per utilizzare il modello di errore associato a questo schema geometrico, il quale è un ottima approssimazione di quello che utilizziamo in pratica. Utilizzando questo modello ci consente di capire come organizzare le operazioni di ripresa aerea per ottenere dei prodotti idonei a ricostruire il nostro oggetto con una certa precisione. C’è un altro motivo altrettanto importante che vedremo allaφne*.Consideriamo un sistema di coordinate oggetto (comodo, definito unicamente relativamente alla posizione e alla giacitura delle immagini) in cui mettiamo l’origine in uno dei 2 cdp, asse z ortogonale al piano dove giacciono entrambe le immagini, l’asse delle x passa per il secondo cdp. Questo comporta tutta una serie di semplificazione nei pdoe nei pdoi e conseguentemente nelle eq. di collinearità. Le coordinate dei 2 cdp saranno 000 e b00 (con b che chiameremo base di presa), i parametri di rotazione sono posti tutti = 0 ( le matrici sono nulle). Le eq di collinearità assumeranno un'altra forma, e notiamo che nelle 2 eq. che forniscono la coordinata y del punto che stiamo ricostruendo emerge che η1=η2 (la parallasse trasversale è nulla η1-eta2=0). Considerando le 2 eq. che descrivono x (esplicitate in x) riusciamo a determinare z e per sostituzione x e y. Andiamo ad introdurre la parallasse longitudinale che è la differenza tra ξ1 e ξ 2. * Nel momento in cui noi abbiamo constatato che la parallasse trasversale è nulla ci si chiede se una volta noto il P’1 della prima immagine sia possibile trovare in maniera intelligente grazie alla particolare geometria, la posizione del corrispondente P’2. Sappiamo che esso giace una retta e il problema di ricerca da 2d diventa 1d. Se consideriamo il fatto che la configurazione normale è una condizione che non si realizza se non per approssimazione, allora cercheremo la posizione del punto P’2 non su

Page 42: GEOMATICA Ultima Epoca

una retta ma su una porzione di piano che è comunque limitata (non considero tutto il piano) e questo è un ottimo vantaggio. E per questo che anche se non abbiamo immagini normali ce le andiamo a generare, perché appunto la ricerca dei punti è più semplice.

Modello di errore legge di propagazione della varianza applicata alle immagini normali (formule)Dobbiamo a capire quali sono le quantità osservate (affette da errore) che saranno le coordinate immagine espresse mediante la parallasse longitudinale e quali le quantità note (nelle quali si suppone non ci sia errore). Si suppone che tutte le quantità siano indipendenti tra loro. Introduciamo il rapporto di base r=B/Z (o rapporto tra base e altezza). Otteniamo delle espressioni che ora andremo ad analizzare (basta vedere le espressioni dell’errore si comportano al variare dei parametri).Cominciamo con lo sqmz (l’asse z nel caso normale è approssimativamente la quota) notiamo che a parità di sqm sulla parallasse longitudinale . discorso che si è perso al ventoD qui in poi si è messo a spiegare nel dettaglio cose che dovremmo già sepere e non chiederà spero. 38) analizzando l’espressione dello sqmz vediamo che aumentando il fattore di scala m=Z/c (o aumenta Z o c diminuisce) aumenta l’errore (infatti sono + in alto e vedo gli oggetti più piccoli ho minor definizione, analogamente all’errore di graficismo delle carte a scala grande). Se si diminuisce il rapporto di base (b diminuisce) ci riconduciamo al caso di immagini tra loro molto vicine e la vicinanza abbiamo già visto ci fa perdere informazione, nel senso che perdo la capacità di definire bene l’intersezione tra le 2 semirette. Sul satellite Z è un parametro che non siamo in grado di mutare così come c, mentre b lo possiamo far variare a piacimento. sull’aereo possiamo far variare tutto sia Z che b e c (montiamo sensori con diverse lunghezze focali). Consideriamo sqmx e sqmy vediamo che abbiamo la stessa dipendenza da r e m, ed un’altra dipendenza dovuta alla precisione delle coordinate ξ ed η ( che può essere considerata la stessa per entrambe le coordinate).

Condizione di complanarità macello formule figure Esistono 2 modi per orientare tra loro i 2 fotogrammi. IL primo consiste nell’orientarli separatamente l’uno dall’altro. Per ogni immagine mi servono 3 punti non allineati se sono noti i pdoi , altrimenti me ne servono 5, ma in generale ci troviamo sempre nel primo caso. L’altro metodo consiste nell’orientarli simultaneamente (vedi orientamento relativo),dopo averli orientati prima tra di loro facendo il sistema 48 eq. in 48 inc. Le eq. venivano fornite da 12 punti visibili su ogni fotogramma. Le incognite sono 12 pdoe (6 per immagine)e le altre 36 sono le coordinate incognite dei 12 punti. Così facendo si va a costituire un corpo rigido complessivo formato dalle 2 proiezioni centrali, il quale deve essere a sua volta orientato in un SR esterno. In entrambi i casi dobbiamo essere a conoscenza dei punti di appoggio nel SR esterno. Nel linguaggio fotogrammetrico le semirette vengono denominate come raggi omologhi. I raggi omologhi insieme alla base di presa sono rette che giacciono su un piano, possiamo dire che per un punto qualunque la posizione del raggio omologo giace su un piano che appartiene al fascio proprio di piani che a per sostegno la base di presa (tutti piani che passano per una certa retta). (altre definizione analoghe). Possimo inltre dire una ltra cosa° di u punto non ho la figura. Inoltre condizione necessaria e sufficiente affinchè tale punto venga generato (quale?) e che i 2 raggi omologhi siano complanari. Risulta quindi che la condizione di orientamento relativo tra 2 immagine coincide con la condizione di complanarità dei raggi omologhi. 39)Analizzando l’eq. di complanarità ci rendiamo conto che essa è omogenea rispetto alle componenti della base (cioè posso moltiplicare qualsiasi componente per un coefficiente e l’eq è comunque soddisfatta) questo vuol dire che tale condizione è invariante con la scala e che non implica l’aver definito le dimensione dell’oggetto. Notiamo anche che se andiamo ad imporre una traslazione arbitraria (faccio variare la posizione dell’origine del SR) tale traslazione non viene sentita dall’equazione (dove infatti compaiono la differenze di coordinate) quindi la condizione di complanarità è invariante anche alla traslazione. Inoltre la condizione di complanarità è invariante anche ad una rotazione rigida, perché l’oggetto rimane identico a se stesso anche se cambia di

Page 43: GEOMATICA Ultima Epoca

assetto. In sintesi, analiticamente possiamo dire che la condizione di complanarità è indipendente ai 7 parametri che descrivono una rototraslazione con variazione di scala. La condizione è invece dipendente dai restanti 5 parametri (orientamento reciproco tra 2 immagini descritta da 12 parametri – 7 = 5), quindi determinare tale condizione equivale a determinare 5 parametri. Ci si chiede una volta fissata nel SR arbitrario la posizione della immagine 1, come mai i gradi di libertà imposti dall’immagine 2 per verificare la condizione di complanarità siano 5 e non 6 come ci si aspetterebbe per orientare un corpo rigido. Perché non mi interessa collocare esattamente l’immagine 2 rispetto all’immagine 1 come si trovava all’atto della presa, ma mi basta che sia verificata la complanarità dei raggi omologhi, senza considerare la dimensione della base (non ci interessa una coordinata dell’immagine 1). Gli altri 7 parametri vengono determinati perché una volta realizzato l’orientamento relativo l’oggetto deve essere rototraslato nello spazio con variazione di scala (orientamento assoluto). Riepilogando con le equazioni di collinearità possiamo andare a scrivere le eq. di complanarità che dipendono solo da 5 parametri (quindi posso scrivere solo 5 eq. indipendenti), questi rappresentano la possibilità di costruire in un arbitrario SR la condizione di complanarità dei raggi omologhi , questa condizione corrisponde alla realizzazione del modello ottico, cioè la ricostruzione dei punti del nostro oggetto in una scala arbitraria in un ST arbitrario, Tale oggetto per essere collocato nel nostro SR esterno dobbiamo rototraslarlo con variazione di scala (7 parametri).

Più di 2 immagini, determinazione fotogrammetrica di punti isolati

Nel caso di aree grandi ho bisogno di molte più immagini, ne consegue che ho bisogno di molti più punti noti a terra. È stata sviluppata una tecnica che semplifica il problema denominata triangolazione aerea (o determinazione fotogrammetrica di punti isolati). Partendo dalle eq. di collinearità, considerando 2 immagini (si può estendere a + immagini), e supponendo di avere 3 punti noti a terra visibili da entrambe le immagini, avrò 12 eq. di col linearità (posso risolvere l’orientamento). Se supponiamo di avere un altro punto visibile da entrambe ma non noto, possiamo scrivere 4 equazioni di collinearità introducendo 3 incognite, complessivamente avrò 16 eq. e 15 inc. queste 15 incognite ci forniscono l’orientamento delle immagini e le coordinate del punto incognito nel SO. Se replichiamo questo procedimento possiamo generare le coordinate nel SO di altri n punti considerando che ogni punto mi fornirà n+1 eq. , è evidente il fatto che ci conviene osservare più punti possibili in quanto per ogni punto aumento di un grado di ridondanza rendendo più precisa la soluzione del problema di orientamento ed in più genero la posizione di tanti altri punti. L’insieme di più di 2 immagini si chiama blocco di immagini (prima si chiamava blocco di fotogrammi). L’osservazione di una moltitudine di punti produce diversi vantaggi, lega insieme diversi fotogrammi ed esercitano la condizione di complanarità (per ognuno di questi punti impongo che i raggi omologhi siano complanari). In sintesi osservando punti incogniti da 2 immagini scrivendo le condizione di collinearità queste vanno a imporre la condizione di complanarità relativamente a quei 2 raggi omologhi, che viene estesa a tutto il blocco di fotogrammi che vengono così legati tra loro e si comportano come un unico corpo rigido. Questo discorso è analogo a prima (vedi complanarità) soltanto che mi bastano 7 parametri per collocare tutto il blocco di immagini nel SR esterno e per fare ciò mi bastano osservare 3 punti. In pratica il grosso vantaggio è che se volevo orientare un immagine per volta per ogni immagine avrei la necessità di avere a terra 3n punti noti, se considero tutto il blocco ho la necessità di conoscere solo 3 punti. Questi punti vengono chiamati punti di legame.40)

Le immagini per essere utilizzate devono essere pretrattate

caratteristiche Tipologie di sensori di immagini e applicazioni

Page 44: GEOMATICA Ultima Epoca

La tecnica mette a disposizione un ampia varietà di sensori, in genere sono automatici (a parte qualche rara eccezione). L’unica costante è il fatto che i sensori sono sottoprodotti di tecnologie militari (grande spinta dovuta alla guerra fredda, dall’89 le innovazioni sono diminuite). Si dividono in sensori geostazionari che non ci interessano perché per leggi dellaφsica devono stare circa a 36000 km (troppo alto per acquisire immagini), sensori che più ci interessano sono sensori in orbite eliosincrone che hanno la caratteristica di consentire che ogni zona della superficie terrestre sia acquisita alla stessa ora ogni giorno, questi sensori ci consentono di acquisire immagini satellitari ad alta risoluzione. La fascia di altezza di queste orbite vanno da circa 450-850 km sulla superficie terrestre. Si progettano delle orbite che sono pressochè polari con un inclinazione prossima ai 90° (90° è un orbita molto instabile, impossibile sorvolare precisamente il nadir), il tempo che si impiega a percorrere l’orbita è di circa 100 minuti. Una caratteristica delle qualità del sensore è la risoluzione spaziale, cioè il contenuto di informazione che viene concentrato all’interno di un singolo pixel (ogni volta che vengono fatti sensori migliori, quelli prima vengono declassati e resi disponibili per l’utenza civile). I primi satelliti anni 70 (tipo lamsat) avevano risoluzione dell’ordine di alcune centinaia di metri. Nel 99 venne lanciato il primo satellite ad alta risoluzione (dell’ordine del metro) IKONOS (tante immagini su google heart) si è creato il contatto tra il telerivelamento (informazione tematica da immagini da satellite poco definite) e la fotogrammetria (informazione metrica dalle foto del terreno da aereo). Negli ultimi anni siamo arrivati anche con precisione di 41 cm con il satellite GEOEYE (questo vuol dire che militari probabilmente possono disporre di una precisione intorno ai 10 cm). Un’altra caratteristica importante è la risoluzione temporale (importante se devo avere immagini stereoscopiche), cioè ogni quanto io riesco a rivedere un punto sulla superficie terrestre, si distingue quella teorica (dovuta all’orbita) da quella reale (tiene conto del fatto che qualche volta il cielo è coperto da nubi). Per ovviare al problema della copertura nuvolosa, utilizziamo dei sensori radar (di alta risoluzione). I sensori ottici sono tutti USA a parte 1 che è israeliano, mentre quali radiometrici sono tedesco canadese e italiano. La risoluzione radiometrica rappresenta la quantità di toni di grigio o di colore che può essere utilizzata per andare a memorizzare l’informazione in ogni pixel. Le immagini standard hanno in genere 8 bit (256 combinazioni di colore o toni di grigio), ma comunque esistono anche sensori a 11 bit o superiori. Altro aspetto è la risoluzione spettrale, cioè il range dello spettro elettromagnetico che può essere investigata, tutti i sensori ottici indagano la zona del visibile e nell’IR vicino, mentre i sensori radar indagano nell’ambito delle microonde. Si fa una distinzione tra la struttura dello strumento in base all’origine dell’energia elettromagnetica che viene immagazzinata, cioè tra sensori attivi (i radar) dove si utilizza l’energia emessa dal sensore e poi riflessa e sensori passivi dove si utilizza la radiazione naturalmente presente (che sono praticamente tutti i sensori ottici). Cronologicamente i primi sensori erano quelli frame cameras che viaggiavano a 200 km di quota, sganciavano la pellicola con un paracadute. Poi sono stati utilizzati sensori elettromeccanici, che utilizzavano uno specchio per far variare la posizione dell’acquisizione di un singolo pixel.42)I sensori ccd sono attualmente i + utilizzati per l’acquisizione nell’ottico ad alta risoluzione. Essenzialmente è come se avessi un sensore costituito da una riga di pixel (non proprio così), questa riga viene trasportata dal satellite e quindi quello che viene acquisita è una striscia di terreno. La risoluzione ottica a terra dipende dalla grandezza del pixel e dal sistema ottico (combinazione tra distanza focale e altezza e 1m/100km).Bisogna considerare 2 aspetti mentre il satellite si sposta (di 7-8km al secondo) la terra sotto ruota e quindi avremmo una striscia su un corpo che si muove. Il sistema ottico può essere orientato secondo diverse giaciture oltre che in direzione nadirale, la quantità dell’orientamento definisce l’agilità del satellite. Adesso abbiamo satelliti con un alta agilità (rispetto al passato IKONOS mentre EROSA era già molto agile). In realtà da un punto di vista fotogrammetrico, quello che noi chiamiamo immagine si intende quello che è contenuto in una riga di pixel ed è quello che effettivamente viene acquisito. L’insieme di tante righe (decine di migliaia) che vengono assemblate (appositamente rialliniate perche la terra si muove) successivamente si chiama scena. Nel caso del satellite ogni riga ha un proprio cdp che occupava un certo punto al momento dell’acquisizione,mentre l’immagine aerea è costituita da un solo cdp. Se

Page 45: GEOMATICA Ultima Epoca

una scena satellitare è composta da n righe i pdoe non sono più 6, ma saranno 6n parametri che competeranno alla singola riga. I punti di appoggio quindi dovranno essere 3n, una quantità enorme e bisogna trovare una soluzione. Esistono varie configurazioni per con cui può essere costituita la riga di pixel: un singolo segmento, più segmenti affiancati, più segmenti giustapposti e sfalsati (raddoppiamo la risoluzione sovrapponendo 2 immagini, c’è una differenza tra quello acquisito e quello prodotto), o elementi di pixel parzialmente allineati e parzialmente giustapposti ( non viene più usata). Se noi guardiamo una riga di pixel possiamo andare a rappresentare geometricamente il legame tra la dimensione del pixel e la dimensione investigata con delle semplici relazioni. La differenza più evidente tra fotogrammetria satellitare dalle riprese aeree è l’ampiezza dell’angolo alfa, rispettivamente minore di un grado e dell’ordine di decine di gradi. Bisogna considerare che l’energia acquisita dal sensore passivamente è molto piccola e quindi non è sufficiente acquisire una singola riga di pixel per avere l’immagine, ma se ne usano circa una decina che funzionano come se fossero una sola, in questo modo si riesce ad avere l’energia sufficiente per produrre l’immagine di un determinato oggetto, in pratica considerando che la luce viene convertita in cariche elettriche queste acquisendo più righe vengono sommate. Ci sono satelliti che possono acquisire su più bande spettrali, EROS A poteva acquisire solo immagini pancromatiche (scala di grigi) a 11 bit , mentre IKONOS poteva acquisire sia pancromatiche che nelle scale RGB (a colori) a 11 bit. Il QUICKBIRD venne lanciato alla fine del 2001, ed è stato il primo satellite ad avere una risoluzione di 60 cm, in generale la risoluzione maggiore si ha nel pancromatico(per tutti i satelliti) mentre in genere l’RGB ha una risoluzione 4 volte inferiore. Nonostante la risoluzione riusciamo a vedere ancora oggetti più piccoli perché il pixel è una media dell’intensità radiometrica della zona da esso vista, cioè acquisisco un informazione maggiore ma verrà ricostruita con quella risoluzione. Dal punto di vista commerciale quando le immagini sono acquisite (a livello 0) vengono applicate alcune correzioni radiometriche per migliorarla (a livello 1 a ) e vengono vendute a utenti esperti, mentre se si applicano alcune correzioni geometriche (a livello 1b ) possono essere utilizzate da utenti non esperti. Esistono altri prodotti finali ancora più raffinati che possono essere utilizzati da chiunque e non hanno bisogno di ulteriori correzioni. Vogliamo sapere la copertura del sensore, che rappresenta quanta zona ho acquisito. Esistono degli archivi (gestiti da società proprietarie del satellite) di immagini già pagate che possono essere rivendute a chiunque ne faccia richiesta, considerare le immagini passate può essere utile per fare confronti di quello che c’era una volta con quello che c’è adesso. La disponibilità riguarda il fatto se sia possibile utilizzare il sensore, cioè se questo non sia occupato a fare altro (esempio della guerra del golfo), in quanto ci sono priorità differenti. Un altro parametro è la copertura nuvolosa massima accettabile. Le immagini non radar non hanno di questi problemi (luce, copertura luminosa). Nel caso volessi immagini stereo o stereo coppia (stessa zona vista da 2 punti di vista differenti per poter ricostruire l’immagine 3d ) è molto importante la risoluzione temporale. Tali stereo coppie possono esser acquisite con 2 modalità : il satellite si muove e faccio due immagini da posizioni differenti ma sulla stessa orbita (along track) ed ho il vantaggio di avere immagini temporalmente molto vicine (in pratica la situazione vista dall’immagine è quasi identica). Non è sempre possibile lavorare in along track, ma posso vedere la stessa zona da orbite differenti (comunque vicine) e sfrutto l’agilità del satellite, lo svantaggio è che da un immagine all’altra possono passare dei giorni. Ad esempio se ha piovuto o è asciutto la situazione è diversa e faccio fatica confrontare le 2 immagini soprattutto nel caso in cui utilizzo degli algoritmi automatici. Il prezzo di un immagine dipende: dalla risoluzione geometrica, radiometrica, dall’insieme di vincoli che metto sull’immagine (assenza di nuvole ecc...). La combinazione tra risoluzione spaziale e spettrale determina anche il tipo di applicazione a cui tale immagine è finalizzata. In genere per scopi ambientali si utilizzano immagini multi spettrali, e per scopi cartografici privilegiamo la risoluzione spaziale a scapito della risoluzione spettrale

Trattamento delle immagini satellitari (figure) Orto rettificazione e MDNon possiamo utilizzare immagini satellitari per realizzare carte da 1:1000 o 1:2000 (scala comunale), invece vanno bene Per scale regionali e nazionali 1:5000 (non va sempre bene, dipende

Page 46: GEOMATICA Ultima Epoca

dai dettagli che voglio e se mi conviene o meno utilizzare l’aereo) a 1:25000. Una scena satellitare ha in genere estensione di circa 1 centinaio di km2 (più o meno l’estensione di Milano), quindi molto ampia, una altro vantaggio del satellite è la possibilità di fare rilievi con una certa regolarità e la possibilità di costruire le stereocoppie per realizzare i modelli digitali del terreno. Se guardo da un solo centro di presa implica considerando raggi ottici obliqui vedrò l’immagine da una certa prospettiva e deformata sempre di più man mano che ci si allontana “ dal centro” della proiezione ortogonale.Per poter utilizzare le immagini dal punto di vista cartografico, dovremmo fare alcune procedure. La prima operazione è l’ortorettificazione cioè si intende ,trasformazione geometrica dell’immagine da una proiezione centrale a un proiezione ortogonale (su un piano immagine arbitrario), ciò ci consente di modificare la geometria dell’immagine in un'altra immagine a scala costante (uniforme ovunque). Il principio fondamentale consiste nel fatto che dopo aver orientato l’immagine dobbiamo percorrere a ritroso il raggio ottico (per collocare il punto immagine) e associare alle 2 eq. di collinearità l’eq. di una superficie (cioè il modello digitale della superficie o dell’elevazione). Per intersezione della retta con la superficie riusciamo a generare la posizione del punto. Questo punto identificato con le sue coordinate viene proiettato sul piano arbitrario dell’ortofoto, se faccio quest’operazione per tutti gli infiniti punti dell’immagine otterremo appunto l’ortofoto. Per quanto riguarda l’orientamento sappiamo che dobbiamo determinare i pdoe che sono figli di punti di appoggio denominati ground control point. Che sono quindi i punti di cui dobbiamo conoscere le coordinate nel nostro sistema terreno, e che devono essere ben distribuiti sull’immagini (per migliorare la qualità dell’orientamento). Accanto ai ground control point (sulla base dei quali costruisco le eq. di coll e determino i pdoe) si introducono i check point che sono punti noti e di cui io misuro le coordinate dell’immagine, non c’è una sostanziale differenza con i GCP ma differiscono dall’uso che ne faccio, infatti CP mi servono per valutare indipendentemente la qualità del mio orientamento (e quindi dei pdoe). Infatti posso confrontare le coordinate note del CP con le coordinate (teoriche) determinate utilizzando le immagini, cioè sviluppo le eq. di coll sul CP e vedo il livello di errore (tra coordinate note e teoriche) che si ha utilizzando i pdoe (già determinati) .45)domande d’esame sul dem riascolta) (figure)Possiamo avere 2 casi: 1 l’immagine da cui possiamo avere un ortofoto in cui nel momento dell’ortorettificazione ho bisogno di un modello digitale, e 2 o più immagini da cui produrre dei modelli digitali cioè una rappresentazione della morfologia del territorio (dell’elevazione o superficie o terreno) che posso utilizzare per ortorettificare (c’è una sorta di circolarità). Consideriamo il primo caso c’è un ipotesi implicita che è stata fatta, cioè che esista un MD sia ovviamente disponibile nel medesimo SR in cui oriento la mia immagine. Una volta orientata la mia immagine posso esprimerla in funzione delle coordinate xyz (funzione delle CI ξ ed η dei pdoi e dei pdoe e x y sono in funzione di z). Questo requisito nella pratica non è così scontato in quanto i punti di appoggio d’appoggio sono in genere determinati con il GPS e quindi in ambito nazionale il SR sarà l’ETRF 2000 epoca 2008 (cioè RDN), non è detto che il MD sia espresso nel SR nazionale in quanto esso può essere stato realizzato da chiunque che si può essere riferito a SR nazionali (può essere roma 40, ED1950, o + comunemente in coordinate cartografiche associate roma 50 Gauss Boaga o a ed1950 UTM1ed50) ma non quello che stiamo utilizzando noi, tra il SR storici ed ETRF 2000 le traslazioni sono importanti (dalla decina alle centinaia di m). Concettualmente se non ci poniamo tale problema, potremmo avere delle coordinate sul piano dell’ortofoto in una posizione sbagliata, anche senza aver sbagliato la definizione del piano immagine e del suo orientamento, questo è un errore abbastanza comune. In generale i MD sono riferiti a sistemi di coordinate cartografiche, può accadere inoltre che i SR siano gli stessi ma che il sistema di coordinate sia differente ( ad esempi coordinate xy o EN).

Quantificazione dell’accuratezza (in termini analitici) ( formule)Supponiamo che all’interno dell’edc i pdoe i pdoi siano noti, possiamo utilizzare in 2 modi diversi i CP. Primo metodo. Tale metodo prevede che prendo le mie eq. di collinearità cosi come sono,

Page 47: GEOMATICA Ultima Epoca

introduco all’interno le mie coordinate terreno, e calcolo corrispondentemente le mi CI del mio CP in funzione dell’orientamento. Se non ci fossero errori le coordinate calcolate dall’orientamento e le coordinate misurate da piano immagine dovrebbero identiche, ovviamente non è così in quanto al di la degli errori di misura abbiamo delle approssimazioni nel modello (raggi ottici rettilinei). Per ogni punto le differenze tra le coordinate mi esprime la qualità globale dell’orientamento ( non dl singolo CP), quindi devo avere un numero sufficiente (statisticamente significativo) di CP, per avere un idea i CP non devono mai essere meno di 5 (una decina sono appena sufficienti). Abbiamo l’errore quadratico medio (non è uno scarto quadratico medio, perché considero la media senza toglierla), che definisce l’accuratezza dell’orientamento in termini di CI. Tale metodo è molto semplice ma il risultato non è direttamente utilizzabile, infatti le CI non sono facilmente confrontabili con le CT, quindi nell’utilizzo pratico si preferisce il 2 metodo. Secondo metodo (più utilizzato), ci poniamo il problema di determinare l’errore in termini di CT, tale problema così posto non è risolubile perché ho 2 edc ma le CT da determinare sono 3. Allora utilizzo le CI inserendole nelle edc espresse in x y funzioni di z. Delle eq. così scritte non mi sono tanto utili perché dovrei arrivare a scrivere non 2 ma ben 3 differenze in analogia a quanto detto prima, abbiamo solito problema 2 eq 3 inc. Facciamo una considerazione, noi sul terreno conosciamo la posizione misurata, si fa l’ipotesi di considerare nota una delle 3 CT, quindi siccome x=f(z) y=f(z) consideriamo nota z nella pratica si utilizza tale filosofia ma su coordinate diverse. A queste xyz corrispondono una φ una λ e una h (Coordinate ellissoidiche nello stesso SR, l’ellissoide è il WGS84), si tratta di fare un trasformazione, andiamo quindi a scegliere come coordinata nota la quota h elissoidica (determinata con il GPS) che sarà sicuramente funzione di xyz. Noi non consideriamo più xyz ma considero le corrispondenti espressioni di φ e λ funzioni di h, con h posta nota. È più comodo ragionare in questo modo, perché ho la definizione dell’accuratezza in CT. Le coordinate φ e λ possono essere legate a coordinate cartografiche E N (si utilizza in genere UTM) alle eq. della rappresentazione. Complessivamente in pratica si va calcolare le differenze in termini di N e E In sintesi si è fatta una doppia trasformazione.

46) altri modelli di orientamento (figura) formuleCi sono altri modelli oltre le edc per descrivere l’orientamento, questi sono stati elaborati per via del fatto che nelle acquisizioni satellitari i fattori che fanno deviare il modello dalla descrizione corretta del fenomeno fisico sono più importanti rispetto alle acquisizioni aeree. In pratica nelle acquisizioni satellitari il modello ottico è meno preciso che nelle acquisizioni aree questo per tutta una serie di motivi quali: distanza molto elevata, non perfetta rettilinearità dei raggi ottici, il fatto che il sensore satellitare è meno approssimabile con una proiezione centrale. Si dividono in modelli neri (non basati su leggi fisiche) e modelli grigi (che descrivono solo una parte del fenomeno fisico). Nel considerare la curvatura del raggio ottico faccio ulteriori approssimazioni (atmosfera isotropa stratificata ecc…), ma cmq mi avvicino di più alla realtà. Se consideriamo la distanza di rifrazione tra il punto dal quale suppongo provenire il raggio luminoso e dal punto da cui effettivamente proviene, possiamo dire che se abbiamo una direzione approssimativamente zenitale tale distanza è piccola (trascurabile 0,5 m), però considerando l’agilità dei satelliti dobbiamo considerare che le riprese possono essere caratterizzate anche da angli compresi tra 30-40° avremo una distanza di rifrazione che è intorno ai 3,5 m cioè un valore di 7 volte rispetto alla risoluzione geometrica massima, è evidente che questo effetto deve essere considerato. Risulta che il nostro sistema ottico viene rappresentato da altri parametri (oltre i 3 pdoi) parametri di autocalibrazione che tengono conto del comportamento fisico del sistema ottico, -Consideriamo i modelli neri, che consistono in rappresentazioni tramite eq. polinomiali razionali in cui coefficienti dei polinomiali sono stati determinati secondo modelli rigorosi (fisicamente basati). Le CI sono indicate con i,j. i è la coordinata che viaggia sulla riga di pixel, j si muove su tutte le righe di pixel. Le CI vengono espresse con rapporti di polinomi in cui compaiono le CT espresse in coordinate ellissoidiche. In genere il grado dei polinomi che si utilizza in queste espressioni non è mai superiore a 3. È interessante sapere quanti sono i coefficienti all’interno di

Page 48: GEOMATICA Ultima Epoca

questa espressione in quanto questo influenza in numero di punti di appoggio che sono necessari per l’orientamento (i coefficienti dipendono a loro volta dall’ordine dei polinomi). Se l’ordine è 3 i coefficienti che devo ,mettere in gioco per esplicitare un polinomio nelle tre coordinata h λ e φ dal termine di ordine 0 fino a 3 ordine sono complessivamente 20. posso dividere tutti i coefficienti per un coefficiente e avrò 19 coefficienti (il coefficiente diviso per se stesso sarà uguale a 1). In totale visto che le coordinate sono 2 e i polinomi sono 2 per ogni coordinata mi serviranno ben 78 coefficienti ((19+20)x2) mi servono quindi 39 punti noti. Siccome ogni punto di appoggio mi fornisce 6 coefficienti (dalle eq. di collinearità), si evince come l’ordine dei polinomi mi determini la quantità dei punti di appoggio e di conseguenza l’utilizzabilità del modello. Al primo ordine ad esempio avrei bisogno di 14 coefficienti (7 punti).-modelli grigi, hanno fondamentalmente le stesse relazioni, i coefficienti non sono più incogniti ma sono forniti insieme ad ogni immagine. Cambia la filosofia dal punto di vista dell’utente, non ho più bisogno dei punti d’appoggio per determinare l’orientamento (e come dire nel caso “ottico” che sono noti i pdoe). Questa condizione al giorno d’oggi è quasi sempre verificata. Il satellite ce li fornisce tramite il metafile (informazioni disponibili a livello globale dove ad ogni posizione viene fornita la h mediante MD). Ci si chiede quanto sono precisi questi dati. I punti di appoggio vengono grossolanamente determinati tramite i MD del terreno a scala globale e forniti dalla società che gestisce il satellite. Questi coefficienti (i 78 nel caso del 3 ordine) così forniti possono essere utili per qualche applicazione ma per altre no (ad esempio per la cartografia non vanno bene) in quanto la precisione è dell’ordine di qualche decina di metri. È per questo che si costruisce il modello grigio, in cui una parte è uguale al modello nero in cui i coefficienti sono supposti noti , ma siccome sappiamo che mediante i coefficienti noti ci danno una precisione sulle CI insufficiente, si va migliorare la precisione con delle funzioni a parametri incogniti (6 coefficienti) che determinano una trasformazione affine nel piano. Se consideriamo solo a0 b0 (cioè solo l’ordine 0) vediamo che ci si riconduce ad una correzione che determina una traslazione sul piano, oppure li consideriamo tutti e 6 andando a rappresentare una trasformazione affine piana.51(torna un po’ indietro perché la lezione prima ha anticipato concludendo di fretta) Risulta evidente come la bontà dei coefficienti dipende dalla precisione del MD (avremo al massimo la stessa accuratezza di decina di m), abbiamo una discrasia di almeno un ordine di grandezza tra la potenzialità dell’orientamento dell’immagine consentita dai coefficienti dei metadati (decametro) e la risoluzione dell’immagine (che è del m o meglio del m). Dobbiamo introdurre qualcosa di noto con accuratezza migliore dei coefficienti forniti, cioè dei GCP. Siccome noi abbiamo già un orientamento approssimato, noi non rifacciamo tutto ma raffiniamo quello che già abbiamo con precisione intorno al m. I GCP che ci servono non sono molti in teoria (al di la della necessaria ridondanza) se lavoriamo in ordine 0 ci basta 1 solo punto, se considero tutti e 6 i parametri di GCP me ne bastano 3. (figure e formule) Modello rigoroso (equazioni di collinearità) Considerando ora il modello rigoroso vediamo le espressioni di trasformazione (f è distanza focale) e si nota la matrice di rotazione tra (CI e ST). Nella stragrande maggioranza dei casi quando si parla di immagini satellitari,e andiamo ad utilizzare un modello rigoroso le CT sono cartesiane geocentriche associate all’ellissoide WGS84, il che vuol dire che in ambito nazionale possono essere coordinate cartesiane nel sistema ETRF S2000 (epoca 2008) cioè il sistema associato alla rete dinamica nazionale. Torniamo all’aspetto riguardante la composizione dell’immagine in una serie di n righe ognuna con in propri pdo, che risultano quindi tantissimi per ogni immagini. Come risolviamo l’orientamento? La soluzione che passa attraverso le edc sta a comprendere che le posizioni degli n cdp (1 per riga) non sono posizioni disposte nello spazio casualmente, ma sono disposte sostanzialmente lungo l’orbita percorsa dal satellite che non ha forma casuale. L’orbita per un arco molto breve a cui in generale corrisponde una acquisizione di una scena può essere modellata con un orbita di Keplero ((figura) descrivibile con i parametri kepleriani cioè semiasse maggiore, inclinazione, l’anomalia vera, argomento del perigeo, ascensione retta del nodo ascendente, e l’eccentricità che nelle orbite satellitari è molto piccola a e sono simili e quindi non varia di molto l’altezza di volo). Quindi tutti i parametri relativi

Page 49: GEOMATICA Ultima Epoca

alle n posizioni del satellite sono legati da quelli kepleriani (pochi parametri che descrivono l’orbita) e sono questi che dobbiamo determinare. Mentre per quanto riguarda l’assetto dal punto di vista della meccanica celeste non posso dire nulla, tuttavia anche se stiamo considerando l’immagine di un satellite particolarmente agile, la variazione dell’orientamento avviene con una certa regolarità, e quindi gli angoli di assetto possono essere rappresentati nella loro variazione temporale tramite delle funzioni polinomiali (molto semplici) di 2 o massimo 3 (12 coefficienti) grado. Nella durata dell’acquisizione dell’immagine (10 secondi) rappresento il modo in cui in una riga alla successiva variano i 3 angoli di assetto. Riepilogando le n posizioni sono legate da pochi parametri kepleriani,e anche gli n assetti sono legati tra loro da pochi parametri. Per quanto riguarda l’orientamento interno siccome c’è molta segretezza sulla struttura ottica del satellite la distanza focale viene a fornita in termini approssimati, e quindi dobbiamo porla incognita. I parametri in tutto sono meno di 20. Dobbiamo però tenere conto che non tutti questi parametri sono determinabili dell’utente, in quanto stiamo guardando una porzione di orbita molto limitata, il contenuto informativo all’interno dell’immagine relativo ai parametri dell’orbita del satellite è molto piccolo. Questi non essendo calcolabili li supponiamo noti e vengono forniti dal file di metadati, al massimo ne possiamo stimare solo 2, uno legato alla posizione del satellite ed un altro legato alla velocità del satellite. Risulta quindi che al massimo i parametri determinabili per quanto riguarda la posizione sono 2, 12 per l’ assetto, e 1 parametro legato alla focale. In tutto al massimo i parametri coinvolti sono 15 però non è detto che ci siano tutti, in genere è variabile tra 10 e 15. Consegue che siccome un GCP porta 2 eq, e considerando anche la ridondanza possiamo dire che un numero di GCP variabile da 5 a10 riusciamo a risolvere il nostro problema di orientamento. (Sta facendo una considerazione globale sui 3 metodi 33 minuto).Siccome allo stato attuale l’evoluzione ci ha portati ha produrre dei modelli grigi con precisione confrontabili con i modelli rigorosi, quest’ultimi sono stati abbandonati, per via della difficoltà nell’implementarli. Risulta quindi che allo stato attuale un modello grigio con raffinamento sia la scelta più conveniente e ugualmente accurata. In realtà nel modello rigoroso vengono implementate le edc estese , in cui i delta x e delta y sono delle correzioni aggiuntive che dipendono da tutta una serie di caratteristiche fisiche legate al sistema ottimo tra cui: posizione punti principali non nota, c non nota, raggi non rettilinei, problema di decentramento delle lenti non parallelismo dei piani delle lenti, effetto complessivo di scala non considerato. I parametri che regolano questi aspetti vengono determinati dalla casa costruttrice e successivamente calibrati quando il satellite è in volo. Quando si va a realizzare un software per l’orientamento rigoroso questi coefficienti dovrebbero essere noti, ma generalmente non lo sono e vengono quindi considerati incogniti all’interno del software, questo sostanzialmente raddoppia il numero delle incognite, e questo è un altro motivo per cui software basati sul modello rigorosi siano poco diffusi. Mentre negli altri modelli sono inclusi negli RPC.

Uno sguardo al modello grigio52) Utilizzando i software che permettono di risolvere il modello grigio con raffinamento, i GCP da utilizzare sono al massimo 5 se devo fare una trasformazione affine (per la traslazione almeno 2 o 3). La banalità del modello comporta che i software che lo risolvono sono semplici ed economici. La qualità della correzione dipende dalla qualità (duplice CT e CI) dei GCP. Per la determinazione delle CT di GCP si utilizza il GPS in modalità assistita da una rete di stazioni permanenti, la precisione è di un paio cm, e 4-5 cm in quota, al massimo del dm che è comunque sufficiente. Mentre per la determinazione delle CI, sapendo che la risoluzione geometrica è intorno al mezzo m sappiamo che non possiamo identificare dei punti troppo piccoli (ad esempio il chiodo topografico che col gps si determina ma il satellite non lo vede), dobbiamo utilizzare dei punti che siano oltre che ben definiti topograficamente cioè sul terreno, siano anche ben individuabili sull’immagine. Per fare ciò in corrispondenza di questi punti deve esserci una variazione radiometrica evidente, cioè una variazione marcata dei toni grigio (ad esempio l’angolo del campo da tennis. La scelta dei GCP è quindi molto rilevante sull’accuratezza globale del procedimento e devono essere di buona qualità anche dal punto vista visivo. Si sottolinea che difficilmente si può ottenere una misura delle

Page 50: GEOMATICA Ultima Epoca

coordinate immagine migliore di alcuni decimi di pixel (3-5 decimi), quindi se la risoluzione geometrica è del m, la precisione con cui identifico le CI è molto minore rispetto a quella con cui determino le CT. Quindi la precisione globale dipenderà principalmente dalla determinazione delle CI (in realtà c’è anche un limite tecnologico che riguarda lo strumento con cui identifico tale CI, ad esempio il mouse, ma è comunque molto piccolo). Il modello nero è pericoloso da usare perché è poco robusto, cioè è molto sensibile alla presenza di outlier sia nelle CI che nelle CT dei GCP, quindi questi modelli oltre che abbastanza complessi sono anche inaffidabili e quindi poco utili ai nostri scopi.

Confronto tra precisione e accuratezza SLIde( riprende argomenti di Quantificazione dell’accuratezza)(Figure)( sta mostrando delle immagini di roma da satelliti diversi e da angoli di assetto )Si definisce l’angolo medio di off nadir l’angolo medio con cui il sensore è disorientato rispetto la direzione nadirale ( può essere di 30-40° per quickbird ed eros). Se l’offnadir è uguale a zero abbiamo approssimativamente verificata la condizione normale che non è sempre realizzabile con immagini satellitari (per via dell’orbita fissa, devo necessariamente ruotare il satellite), per l’offnadir inoltre ricordiamo influenza molto l’effetto della rifrazione atmosferica.(parla di determinazioni di GCP dei studenti dove in certe immagini si vedono le auto e certi si vedono male) La precisione è la valutazione del RMSE non sui CP ma direttamente sui GCP. Per determinare la precisione del modello di orientamento andiamo a vedere quali sono gli scarti residui delle coordinate che escono dal modello e da quelli delle coordinate che conosciamo già o in termini CT o CI. La precisione è legata alla precisione dei GCP e alla bontà del modello di orientamento. Dal punto di vista pratico quello che ci interessa è l’accuratezza, perché è più utile in quanto ci dice quale è il contenuto informativo geometrico che possiamo ottenere utilizzando una determinata immagine ed è basata esclusivamente sui check point.Vediamo dei grafici relativi all’andamento della precisione (in CT): ci accorgiamo che all’aumentare del numero di GCP (a partire da 9) l’errore quadratico medio aumenta fino a stabilizzarsi (aumenta perché con pochi punti ho meno informazione sugli scarti che devo sommare, non c’è molta ridondanza). Il valore stabile è l’indice della precisione che stiamo estraendo dal punto di vista dell’orientamento (gli andamenti sono simili per tutti i satelliti mostrati). Se invece andiamo a guardare l’andamento dell’accuratezza: è opposto rispetto alla precisione, cioè se ho poche informazione (pochi GCP) l’accuratezza è scadente, se aumento l’informazione l’accuratezza aumenta fino a stabilizzarsi. Nel caso immagine eros vediamo che l’accuratezza che possiamo ottenere con 17 GCP per entrambe le coordinate E N è di un paio di m, rispetto ad una risoluzione di 1,8 m (un po’ minore), è evidente ancora una volta come la risoluzione rappresenti il limite inferiore all’accuratezza. Se però andiamo a selezionare in un immagine con risoluzione geometrica peggiore e andiamo a determinare le CI di un GCP l’errore che andiamo a fare nell’orientamento è peggiore perchè le CI sono state determinate con minor accuratezza. Quindi la risoluzione geometrica o radiometrica condizione anche la bontà dell’orientamento. Normalmente possiamo ottenere accuratezza di orientamento che vanno dalla dimensione del pixel a 1,5 pixel. Anticipa il fatto che nel modello nero la presenza di outlier si sparpagli su tutti i GCP deformando globalmente il modello, mentre nel medello rigoroso viene denunciato da un scarto quadratico su quel punto molto elevato e quindi vedi se ho outlier

18 5 by max Approcci alternativi (utilizzati da software) -Modello grigio Riprendendo un attimo il modello grigio si fa la considerazione riguardante il fatto che normalmente invece di 5 punti se ne considerano 10 ( gli altri 5 come CP, non servono per l’orientamento ma per calibrare) tale approccio si chiama hold autovalidation. Esiste un approccio alternativo più efficiente e vicino alle esigenze dell’utente, che si chiama line one out validation (allo stato attuale non è automatizzato nei software commerciali). Supponiamo di avere a

Page 51: GEOMATICA Ultima Epoca

disposizione non 5 ma 6 punti, di questi 6 ne seleziono 5 e li faccio funzionare come GCP mentre l’altro è un CP. Faccio questa operazione 6 volte considerando ogni volta un CP diverso, ottenendo così un campione di CP che contiene ogni punto che ho a disposizione. Da una parte ho lo svantaggio di fare 6 operazioni di orientamento invece di una, però ho il vantaggio di avere bisogno di pochi punti e l’ulteriore vantaggio di sapere come questi 6 orientamenti si comportano rispetto ad ogni punto, e per il punto considerato di volta in volta andiamo a determinarne lo scarto. Comunque il vantaggio è più grande dello svantaggio (in quante le n operazioni le fa il software in tempi ragionevoli).

Confronto della robustezza tra modello rigoroso e modello nero esempioSi fa l’esempio considerando il satellite eros, 23 punti utilizzando prima il modello rigoroso e poi quello nero del 2 ordine.Supponiamo di introdurre degli outlier su 2 punti andando a modificare le coordinate di una quantità ben superiore all’errore medio (altrimenti non mi accorgerei dell’outlier, si è fatta una traslazione di 3 volte l’errore). Andando ad analizzare i risultati dopo aver inserito gli outlier notiamo che per il modello rigoroso: l’accuratezza complessiva non ne risulta fortemente modificata (sostanzialmente è la stessa), mentre su i 2 punti gli scarti residui sono aumentati di molto. Quindi vediamo che il modello è resistente ed inoltre ho la possibilità di capire quali sono i punti di cattiva qualità. Se vediamo la risposta del modello nero rispetto alla presenza di outlier, notiamo che complessivamente viene molto degradato dalla presenza degli outlier (ad esempio errore quadratico medio da 2m a 13m), mentre se analizziamo quello che succede sui punti incriminati vediamo che il loro residuo è confrontabile con l’errore medio, per di più il residuo è lo stesso che c’era prima dell’introduzione dell’outlier. Quindi gli outlier vanno proprio ad influire sulla struttura del modello senza poter accorgermi della loro presenza.

Modelli digitali per produrre ortofoto (figure)Supponendo di aver già prodotto un modello dell’orientamento, e avere utilizzato tale modello per andare a produrre un MD del terreno che in verità è una descrizione discreta della morfologia del terreno che consiste in una serie di punti. (precedentemente avevamo supposto che fosse una funzione continua che lega xyz e rappresentava una superficie ed andavamo a intersecare il raggio ottico con questa superficie). Ognuno di questi punti sarà affetto da un certo errore, e quindi non saranno perfettamente situati all’interno della funzione. Tale insieme di punti non rappresenta una superficie ma la possiamo approssimativamente tracciare interpolando i vari punti. Ne consegue comunque che da un punto di vista analitico il punto di intersezione tra la retta il modello digitale non esiste, perché appunto la superficie non esiste ma esistono i punti discreti (quindi è improbabile che riesca ad intersecare un punto con la mia retta). Il problema consiste nel come andare a interpolare questa funzione li dove mi serve (quel punto) per andare a generare la nostra posizione, c’è un altro problema,che riguarda il fatto che anche se sono in grado di interpolare i miei i punti, e quindi di ricostruire nuovamente una funzione passante per questi punti, questa sarà comunque diversa da quella teorica che descrive la superficie del terreno. Questo significa che questo punto che posso generare con l’intersezione con la superficie interpolante è comunque diverso dal punto teorico che generavo dall’intersezione della retta con la superficie reale del terreno. Quindi anche la mia proiezione sul piano dell’ortofoto che andiamo a generare è diversa da quella che avrei generato prima (prima de che?!) ( si intende se il MD fosse fedele alla reale morfologia). Quando utilizziamo un MD per la produzione di un ortofoto, vediamo che la qualità di queste dipenderà dalla qualità dell’orientamento (accuratezza con cui è posizionata la semiretta nello spazio) e dalla qualità del MD del terreno (che serve a definire il punto di intersezione) che dipende dalla qualità dei punti discreti e dalla qualità che decidiamo di utilizzare per interpolare questi punti (ne esistono diverse a cui corrispondono valore delle coordinate dei punti diversi). (immagine satellitare di tirana)

Page 52: GEOMATICA Ultima Epoca

Riconoscimento automatico dei punti omologhi image matching e normalizzazione (figure sono obbligatorie, difficile cpirci qualcosa senza)Dobbiamo da un punto di vita pratico, avendo più immagini, andare ad individuare i due punti omologhi per i quali una volta selezionati e una volta scritte le eq. di coll, vado ad individuare le CT nel ST. Non è un è un problema analitico, si tratta di avere la capacità di andare a riconoscere automaticamente sulle due immagini quali sono i punti omologhi Questo problema è stato risolto solo pochi anni fa, in quanto il calcolo necessario per trovare i punti omologhi è molto oneroso e quindi è necessaria una grande potenza di calcolo. Supponiamo di avere 2 immagini acquisite da 2 punti di vista diversi che rappresentano lo stesso oggetto, essendo immagini digitali abbiamo a disposizione 2 matrici di pixel. Siamo supponendo che la forma dello stesso oggetto sulle 2 immagini sia la stessa, cioè è andato a occupare lo stesso numero di pixel in entrambe le immagini (questo in genere non è vero). Come facciamo in corrispondenza di ognuno dei suoi pixel a sapere automaticamente, quale sono le coordinate di quello relativo all’altra immagine?L’immagine 1 (di partenza) quella che andiamo a ispezionare e che sappiamo le coordinate del pixel in cui mi trovo si chiama immagine master. L’immagine nella quale io vado a cercare il punto che corrisponde a quello che ho selezionato nell’immagine master si chiama immagine slave. Dobbiamo trovare la posizione nella slave la posizione del pixel che abbiamo selezionati nella master. Noi adesso stiamo considerando per semplicità solo il bianco o nero 1 bit (ovviamente nella realtà non è così, in genere da 8 o 11 bit). Bisogna considerare il fatto che i toni di grigio sui punti corrispondenti delle 2 immagini sono diversi, in quanto essendo acquisite da punti di vista diversi le condizioni di illuminazione possono essere diverse. Quindi lo stesso oggetto oltre che avere geometria diversa tra le 2 immagini ha anche radiometri diversa (disegna).-Considerando il problema geometrico si porta indietro il problema legato all’efficienza geometrica della richiesta. Il punto corrispondente della master che stiamo cercando su slave può essere situato ovunque. Per cercarlo una delle tecniche e passare attraverso l’utilizzo delle immagini normali (la cui caratteristica è che tra punti corrispondenti delle 2 immagini abbiamo solo parallasse longitudinale e cioè tali punti hanno la stessa coordinata η, ci muoviamo solo lungo ξ), così facendo la ricerca diventa da 2D a 1D, cioè avviene su una retta. Dobbiamo capire partendo da 2 immagini qualunque come possiamo andare a costruire le immagini normali. (disegna) Consideriamo una situazione geometrica con le seguenti caratteristiche:2 immagini, il ST xyz ha origine nel centro di proiezione nell’immagine che stiamo considerando, l’asse x diretto verso l’altro centro di proiezione, l’asse z in un certa direzione e non è diretto ortogonalmente al piano di ogni immagine normale. (diverso dal paragrafo di tanto prima) perché un’immagine ha giacitura qualunque nello spazio e solo una è normale che è quella che abbiamo costruito così ma non acquisita in tale forma, per l’altra immagine facciamo la costruzione analoga. Come andiamo a definire il luogo in cui si trovano queste immagini normali? Dico che prendo un piano comune alle 2 immagini normali che si trova a distanza assegnata dall’asse delle x, tale distanza la chiamo gamma, l’asse delle x e // a questo piano (dove giacciono le 2 immagini normali che chiamiamo pigreca n (con pigreca1 e pigreca2 si identificano i 2 elementi del piano corrispondenti alle 2 IN). Gamma è una quantità arbitraria. Se una retta è parallela al piano pigrecan oltre la condizione di collinearità c’è anche la condizione di complanarità 1ora e 1 minuto dei raggi omologhi e la base di presa. Queste 2 rette (quelle dei raggi omologhi) definiscono un piano che appartiene al fascio proprio di piani che ha per sostegno la base di presa. Quest’ultimo piano taglia il piano delle immagini normali secondo una retta che è parallela alla base di presa. Le CI sui 2 piani immagine delle immagini originali adesso sono identificate con ξ1 ed η1 ed ξ2 ed η2. A partire da queste coordinate voglio costruire le coordinate dei corrispondenti punti Bin1 Bin2 sulle IN. Queste coordinate le chiamiamo ξn1 ηn1 ξn2 ηn2. Siccome le immagini sono normali sappiamo che ηn1 e ηn2 sono uguali, quindi pongo ηn=ηn1=ηn2,e c’è comunque una parallasse longitudinale (in quanto ξn1ξn2 sono diversi). Stabilita quindi la posizione del piano, per calcolare le coordinate sulle IN dobbiamo trovare un legame tra i punti delle immagini originali e quelli corrispondenti sulle IN, questo legame sarà rappresentato da delle edc. Queste individuano completamente il punto

Page 53: GEOMATICA Ultima Epoca

anche se utilizzo una sola immagine in quanto abbiamo stabilito che il piano (quale) si trova a distanza gamma da questa retta (quale). η(scrive formule). Dobbiamo andare a scrivere le eq. collinearità capovolte.ξ e η sono le coordinate sull’immagine, mentre xyz cono le coordinate del punto nel SO, quest’ultimo punto è il punto sull’IN e voglio le sue coordinate sull’IN (una già sappiamo che è z = gamma ). Considerando che per comodità abbiamo posto il SO tale che x0 y0 e z0 per l’immagine 1 sono nulli (perché l’origine del SO sta proprio nel Centro di presa), mentre per l’immagine 2 x0 vale la base di presa y0=z0=0. Quindi le coordinate sull’IN saranno x=ξb1 e x=etan e z = gamma (scrive formule) A questo punto invertiamo e quindi andiamo a scrivere le edc esprimendole in funzione dalla coppia di coordinate relative all’immagine normale, che permettono di di generare l’IN corrispondente all’immagine 1, analogamente con l’unica differenza che ho O2 (centro di presa immagine 2) a coordinata x pari a b posso andare a scrivere l’eq. relativa all’immagine 2. Abbiamo quindi mostrato che a partire con qualsiasi tipo di immagine (cioè con qualsiasi giacitura) possiamo costruire delle IN. Nelle IN so che devo cercare i punti omologhi sulla stessa retta.

23 maggio 54Esempio pratico di matchingIl procedimento è diviso in 2 fasi. Si suppone che le 2 immagini siano normalizzate e quindi la ricerca dei punti omologhi sia un problema 1D. In un primo momento il procedimento viene realizzato supponendo di muoversi per pixel discreti. La discretizzazione in pixel è un esigenza tecnologica, mentre le immagini dal punto di vista geometrico sono continue. Ci si chiede se può esserci una migliore corrispondenza nel caso ci muovessimo di entità inferiori al pixel. La risposta è si ma è una fase del procedimento che si fa successivamente. Nell’esempio consideriamo 2 immagini rappresentate come 2 righe di pixel dove la tonalità di grigio viene rappresentata da un numero intero (da 1 a 9, 3 bit) attribuito ad ogni pixel. La riga 1 viene definita immagine target (nell’immagine master), mentre la riga 2 viene definita immagine search (nell’immagine slave), si cambia denominazione perché stiamo considerando solo l’oggetto e non tutta l’immagine. Dobbiamo cercare nell’immagine search l’oggetto che risulta corrispondente al nostro target. L’oggetto viene rappresentato attraverso l’istogramma di immagine dove i vari valori rappresentanti i toni di grigio vengono rappresentati ordinatamente, la lunghezza delle barre rappresenta il numero di pixel che hanno quella tonalità, non si considera l’ordine spaziale che questi hanno sulla riga. Apparentemente sembra non esserci un corrispondenza tra le 2 righe in quanto non esiste una perfetta sequenza,che si sovrappone in termini di toni di grigio (sembra che non stiano guardando lo stesso oggetto). Questo è normale ed è dovuto al fatto che le 2 immagini essendo state acquisite in momenti diversi, in condizione diverse ciò comporta anche influenze dal punto di vista del complesso degli errori, che ne caratterizzano l’acquisizione (problema radiometrico). Non posso fare una ricerca di tipo deterministico, perché non troverò mai una sequenza che si sovrappone perfettamente, ma dovremmo trovare qualcosa nel search che assomigli a qualcosa del target, questo concetto di somiglianza si andrà a concretizzare con il concetto di correlazione lineare. Noi andiamo a cercare la sequenza nel search più simile nel target, tale somiglianza si esprime tramite il coefficiente di correlazione lineare (è dato da la covarianza tra g1 g2 diviso il prodotto degli sqm di g1 e g2).(formule) Il calcolo del coefficiente viene fatto di volta in volta spostando reciprocamente tra loro le 2 righe. Siccome il valore del coefficiente di correlazione lineare nel caso (teorico) di perfetta corrispondenza è 1, dovremo cercare la configurazione che ci dà il valore maggiore del coefficiente e che sarà quella approssimativamente sovrappone le 2 immagini (in termini dei valori toni di grigio). Finora (per cercare la somiglianza) ci siamo mossi su pixel discreti, tale ricerca non è esaustiva in quanto non è detto che il medesimo oggetto sia rappresentato in una medesima sequenza di pixel, cioè abbia la stessa lunghezza di pixel che lo rappresentano perché le 2 immagini hanno punti di vista e giacitura diverse (quindi anche la rappresentazione e dimensione geometrica è diversa) problema geometrico. Esiste un altro problema (sempre geometrico) che riguarda il fatto che anche supponendo che le dimensione dell’oggetto sia la stessa non è detto che a parità di

Page 54: GEOMATICA Ultima Epoca

dimensione l’oggetto cada in un certo numero di pixel perfettamente allineati. L’oggetto infatti viene forzatamente rappresentato all’interno una certo numero di pixel, che però non occupano la posizione che in un’ipotetica rappresentazione dell’immagine dovrebbero occupare, si capisce che cercando l’oggetto muovendosi per pixel discreti limita la possibilità di trovare l’esatta o comunque migliore corrispondenza possibile tra le 2 immagini (è evidente nel nostro esempio). C’è la necessità di fare la ricerca per frazioni di pixel. Se ad esempio supponiamo che il pixel abbia dimensione di 10 micron. Per considerare frazioni di pixel bisogna considerare che il tono di grigio si distribuisce su tutto il pixel, e cioè l’effetto che l’oggetto che occupa frazione di pixel ha su tutto il pixel e sui pixel adiacenti. Entra in gioco adesso il 2 passo della procedura di matching che non è più basato sulla correlazione che ormai ha esaurito il suo scopo. Per continuare la ricerca dobbiamo mettere in moto un meccanismo chiamato l….. square matching (matching basato sui minimi quadrati), che parte dalla soluzione ottenuta al primo passo. Lo scopo principale è quello di andare scrivere una relazione tra l’intensità di grigio nell’immagine search e in corrispondenza di una certa coordinata immagine ξ e l’intensità di grigio nell’immagine target in corrispondenza di una coordinata ξ + un subpixel. Così dicendostiamo ipotizzando che le immagini siano identiche, e stiamo cercando la stessa frequenza tra 2 immagini al più spostata di un sub pixel (l’approssimazione a livello del pixel già l’abbiamo fatta nel primo passo). Siccome le 2 immagini abbiamo già visto non essere uguali (i processi di errore sono diversi e in sostanza le radiometrie sono diverse) dobbiamo introdurre delle correzioni all’interno della relazione che stiamo cercando. Le modifiche che dobbiamo introdurre sono 2. Diremo allora che l’intensità di grigio dell’immagine 2 è eguale a quella dell’immagine 1 per uno spostamento di un sub pixel modificato per un fattore di scala radiometrica b e un fattore di origine radiometrica c. Primo aspetto; se l’immagine 2 è complessivamente più scura dell’immagine 1 non avrò mai una certa corrispondenza, dobbiamo allora sottrarre (o sommare se l’immagine 2 è più chiara) all’immagine 1 una certa origine radiometrica, con questa operazione riportiamo le media dell’intensità radiometrica uguale per entrambe le 2 immagini. Dobbiamo fare un’altra cosa, supponiamo anche che l’immagine 2 sia anche meno contrastata dell’immagine 1 (si intende che il l’istogramma di immagine sia stretto, cioè i pixel occupano una zona stretta delle possibili intensità di grigio), dobbiamo andare a modificare le intensità di grigio dell’immagine1 in maniera tale da renderle compatibili con l’intervallo dei toni di grigio presenti nell’immagine 2. (sta facendo l’esempio grafico) Tracciamo ora gli istogrammi relativi alle 2 immagini, se gli istogrammi sono sfalsati, dovremmo riallinearli di un valore che è proprio c. Nel caso più generico dove gli istogrammi oltre che sfalsati sono un più stretto dell’altro (l’intervallo dei possibili valori di toni di grigio dell’immagine 1 e più ampio di quello dell’immagine 2) oltre che ad applicare c dovremmo applicare il fattore di scala b. Alla fine abbiamo un modello a 3 parametri a (sub pixel) b c. Dal punto di vista del problema di matching in un certo senso l’unico parametro che ci interessa è a, mentre gli altri sono considerati come parametri disturbo che dobbiamo introdurre ma non hanno un interesse da un punto di vista delle corrispondenza geometrica (infatti sono correzioni che influiscono sulla radiometria). Ci si accorge che il modello appena costruito non è lineare nei nostri 3 parametri, lo dobbiamo linearizzare in funzione di a (che a noi interessa). (formule) Andiamo a linearizzare la nostra espressione scrivendo che l’intensità di grigio sull’immagine IG target in corrispondenza di ξ più a può essere scritta come IG in ξ + la derivata dell’IG in ξ per a, è corto perché ci stiamo muovendo nell’intorno di ξ. Dobbiamo trovare il valore della derivata prima de IG dell’immagine1, noi stiamo lavorando in termini discreti e quindi avremo un delta. Troveremo una relazione che funziona bene dappertutto meno che in corrispondenza dei pixel estremi, dove utilizzo una regola diversa (formule). Possiamo ad andare a scrivere per il nostro problema il modello funzionale per la soluzione ai minimi quadrati dove ci sono i relativi parametri (formule matrici e compagnia bella). Le equazioni di osservazione che possiamo andare ascrivere sono tante quante sono i toni di grigio che vogliamo mettere in corrispondenza tra di loro e questo sarà dettato dalla dimensione del target (nel nostro caso 7 pixel). Poi andremo a scrivere le colonne relative a c b e a c della matrice disegno, ……

Page 55: GEOMATICA Ultima Epoca

Dobbiamo ad andare a scrivere il modello stocastico che nel caso di matching è dato dal matrice identica.(formule matrici). La matrice normale dipende da come è fatta la matrice disegno,che dipende esclusivamente da g1 e dalla sua derivata e quindi solo da come è fatto il target. Nella matrice di covarianza dei parametri stimati cioè la precisione con cui andiamo a risolvere il matching dipende solo da g1 nella sua struttura (poi come valori dall’errore delle osservazioni) cioè dall’oggetto che stiamo cercando. La matrice di covarianza dipende dalla struttura di A. Nello specifico la precisione aumenta all’aumentare della dimensione di A; ma solo se all’interno dell’oggetto ci sono variazioni significative dell’intensità di grigio. Quindi tanto più l’oggetto è ben definito( variazioni radiometriche significative) tanto più aumenta la precisione del matching (formule) descrive i risultati del nostro esempio) Vediamo che con il 2 passo aumentiamo la precisione di un ordine di grandezza.

Miglioramento della qualita delle immagini da matchare, ottimizzazione24 maggio 55 (perso un pezzettino)Se la profondità radiometrica è tale che i 2 istogrammi non solo abbiano stessa media e stessa ampiezza, ma siano anche molto concentrati cioè l’ampiezza sia piccola e quindi siano poco contrastati abbiamo la situazione (es del ghiacciaio) in cui tutti i pixel hanno tutti la stessa IG. Dal punto di vista radiometrico il matching è sempre ottimo, ma non riesco a determinare il parametro geometrico, cioè non so come spostare l’oggetto target per andare a trovare il coorrispondente oggetto search, perchè ogni posizione va bene. Questo avviene quando le mie immagini sono poco contrastate cioè la mia radiometria e concentrata in poche IG, e non riesco a ottenere una buona coorrispondenza geometrica perché quasi tutto nell’immagine search e matchiato nelle immagini target. Ci si pone il problema di andare a migliorare le immagini se possibile prima di sottoporle al matching. Ci possono essere 2 tipi di miglioramenti il cui effetto è molto diverso per ognuna di essi. Il primo è lo stretching radiometrico il secondo è l’equalizzazione. Lo streching tende a migliorare il contrasto delle immagini. Questo vuol dire che (supponendo un immagine a 8 bit cioè a 256 valori di IG) (figura) se consideriamo l’istrogramma iniziale dell’immagine notiamo che la profondità radiometrica del sensore è di 256 valori di IG, però l’acquisizione è stata tale che l’energia è stata immagazzinata solo su una parte di tutti i possibili IG (nell’esempio 84-153). Lo streching radiometrico si propone di andare a utilizzare anche quella profondità radiometrica che in fase di acquisizione non è stata utilizzata, stirando l’istogramma con una funzione analitica in maniera tale da distribuire l’energia su tutta la poissibile profondità radiometrica corrispondente al sensore. L’equalizzazione passa anch’essa sullo strechting, ma si pone un altro problema, cioè di equalizzare o distribuire per quanto possibile su tutti i TG in maniera la più possibile uniforme, l’energia che ho acquisito in sede di immagine. Vediamo un esempio (figura) dove è tutto nero, dopo l’equalizzazione l’immagine acquisisce tessitura cioè dove ho una forte variabilità radiometrica che favorisce l’operazione di matching.( altri esempi). Facciamo un esercizio per vedere in termini quantitativi cosa succede. Prendiamo l’istogramma di input che è quello relativo all’immagine così come viene acquisita, supponiamo avere 3 bit e disegnamo l’istogramma, l’immagine e poco contrastata, supponiamo di fare un strecthing di tipo lineare. Abbiamo un piano della funzione che rappresenta la modalita con cui vado stretchare l’istogramma di input (figura). Come vado a costruire la funzione che decido va rappresentare questa trasformazione? (tra 0-2 è pari a 0 poi, è una retta 2-4, poi 4-7 è una costante pari a 7). Andiamo a considerare tutti pixel la IG è pari a 2 questi pixel vengono trasformati da questa funzione in pixel con IG è pari a 0, il numero di questi pixel, n2 sarà identico anche nell’istogramma di output (non cambia la numerosità, ma solo l’IG). Prendiamo i pixel la cui IG è uguale a 3 la funzione mi restuituirà un IG pari a 3,5 (però non è intero, e 3,5 nonè rappresentabile e viene arrotondato a 4). In corrispondenza di IG in input pari a 4 viene trasformata in un IG pari a 7. Vediamo sempre in questo esempio in cosa consiste l’equalizzazione. Per semplicità supponiamo di considerare gli istogrammi input e di output come funzioni continue, e quindi l’insieme di nuemeri interi diventano un intervallo sulla retta reale.

Page 56: GEOMATICA Ultima Epoca

(figure) Abbiamo l’istogramma di input e di output, andiamo rappresentare la nostra funzione di trasformazione degli istogrammi (la rappresentiamo come ua funzione qualunque), ( fa cose strane con i valori dei 2 istogrammi) Dobbiamo ragionare in termini continui, Ci troviamo in una situazione sostanzialamente identica alla trasformazione di variabili aleatorie. Supponiamo di prendere un intervallo infinitesimo se noi andiamo a calcolare l’integrale di questa funzione esso è il numero di pixel le cui IG sono comprese in quel intervallo (se lo faccio dell’intera curva otterò il numero totale dei pixel dell’immagine). Il numero di pixel dell’imagine di output sarà uguale di quello dell’immagine di input, sull’immagine output il corrispondente intervallo di IG considerato nell’immagine conterrà lo stesso numero di pixel ma con una distribuzione radiometrica differente, cioè cambia l’ampiezza dell’intervallo (se si allarga sarà più basso, se si accorcia viceversa). Andiamo a scrivere il legame che c’è tra istogramma di input e l’istogramma di output. Noi vogliamo ottenere un istogramma di output (equalizzato)che sia costante su tutta la profondità radiometrica partendo da un istogramma di input qualsiasi, quindi il nostro obiettivo è quello di andare a calcolare la forma che la funzione di trasformazione deve avere per poter ottenere l’istogramma di output equalizzato a partire da una istogramma di input qualsiasi (e non di determinare l’istogramma di output). Nell’equalizzazione l’istogramma di output deve essere una costante. Siamo noi che abbiamo deciso che sia così. Andando ad imporre questa condizione dobbiamo costruire questa funzione. Noi facendo l’equalizzazione dobbiamo andare a costruire un istogramma di output( indipendentemente dai toni di grigio quello che è l’istogramma di input) in cui su tutti i TG io abbia lo stesso numero di pixel. (scrive una formula). Deciso l’istogramma di outpt che vogliamo e dato quello di input, troviamo quale la funzione che mi porta da input ad output. (formule). Dobbiamo capire come è fatta questa costante, che deve soddisfare alcune condizioni. (formule,…. E considerazioni e formule) Questo integrale, cioè le somme che io vado a fare tra il valore più piccolo di Ig di input e il valore più grande di ig d input mi daranno il numero totale di pixel, ho trovato così la costante (L-1/Npx) ( se c’hai le formule capisci). La relazione che otteniamo è in termini continui mentre noi la dobbiamo tradurre in termini discreti, e proprio per questo passaggio che non riusciamo ad avere in output un istogramma radiometrico effettivamente tutto ugule ma posso avere delle ulteriori differenze. I Prodotti del matching sono i modelli digitali.

MODELLI DIGITALI (del terreno, della superficie, dell’elevazione)Produzione di modelli digitali tipologie e applicazioni Per produrre un modello digitale ho bisogno di una coppia di immagini, le devo orientare, devo produrre immagini normali, e devo ottimizzarle (ottimizzazione radiometrica cioè strecthing ed equalizzazione), e successivamanente devo fare il matching (correlazione di punti e LSM). Da un punto di vista concreto quello che ottengo si chiama nuvola di punti. Questa è l’insieme dei punti che io sono stato in grado di ottenere automaticamente i cui corrispondenti sulle immagini sono stati matchiati tra loro. Non è detto che tutti i possibili pixel dell’immagine possono essere correlati tra le 2 immagini, perché è possibile che io non trovi delle correlazioni sufficienti. Quale è la soglia minima di correlazione, la scelta è arbitraria? L’indicazione è comunque che si scelga anche un numero basso di punti l’importante è che essi siano molto sicuri, in genere la soglia si aggira intorno ad un coefficiente di correlazione di 0,75 -0,85, in maniera tale che la soglia sia sufficientemente alta da garantirmi che i punti matchati siano sufficientemente buoni. Tali punti vanno a formare la nuvola di punti, se questi sono discreti la nuvola rappresenta in forma discreta la morfologia del terreno. Non è detto che sia proprio il terreno può essere anche qualcos’altro. Dalla nuvola poi passo al modello digitale. Con modello digitale si identificano 3 prodotti differenti: il modello digitale della superficie DSM dove viene rappresntata la superficie visibile (tutto quello che si vede), DEM modello digitale dell’elevazione e rappresanta la superficie del suolo, DTM modello digitale del terreno rappresenta la superficie del suolo più informazioni aggiuntive. (disegna) Per superficie visibile si intende tutto quello che c’è (case alberi tralicci auto e terreno scoperto), quindi quello che metto via sulla nuvola di punti non ho oggetti, ma ho insiemi di

Page 57: GEOMATICA Ultima Epoca

punti da cui andare a ricostruire i nostri oggetti. Se vado a ricostruire la superficie visibile, collegando i punti con una spezzata non vedo gli oggetti ma avrò una superficie che approssima i nostri oggetti. Per ricostruire meglio i nostri oggetti avrò bisogno di una nuvola di punti più densa, da questo si capisce che è importante avere degli algoritmi di matching particolarmente raffinati che ci fornisca un gran numero di punti, questo è il DSM. Il DEM si preoccupa di andare a ricostruire la superficie del suolo, e quindi devo tenere conto solo dei punti che stanno sul suolo. Tale modello risulta più complicato da costruire perché devo individuare i punti della nuvola che non stanno sul suolo per poterli togliere, questa operazione deve essere fatta automaticamente tramite un algoritmo di filtraggio. Il tutto diventa molto complicato nel caso di oggetti piccoli (esempio del cespuglio rispetto all’empire state building). Quindi da DSM a DEM c’è un ulteriore Informazione. Ulteriormente il per il DTM bisogna fare un ulteriore operazione. Vediamo come possono essere distribuiti i punti della mia nuvola bidimensionalmente, sul piano i punti della nuvola sono distribuiti a caso in ragione del fatto che il coefficienete di correlazione sia maggiore o minore della soglia.(si fa un esempio con punti a caso in cui passi un corso d’acqua,) Se il mio scopo è di realizzare un DTM per fare delle simulazioni idrologiche, se io mi basassi solo sui punti che ho, potrei costruire si una superficie che però non contiene l’informazione che a me interessa. (Nel caso di modello per vedere l’accrescimento boschivo). Tornando nel nostro esempio devo completare l’informazione manualmente selezionando dei punti in modo tale che all’interno della mia nuvola ci sono i punti prodotti automaticamente e quelli prodotti in maniera assistita. Nel nostro esempio ci interessa sapere la forma dei versanti e la riva del fiume. Il DTM è guidato da un scopo ben preciso che può essere qualsiasi, l’aggiunta di informazione è dipendente dallo scopo.25 maggio)(anticipa) I MD possono essere prodotti con altri metodi oltre quello fotogrammetrivco, proprio in virtù del metodo con cui sono stati prodotti è possile classificarli in vari livelli ai quali corrisponde una certa accuratezza. La rappresentazione dei dati in un MD è molto legata all’accuratezza. Quando io mi pongo il problema di andare a rappresentare in maniera digitale una superficie questa rappresentazione è sempre discreta e i dati con cui vado a realizzare questa rappresentazione sono distribuiti in maniera irregolare. I punti saranno disposti in maniera più meno regolare in funzione di quanto sono stato bravo a correlare gli oggetti corrispondenti su 2 o più immaggini, sarà principalamente l’operazione di matching che regolerà la maggior o minor ricchezza e regolarita di distribuzione dei miei punti. Il dato di partenza è quindi discereto e irregolare. arrivato qui a correggere Da un punto di vista cartografico la morfologia poteva essere espressa in 2 modi distinti: le curve di livello dove vado a rappresentare delle linee che hanno la caratteristica di essere il luogo dei punti alla stessa quota ortometrica. Questa rappresentazione è molto utilizzata perchè è molto comoda e semplice da utilizzare. La descrizione del terreno di questa rappresentazione è forzatamente discreta perché non vado punto per punto ad individuare la quota, ma vado ad individuare con una certa equidistanza quei punti che godono della proprieta di avere la stessa quota. Io ho un informazione morfologica molto densa li dove ho delle variazioni molto accentuate di quota, viceversa li dove la quota varia poco. Si va quindi rappresentare come la quota varia senza dare una descrizione regolare della morfologia. Ci fornisce un’informazione comoda ma povera, é per questo motivo che in cartografia, attualmente a qualunque prodotto cartografico viene affiancato un m DTM. C’è un’altro sistema noto per rappresentare le quote, il sistema dei punti isolati, punti in una carta qualsiasi dove sono affiancati dalla rispettiva quota, tale informazione è fortemente localizzata e mal distribuita. Il DTM è ormai un prodotto cartografico indipensabile, perchè le altre informazioni sulla morfologia sono insufficienti. Da ora in poi utilizzeremo lo stesso acronimo per chiamare i MD che abbiamo illustrato. Se ad esempio devo utilizzare un sistema informativo territoriale il prodotto iniziale su cui vado a inserire le informazioni sara un MD (esempio della carta delle frane con tutte le informazioni che dovrei inserire). Un altra applicazione che ha avuto una diffusione enorme (negli ultimi 15 anni) è legata all’applicazione dei DSM per la progettazione di reti di comunicazione cellulare soprattutto in ambito urbano (perché potenzialmente ci sono più utenti). Nelle città sono stati realizzati i 3D city model (modello digitale tridimensionale della città) tutti i capoluoghi provincia ne hanno uno.

Page 58: GEOMATICA Ultima Epoca

Nell’ambito dell’ingegneria civile le applicazioni dei DTM sono innumerevoli, anzi si potrebbe dire che i primi MD sono nati per valutare i movimenti di terra nella realizzazione di infrastrutture a sviluppo prevalentemente lineare (strade e ferrovie). Altre applicazioni sono relative alla protezione civile. I dati di partenza sono relativi ad una nuovola di punti irregolare.

Regolarizzazione del contenuto informativo e altri metodi di rilevamentoCi sono 2 tipi di metodologie di memorizzazione di dati del MD. Li possimno mettere in una griglia regolare grid, o in un modelllo secondo una rete di triangoli (continuo di facce piane triangolari) tin. Nel caso del grid sussiste un problema relativo al passaggio da una nuvola di punti irregolare ad avere un modello regolare, ci sara in mezzo un operazione che cercherà di regolarizzare l’informazione che nativamente abbiamo a disposizione in maniera irregolare. Anche con il modello tin ho un problema analogo, dovremo utilizzare un metodo che ci dice come costruire i triangoli. Per acquisire la nuvola di punti ci sono metodologie molto diverse. La prima che è stata utilizzata (circa 30 anni fa) è stata la derivazione cartografica (primo MD in ambito nazionale e si è proceduto in dipendenza della disponibiltà tecnologica di allora). Conecettualmente è stata fatta un’operazione che voleva acquisire questo tipo di informazione, si è presa una carta stampata e poi è stata quadrettata, e ci si è prefissati di ottenere la quota di ognuno dei punti delle quadrettatura, però non cado mai su una curva di livello o su un punto isolato. Si è fatta un interpolazione lineare (non molto raffinata) della quota tra 2 curve di livello più vicine. Abbiamo già fatto una passo avanti perché abbiamo così costruito un modello grid. Un altro metodo: l’uso delle catrtografia ha permesso di costruire delle banche dati ricche di informazioni per la modellizzazione, però non si poteva costruire un MD più raffinato (accuratezza intrinseca migliore) della cartografia di riferimento. Quindi il limite di questa metodologia era essenzialmente legato alla bontà della base cartogafica di partenza. Un altro metodo che si utilizzava e che si utilizza ancora è il normale rilievo topografico, tale metodologia si usa solo per zone molto limitate (esempi della coltivazione delle cave e monitoraggio dei siti di scarica). Ed è un metodo assistito da uno strumento molto comodo che si chiama 3D laser scanner, che funziona con lo stesso principio del distanziometro soltanto che rileva una quantità enorme di distanze relativamente a punti molto vicini tra loro. Dal punto in cui lui è collocato descrive la superificie che si trova dvanti. Strumento versatile, rilievi veloci e precisi però richiede particolare perizia nel trattamento dei dati. Tutto va bene se metto lo strumento in un punto solo, mentre se voglio una superficie più estesa con la necessità di andare a collocare lo strumento in più punti diversi, devo poi ricucire tutte singoli rilievi che ottengo. il che non è proprio facile. Un ulteriore possibilità per costruire MD, è il telerilevamento in senso stretto. In realtà la fotogrammetria e il telerilevamento sono andati a fondersi e quindi non avrebbe molto senso distinguere le 2 tecniche, comunque si tende a utilizzare il termine telerilevamento per parlare di utilizzo di immagini non ad alta risoluzione (dell’ordine del decametro). Queste immagini si possono utilizzare per vedere come io ho avuto sul territorio variazioni morfologiche significative. Facciamo un osservazione sul GPS, tale sistema sembra obsoleto per costruire MD (ottenere la nuvola di punti sarebbe operazione onerosa), tuttavia l’interesse è cresciuto vista la recente disponibilità di reti di stazioni permanenti GPS per servizi di posizionamento, esso può essere pensato come una sorta di strumento che digitalizza il territorio. Quindi nel momento in cui debba andare a rilevare pochi punti in un ambito limitato con precisione elevata emogenea il GPS può essere un ottimo strumento. Vale la pena citare il rilevamento basato sulle microonde (immagini radar) in quanto siamo all’avangurdia, mettendo a disposizione dell’utenza il sistema cosmo skynet, da cui possiamo costruire MD in situazioni che risultano proibitive dal punto di vista sia della fotogrammetria che de telerilevamento, in cui ci sono limiti sia dal punto di vista logistico e climatico. Questo è uno dei principali argomenti di ricerca del settore. Vediamo come è organizzato un livello di classificazione dei DTM. Consideriamo un livello ben preciso (non il migliore ma è cmq uno dei più accurati). La precisione in quota, è lo sc quad medio che caratterizza la precisione dei punti della nuvola, ma non esattamente (in realtà non è la precisione con cui ho determinato in media i punti della nuvola). Ma si intende la precisione con cui sulla base dei punti della novola,

Page 59: GEOMATICA Ultima Epoca

scelta una certa tecnica posso determinare la quota di qualsiasi altro punto, questo perchè la descrizione è discerta e ci sono tanti altri punti che mi interessano (è raro che mi interessano quelli della nuvola). Questa precisonde dipende dalla precisione dei punti della nuvola e dalla tecnica con cui io passo dalla conoscenza delle nuvola alla conoscenza della quota in quel punto. Altro elemento fondamentale è la spaziatura nel caso in cui io abbia a che fare con un modello grid, nel momento in cui io voglio andare ad avere un informazione morfologica regolare devo decidere anche il passo della griglia. Il terzo elemento è l’errore sistematico, è una caratteristica che va a rappresentare l’errore medio del DTM. Ci sono poi delle caratteristiche accessorie che attengono al DTM vero e proprio, nel caso in cui voglio introdurre informazioni aggiuntive (relative allo scopo) devo pormi il problema della precisione di queste informazioni aggiuntive che devo andare a connotare. Una caratteristica fondamentale che in genere è sempre presente nei dei DTM riguarda le breacklines che sono delle informazioni aggiuntive che vanno a rappresentare dei particolari lineamenti morfologici della zona, che possono essere ad esempio le linee di cresta, le linee che individuano dei particolari morfologici molto importanti (pareti scosciese variazioni di quota rilevanti), linee che individuano dei particolari artificiali come manufatti che introducono una variazione morfologica molto concentrata (diga), cioè tutti quei particolari che sono collegati a caratteristiche morfologiche importanti o alle variazioni di quota. Avviciniamoci alla formazione di strutture di dati grid o tin da una nuvola di dati. Definiamo un SR per il MD. Dobbiamo tenere presente che la nuovola è un insieme di punti riferiti in un ambito 3D, mentre la rappresentazione digitale è in 2D. Il SR del MD se la produzione è per via fotogrammetrica è il SO nel quale noi siamo andati a generare la nuovola di punti, tale SO l’abbiamo definito all’inizio quando ho compiuto l’orientamento dell’immagine. Il SR dell MD non può che essere fisiologicamente il SR nel quale sono andato ad orientare le immagini (conoscendo le CI e per gli stessi punti le CT) ( quanto viaggia sto prof.). Per ogni immagine devo avere a disposizione almeno 3 punti, per risolvere l’edc, quindi saranno le posizione note di questi 3 punti che implicitamente stanno decidendo qualè il SR della mia nuovola. Quindi se ad esempio rilevo con il GPS il SR della nuvola sarà quello associato a quel rilievo (analogamente con gli altri), quindi è la scelta di orientameno iniziale che guida l’esito riguardante il DTM, e questo è fondamentale perchè noi necessariamente dobbiamo conoscere in quale SR ci stiamo muovendo (poi volendo possiamo passare ad un altro). Per passare da una distribuzione irregolare alla distribuzione regolare (griglia), devono sapere come è fatta la griglia devo decidere come è messa rispetto al mio SR e decidere il passo della griglia, questo 2 aspetto è particolaremnte importante. Potrei pensare di scegliere una griglia molto fitta indipendentemente dalla densità della nuvola di punti, analiticamente non ci sono problemi, il problema è invece di ordine logico. Se io voglio creare una rappresentazione di un informazione da un informazione poco densa, in realtà non aggiungo nessuna informazione (non si crea dal nulla), l’informazone che ho all’inizio l’avrò alla fine (non è che un MD fitto sia anche preciso, per questo c’è distinzone tra densità e accuratezza). Quindi il passo dell griglia dovra essere scelto in dipendenda dalla densità della nuvola di punti. Se invece utilizzo un maglia meno fitta della densità dei punti dell nuvola , l’informazione iniziale verrà degradata e mediata in maniera tale che l’informazione ottenuta contenga la mia informazione di partenza ma in una forma diversa (mediata), si deduce che questa situazione è peggiore di quella precedente. Il criterio che si decide di assumere è quello di utilizzare una griglia con spaziatura dello stesso ordine di grandezza della spaziatura media dell’informazione di partenza, così facendo sarà il passo della griglia che ci da l’indicazione di quanto era ricca l’informazione di partenza dal punto di vista spaziale. Vediamo i rispettivi vantaggi e svantaggi dei diversi formati (grid e tin). Nel formato grid l’organizzazione dei dati è semplice, mi basta definire l’origine della griglia (come è collocata ripsetto al SR, origine si intende in alto a sinistra), definire il passo della griglia, il numero di righe e il numero dicolonne. Così facendo non mi serve avere le coordinate di ogni punto ma solo della relativa quota (sapendo la colonna, la riga e la spaziatura, so la posizione). Ci sono altri vantaggi ad esempio se dovessi utilizzare MD diversi delle stesso luogo ma con quote variabili, è molto semplice andare a fare confronti tra MD (esempio della cava e della discarica). Gli svantaggi:

Page 60: GEOMATICA Ultima Epoca

un problema evidente nel caso di rappresentazioni di morfologie molto regolari (piano), perché il modello regolare mette via informazioni inutili (tutte uguali) e quindi può essere molto ridondante, mentre se utilizzassimo il modello tin mi bastano 3 punti per definire tutto il piano. Allo stato attuale si stanno sperimentando modelli grid a passo variabile. Andiamo a vedere come facciamo a costruire un modello tin. Si tratta di andare ad unire con un insieme di trangoli i punti della nuvola, non mi pongo il problema di trasformare l’informazione di partenza. Il primo problema che incontriamo: se io ho punti disposti in maniera irregolare non mi serve più definire ne origine ne passo, per mettere via l’informazione relativa ai punti devo necessariamente registare per ogni punto tutte e 3 le sue coordinate, quindi la memorizzazione può essere particolarmente svantaggiosa. Ho il vantaggio però di decidere il passo, perché non ho la necessità di trasformare l’informazione, perché il reticolo è costruito direttamente dai punti della nuvola (dove la nuvola è densa avrò l’informazione densa, analogamente se è rada, utilizzo l’informazione nativa). Per unire i punti con una rete di triangoli si utilizza un algoritmo, che si basa sulla triangolazione di de lone. Vogliamo che la rete sia univoca rispetto ai punti della nuvola (potrei fare scelte diverse che mi definiscono triangoli diversi), voglio costruire dei criteri sulla base dei quali dato un insieme qualunque di punti la rete sia una e solo una (criterio di un’unicità della rete). Inoltre la conseguenza di questo criterio univoco, porta alla definizione di una rete di triangoli equiangoli. Per definire la triangolazione di de lonè si parte andando a definire preliminarmente quella che si chiama la tessellazione di dirichlet, io prendo 2 punti qualunque considero il segmento che li unisce, considerò l’asse di questo segmento e vado a tracciare la retta sulla quale si identifica questo asse. Ripeto questa operazone per tutti i tipi di collegamento. Questi assi intersecandosi tra loro vanno a suddividere tutto lo spazio nel quale io sto considerando i miei punti in diversi tesselli (poligoni irregolari), questi poligoni irregolari si chiamano poligoni di thiessen (rappresentazione duale dei poligoni di thiessen la triangolizzazione di delonè). I triangoli delonè si ottengono semplicemente andando ad unire i punti vicini, nel senso che sono i centri dei poligoni dei theissen adiacenti. (spiega facendo l’esmpio) La triangolazione di delonè così come la poligonizzazione di thiessen è unica nel senso che nel momento in cui prendo 3 punti qualunque che definiscono triangolo e quindi una circonferenza. Questa circonferenza all’interno non contiene nessun altro vertice della triangolazione. (fa un esempio riassuntivo)

Legenda (abbreviazioni e sigle): SP stazioni permanenti SR sistema di riferimentoEb effemeridi broadcastEp effemeridi preciseS satellite R ricevitoref frequenzatdv tempo di volotr difetto di sincronismo di Rts difetto di sincronismo di Sedo equazione di osservazioneOF osservazione di fase OP osservazione di pseudorangePA posizionamento assolutoPR posizionamento relativoCA coordinate approssimateTR tempo realeMQ minimi quadratiEI effetto ionosferico

Page 61: GEOMATICA Ultima Epoca

ET effetto troposfericoCL combinazione lineareDS differenza singola DD differenza doppiaPI punto indietroCS cycle slipsqm scarto quadratico medioSI sistema immagineSO sistema oggettoST sistema terrenoCI coordinate immagineCO coordinate oggettoCT coordinate terrenoIR infrarossoIN immagine normaleBdp base di presaRDN rete dinamica nazionalegdl gradi di libertàcdp centro di proiezione o di presa (meno frequente) attenzione non sono la stessa cosa mannaggiapdoi parametri di orientamento interno pdoe parametri di orientamento esternoMD modello digitaleedc equazione di col linearitàGCP groundo control pointIG intensità di grigioTG tono di grigioII istogramma di input IO istogramma di output

EVIDENZIAZIONIincertezzeconfuso, forse è meglio riascoltare riferimenti e commenti quest’ultimi superfluiriferimento relativo alle correzioni

Legendaξφλω