1. PARTE I -...

89
Appunti di Reti di telecomunicazioni 2012/2013 1. PARTE I 1. Struttura e caratteristiche delle reti di comunicazione : generalità. 2. Rete telefonica. Struttura di una centrale telefonica automatica. 3. Architettura delle reti di connessione. Condizione di assenza di blocco. i. Formula di Clos e ottimizzazione del costo di clos ii. Struttura S-S-S, T-S-T iii. Formula di Lee 4. Reti per trasmissione dati e per comunicazione fra calcolatori. i. Protocolli: modello ISO/OSI. ii. Rete telegrafica e telex. Sistemi e servizi telematici. iii. Caratteristiche del traffico. iv. Commutazione di circuito, di messaggio, di pacchetto. v. Commutazione veloce di pacchetto (FPS). (da iniziare) 2. PARTE II 1. Reti di comunicazione in area locale (LAN), standard IEEE 802.X i. Aloha, CSMA/CA e CSMA/CD (LAN) (finito) 2. Rete numerica integrata (MNA) nei servizi (DQDB) 802.6. 3. Rete numerica integrata (MNA) nei servizi (FDDI). 4. Reti di comunicazione in area geografica (WAN). i. Servizi a commutazione di pacchetto: Protocollo X.25 ii. Frame Relay iii. SMDS iv. TCP/IP.(tralasciato) 5. Problematiche inerenti l’interconnessione di reti di telecomunicazioni. i. Connessione di reti LAN , Dorsali , Reti virtuali ii. Reti Ethernet. (802.3) 6. ISDN 7. Il trattamento della segnalazione, sistema di segnalazione N.7 (SS7) e ATM 8. ISDN a larga banda e ATM: Generalità, Aspetti architetturali, Aspetti trasmissivi, Livello fisico, ATM e AAL.(appunti bandelli) 9. Il livello fisico nell’accesso alle reti pubbliche : PDH, SDH 10. Il livello collegamento : HDLC e suoi derivati. 11. Il livello rete. 3. PARTE III 1. Reti Wireless & Reti in tecnologia IEEE 802.11 2. Tecnica ad accesso OFDMA 802.16 3. Blue Tooth 802.15 4. Reti in tecnologia IEEE 802.16. cioè WIMAX 5. Tecniche di istradamento in reti fisse e wireless 6. Tecniche per il controllo della congestione 7. Elementi di sicurezza delle comunicazioni. 8. Reti di sensori

Transcript of 1. PARTE I -...

Appunti di Reti di telecomunicazioni 2012/2013

1. PARTE I

1. Struttura e caratteristiche delle reti di comunicazione : generalità.

2. Rete telefonica. Struttura di una centrale telefonica automatica.

3. Architettura delle reti di connessione. Condizione di assenza di blocco.

i. Formula di Clos e ottimizzazione del costo di clos

ii. Struttura S-S-S, T-S-T

iii. Formula di Lee

4. Reti per trasmissione dati e per comunicazione fra calcolatori.

i. Protocolli: modello ISO/OSI.

ii. Rete telegrafica e telex. Sistemi e servizi telematici.

iii. Caratteristiche del traffico.

iv. Commutazione di circuito, di messaggio, di pacchetto.

v. Commutazione veloce di pacchetto (FPS). (da iniziare)

2. PARTE II

1. Reti di comunicazione in area locale (LAN), standard IEEE 802.X

i. Aloha, CSMA/CA e CSMA/CD (LAN) (finito)

2. Rete numerica integrata (MNA) nei servizi (DQDB) 802.6.

3. Rete numerica integrata (MNA) nei servizi (FDDI).

4. Reti di comunicazione in area geografica (WAN).

i. Servizi a commutazione di pacchetto: Protocollo X.25

ii. Frame Relay

iii. SMDS

iv. TCP/IP.(tralasciato)

5. Problematiche inerenti l’interconnessione di reti di telecomunicazioni.

i. Connessione di reti LAN , Dorsali , Reti virtuali

ii. Reti Ethernet. (802.3)

6. ISDN

7. Il trattamento della segnalazione, sistema di segnalazione N.7 (SS7) e ATM

8. ISDN a larga banda e ATM: Generalità, Aspetti architetturali, Aspetti trasmissivi, Livello fisico, ATM e

AAL.(appunti bandelli)

9. Il livello fisico nell’accesso alle reti pubbliche : PDH, SDH

10. Il livello collegamento : HDLC e suoi derivati.

11. Il livello rete.

3. PARTE III

1. Reti Wireless & Reti in tecnologia IEEE 802.11

2. Tecnica ad accesso OFDMA 802.16

3. Blue Tooth 802.15

4. Reti in tecnologia IEEE 802.16. cioè WIMAX

5. Tecniche di istradamento in reti fisse e wireless

6. Tecniche per il controllo della congestione

7. Elementi di sicurezza delle comunicazioni.

8. Reti di sensori

1.1) Struttura e caratteristiche delle reti di comunicazione : generalità

Quando il nodo A vuole comunicare con il nodo B prima ditutto comunica alla rete la sua esigenza e la rete deve selezionare il

cammino più conveniente ad esempio quello più corto. Conclusa questa fase il tutto si riporta al modello sopra fatto cioè quello

end to end. Ci sono anche altre funzioni della rete ad esempio quella di controllare laqualità del servizio. Ad esempio se è una

comunicazione di voce sidovrà controllare la distanza fra i pacchetti che deveessere equa altrimenti si forma l’effetto eco. Oppure

che il tasso d’errore sia rispettato. Se questi parametri non sono rispettati la rete cerca altri percorsi. Un’altra cosa che può capitare

è la rottura di un elemento. La rete può essere organizzata in tanti modie questa organizzazione è chiamata TOPOLOGIA DELLA

RETE. Quando le reti sono nate, prendiamo ad esempio la rete telefonica, la modalità più semplice era quella di stabilire un

collegamento diretto fra un utente e tutti gli altri.

Ogni nodo nella figura sopra è collegato a tutti gli altri nodi. Se un nodo vuole comunicare non deve far fare ad un altro come

tramite ma ha un collegamento diretto. Il grado della rete è buono con questo sistema, il problema è che finché sono pochi nodi

tutto va bene, ma e aumentano diventa problematico. Il numero dei collegamenti è N(N-1)/2, dove N è il numero degli utenti.

Sono state realizzate topologie diverse come la topologia a stella.

Nella rete a stella abbiamo come un nodo centrale che è un dispositivo dotato di una certa intelligenza. Infatti non si comporta in

maniera passiva ma utilizza le informazioni per migliorare il servizio. Ovvero, il nodo centrale mette in commutazione A con B e

via via gli altri nodi a seconda delle loro richieste di comunicazione. Il nodo centrale mette in comunicazione due nodi tramite una

COMMUTAZIONE ovvero è come se selezionasse il binario al quale è destinato un treno proveniente da A. Come un interruttore

con più collegamenti.

La COMMUTAZIONE è il concetto chiave che ha permesso la crescita delle reti di telecomunicazioni. La topologia di una rete

geografica è abbastanza variegata. Con la stella il numero delle linee è uguale al numero degli utenti.

RETE A MAGLIA: in questa topologia di rete gli utenti non dipendono da un unico nodo. Di conseguenza se un nodo si

interrompe li utenti non rimangono necessariamente tagliati fuori ma possono fare affidamenti sugli altri collegamenti presenti. Le

reti possono essere:

- GEOGRAFICHE cioè WAN wide area network

- METROPOLITANE cioè MAN metropolitan area network

- LOCALI cioè LAN local area network Una rete geografica può essere una reteche è estesa a tutta una nazione.

Una rete locale ha un raggio d’azionelimitato, unedificio adesempio. Esempi di reti:

- RETE TELEGRAFICA

- RETE TELEFONICA

- RETE PRIVATA La rete privata è realizzata per scopi precisi.

1.2) Rete telefonica. Struttura di una centrale telefonica automatica

RETE GERARCHICA

Si continua sempre facendo riferimento alla rete telefonica e ai suoi problemi di commutazione

Quello sopra riportato è un esempio di rete telefonica a livello nazionale cioè diciamo partendo da un utente A che si

trova in un certoquartiere della città di Prato e vuole telefonare a un certo utente B che si trova ad esempio in un certo

quartiere della città di Genova. La comunicazione risalerà i vari nodi, i vari centri per ogni zona finché in generale, non

solo nel caso specifico, non si trova la via per andare dall’altro utente. I CRU ovvero Centri di Rete Urbana svolgono

la funzione di aggregare iltraffico di più utenti su un unico traffico che va al CENTRO DI SETTORE. I Centri di

distretto possono avere in certe situazioni un collegamento magliato. Centro nazionale e di compartimento sono

collegati a maglia fra di loro. Un centro di compartimento è solitamente rappresentante ad esempio in Italia di una

regione, comela Toscana o la Liguria. I centri nazionali in Italia sono 3: MILANO, ROMA, PALERMO

Se noi chiamiamo un altro utente che sta a 100 metri di distanza mache ha un centro di settore diverso allora la

chiamata sale la gerarchia finché non trova un percorso che gli fa arrivare la chiamata.

MEZZI TRASMISSIVI

Per il telefono, quello standard, i mezzi trasmessivi sono i doppini di rame.

La banda telefonica va normalmente da 0 a 4 khz. Successivamente le varie bande da 4 khz vengono riunite. Anche il

collegamento sopra gerarchicamente è di rame. I centri di settore a loro volta vengono aggregati e si usa magari il cavo

coassiale. Risalendo poi la fine è la fibra ottica.

Questo è il concetto di multiplexing cioè di riunire più linee in una sola. Più utenti, più comunicazioni in una unica

linea, una unica comunicazione che al termine verrà ridivisa cioè ne verrà fatto il demultiplexing.

TELFONIA: - Analogica - Numerica

La telefonia analogica è quella con la banda da 0 a 4 khz.

In realtà la banda effettiva è più bassa e va da 300 a 3400 Hz. Quindi un collegamento analogico telefonico deve avere

questa banda passante.

La banda rappresenta per uno specifico materiale l’intervallo di frequenza al quale le alterazioni che subisce

nell’attraversarlo sono basse.

Come si può vedere nel grafico sopra riportato, un segnale elettrico con frequenza che varia dai 10

ai 100 khz subisce una attenuazione lungo l’attraversamento del mezzofisico che è maggiore prima

dei 10 khz e sopra i 100 khz mentre all’interno di quel dato intervallo l’attenuazione è minimae

quindi quel dato intervallo di frequenza, quella banda passante è buona per quel dato mezzo

trasmissivo.

Da qui nasce il concetto di modulazione cioè trasferire un segnale dalla banda base a una banda

ideale per il mezzo attraverso il quale si vuole trasmettere.

Cioè si modifica l’intervallo di frequenza di un segnale per trasmetterlo nell’intervallo ideale per un

dato mezzo trasmissivo a noi più congeniale.

Andiamo a prendere un centro di rete urbana che comunica con uno di settore.

Per riunire le bande degli utenti usa il multiplexing in frequenza.

Questo vuol dire che se abbiamo quattro segnali ognuno con una banda di 4 khz, tutti che

cominciano da 1 khz e arrivano a un max di 5 khz cioè 5-1, 4 khz di banda passante, allora per fare il multiplexing in

frequenza li riattaccheremo uno dopo l’altro occupando una banda 4volte superiore e che va mettiamo da 1 a 1+4*4

cioè da1 a 17 khz,17-1 = 16 / 4 = 4.

Quindi avremo un segnale unico, un segnale elettrico unico che occupa però una banda di 16khz e

che al suo interno porta con sé 4 segnali diversi.

FDM = Frequency Division Multiplexing

Nella figura sopra vediamo un esempio. Ora forse non sarà completamente corretto, probabilmente nei numeri. Ma

vediamo come un singolo segmento nella parte A viene unito ad altri 3 per ottenere un segnale unico che occupa una

banda 4 volte superiore. Poi si passa alla zona C dove viene fatto il demultiplexing e quindi tramite un filtro passa

banda si eliminano le frequenze che non ci interessano e si lascia solo quella del secondo segnale a partire da

sinistra, per così dire. Successivamente facciamo la demodulazione di frequenza cioè riportiamo le sue frequenze ai

valori originali. Anche dalla zona A alla zona B abbiamo fatto prima la modulazione di frequenza per cambiare le

frequenze e spostare per così dire il rettangolino al suo posto nel treno di segnali, e poi vi abbiamo unito gli altri

segnali creandone uno unico e quindi facendo il multiplexing. Il processo per separarei segnali è realizzato tramite un

filtro passa banda. Un filtro passa banda non è altro che la successione di due filtri, uno passa basso e uno passa alto,

rispettivamente per la parte precedente al segnale rispetto alla frequenza e uno per la parte successiva.

Considerando il segnale telefonico che si diceva va da 0 a 4000 Hzsi possono individuare diverse zone.

Questo in quanto si diceva che la banda effettiva va dai 300 ai 3400 Hz. Quello che rimane sono due zone che

definiamo come banda di guardia, la prima dagli 0 ai 300 e la seconda dai 3400 ai 4000.

La banda dell’intero canale, cioè da 0 a 4000 è formata dalla banda di guardia + la banda utile. Si dice che la banda di

guardia è composta da due componenti. La banda oggigiorno è un mezzo pregiato, cioè rispetto ai servizi offerti dalle

aziende di telecomunicazioni è una risorsa che viene fatta pagare in modo discreto. I segnali vengono raggruppati come

si diceva grazie al multiplexing in frequenza, cioè l’FDM.

I metodi con cui si aggregano i vari segnali sono stati definiti in maniera rigorosa.

1.3) Architettura delle reti di connessione. Condizione di assenza di blocco.

Qui sopra è rappresentato un autocommutatore. All’inizio della comunicazione nella rete viaggia una informazione ricevuta dalle

apparecchiature per permettere di stabilire un percorso. Quando si chiamaun amico col telefono, si fa il numero e si aspetta il tono

di libero o occupato ecc., poi c’è la comunicazione vera e propria. Questa è L’INFORMAZIONE DI SEGNALAZIONE. Arriva

all’ingresso degli autocommutatori e viene inviata all’unità dicontrollo, che capisce cosadeve fare e interagisce con la rete di

connessione che eventualmente trasferisce l’informazione sull’uscita quando essa non finisce nell’autocommutatore, ovvero non

necessita di essere inoltrata ad altri autocommutatori.Le reti di connessione sono sistemi complessi che permettono il

trasferimento di un flusso informativo da una linea di ingresso a una linea di uscita. Il compito è quello di stabilire una

connettività elettrica fra l’ingresso e l’uscita. Questo collegamento dovrà rimanere attivo per tutto il tempo necessario al

completamento della connessione fra l’utenteA e l’utente B. Una volta terminata la necessità la rete di connessione si configurerà

nuovamente, si resetterà. Questa funzione è sempre fatta grazie alle segnalazioni di rete. Quindi la rete di connessioneresetta il

collegamento una volta terminata la comunicazione. Nel telefono il fatto che una telefonatacessi, resetta da solo la rete.

Un autocommutatore deve poter:

- istanziare un collegamento - mantenere il collegamento - abbattere il collegamento

Nel caso di FDM -> telefonia analogica, il commutatore deve mantenere il collegamento elettrico continuo fra chi chiamaechi

riceve, per forza. Viceversa nella telefonia numerica TDM o meglio PCM, deve essere in collegamento solo durante il tempo in

cui si sincronizza su base temporale, sul pezzettino, lo slot che deve ricevere.

RETI DI CONNESSIONE e TECNOLOGIE REALIZZATIVE:

Due tecniche base: - A divisione di spazio - A divisione di tempo

Quelle a divisione di spazio possono andare bene sia per la telefonia analogica che digitale o numerica.

Quelle a divisione di tempo sono strettamente legate alla telefonia digitale, cioè numerica.

Quando si vuole fare un collegamento fra questi fili elettrici incrociati si fa sul loro incrocio, come piazzare un nodo. La modalità

di chiusura dipende dalla tecnologia usata, che ha ovviamente subito progressi nel tempo. All’inizio c’erano le impiegate che

inserivano direttamente le spine nelle prese giuste come si vede nei vecchi film, poi i commutatori elettromeccanici, relé, con

ritardi notevoli nel tempo. Successivamente siamo passati all’elettronica. Con l’FDM quando ho chiuso il collegamento, tale deve

rimanere per tutta la comunicazione. Con la TDM il tempo deve essere sincronizzato sul singolo slot.

TRAMA: intervallo di tempo necessario a trasmettere le sequenze di bit associate agli utenti che condividono una linea di

collegamento. Nel caso del telefono avendo una velocità di 64Kb/s per ogni canale e essendo ogni singolo slot per ogni

singolo canale 8 bit, si avrà che io posso trasmettere uno slot in 125 µs. Di conseguenza se una trama è formata da 4 canali

ovvero da 4 slot e voglio trasmetterli nello stesso tempi di 125 µs, dovrò avere logicamente una velocità 4 volte superiore

ovvero di 256 Kb/s. Se il numero di utenti aumenta, il tempo in cui va trasmesso uno slot diminuisce e il ritardo dei relé incide

sempre di più, soprattutto parlando di TDM. Per questo èstato molto utile il commutatore elettronico successivamente ai relé. Di

solito si associa ad ogni struttura di connessione un fattore di costo. Nel caso della divisione di spazio questo fattore di costo è

uguale al numero di collegamenti che deve garantire. Se ci sono n linee di ingresso e n linee di uscite il fattore di costo è C =

N*N. Consideriamo la telefonia numerica. Ogni linea è come una trama che è suddivisa in canali. Ogni canale è un utente. La

trama sarà suddivisa in Nc canali. Quando in concomitanza con un canale si ha la richiesta di una uscita si fa in modo che lo

stesso slot sia riportato sul canale di uscita cioè su uno slot sincronizzato sulla trama di uscita. Il canale commutato mantiene la

sua posizione temporale .Da un punto di vista costruttivo i TimeSlotInterchanger sono assimilabili a memorie.

STRUTTURE T (TEMPO) (divisione di tempo)

Sopra una rappresentazione di una memoria a slot. Il numero di celle è uguale al max numero di canali fra ingresso e uscita. Se

l’ingresso è 10 slot e l’uscita è 20, le celle della memoria devono essere 20. Supponendo che siano uguali gli ingressi e le uscite,

le celle sono N. Ogni cella contiene 8 bit ad esempio se facciamo riferimento a un caso classico della telefonia.

Esistono 2 modalità realizzative:

- SCRITTURA SEQUENZIALE - LETTURA CASUALE

Cioè… La prima ha scrittura sequenziale e lettura casuale. La seconda ha scrittura casuale e lettura sequenziale.

Qua per casuale si intende che non si sa a priori dove una informazione dovrà uscire. Si intende che l’uscita o l’entrata, a secondo

del metodo adottato, che rappresenterà, dove deve andare l’output, sarà scelta in basealle richieste di connessione e quindi alle

decisioni dell’unità di controllo. Quindi non potendo sapere a priori queste decisioni si dice “casuale”.

Permutazione di un canale: posso cambiare posizione ai canali all’interno della trama però non cambia la linea. Insomma, la linea

è sempre la stessa, ma sposto temporalmente lo slot 1 sullo slot 8. Quindi un canale entra in prima posizionee esce in terza

posizione ad esempio. Con la prima modalità con la scrittura sequenziale, il primo canale occupala prima posizione e così via, poi

seconda, poi terza, per il secondo e terzo canale. Con la lettura casuale non c’è una sequenza a priori con cui viene creata la trama.

Allora l’unità di controllo cambierà l’uscita per ricostruire la trama nel modo voluto. Sul primo tempo di canale metto 1 in vetta e

l’altro canale che va nel primo slot in uscita. Quindi in una volta fa le due operazioni. Un problema è che si introducono dei tempi

di ritardo, quindi se il primo slot lo voglio mandare in terza posizione ci sarà un ritardo di 2 canali cometempo. Il ritardo è reso

tollerabile. Con l’altra filosofia si scrive gli slot già con la posizione che devono avere in uscita, cioè scrittura casuale e poi si

legge in sequenza cioè lettura sequenziale. I due metodi sono simmetrici sostanzialmente. Il fattore di costo: il fattore critico per il

costo di queste strutture è la memoria o meglio il suo tempo d’accesso, infatti il costo è proporzionale ad esso. Può essere così

definito: ta = 125 µs / 2N dove N sono gli slot. Nel caso non sia simmetrico cioè il numero di canali in ingresso sono diversi dal

numero di canali in uscita si mette nella formula l’N più grande. Entrambe le tecniche hanno limitazioni. Una consente il cambio

di canale e l’altra di linea, stiamo parlando ovviamente, rispettivamente della tecnica a divisione di spazio e della tecnica a

divisione di tempo. Quindi la soluzione è una struttura ibrida con blocchi sia S cioè di spazio, a divisione di spazio e sia blocchi T

cioè di tempo, a divisione di tempo.

Successivamente lavorare su queste strutture per la riduzione dei costi. Nelle strutture a divisione di tempo può succedere che il

tempo necessario sia troppo piccolo. Esiste però un rimedio. Con le strutture ibride si aumentano le funzioni e si riducono i costi.

Quindi le strutture base per realizzare le reti di connessione sono di due tipi: quelle a divisione dispazio e quelle a divisione di

tempo. Reti di connessione eterogenee: prevedono l’utilizzo di strutture a divisione di tempo e strutture a divisione di spazio. Per

fare sia il cambio di canale sia il cambio di linea. Altre strutture sono state trovate per minimizzare il fattore di costo. Per integrare

il tutto si può parlare di reti a più stadi:

- aumento delle funzioni di commutazione - ridurre il costo => Ci sono strutture che fanno tutte queste cose.

STRUTTURE DI COMMUTAZIONE A DUE STADIDI TIPO SS(DIVISIONE DI SPAZIO)

Consideriamo il caso in ci si hanno 25 linee di ingresso con 8 linee di uscita.

C è il fattore di costo.

Ni le linee in entrata. Nu le linee in uscita.

C = Ni x Nu = 25 x 8 = 200

Il costo della rete di connessionese fosse realizzata con una unica struttura S cioè a divisione di spazio è 200.

Per farla a due stadi S si suddivide le 25 linee in ingresso in 5 gruppi da 5 linee. (empirica) 5 gruppi in ingresso e 4 gruppi in

uscita. Il primo stadio S avrà ingresso a ciascun elemento 5 linee.

Il secondo stadio avrà per ogniblocco 2 linee in uscita. Il numero di uscite da un singolo blocco

del primo stadio S è uguale al numero di blocchi che costituisce il secondo stadio. La prima linea

del primo blocco in entrata è la prima linea del primo blocco in uscita. Il costo sarà per questa

struttura a 2 stadi C = 5C1 + 4C2 = 5(5*4) + 4(5*2) = 140. Cioè la somma dei costi delle

singole strutture S. Per completare l’analisi bisogna introdurre un nuovo concetto, la probabilità

di blocco.

PROBABILITA’ DI BLOCCO (dovuta alla struttura)

Una rete di connessione si dice bloccante dal punto di vista della struttura se considerate le richieste di connessione in ingresso

non in conflitto fra di loro, questo vuol dire che sono rivolte a linee di uscita diverse, in questo caso essendo le richieste in uscita

disponibili, la struttura si dice bloccante se la rete non riesce a realizzare questa operazione di comunicazione. Una struttura in

genere è non bloccante per definizione. Vediamo ora se anche la struttura di prima è non bloccante. Se si considerea che fissato

un blocco in ingresso, prendiamo il blocco numero 1, fissato blocco Sn1 primo stadio.

Linea n1 -> Uscita 1 del blocco S3 secondo stadio

Linea n2 -> Uscita 2 del blocco S3 secondo stadio

Chiedono uscite distinte. Ma se si va a vedere fra i due blocchi c’è una sola linea di connessione e le linee diventano così

concorrenti.

Quindi la struttura in questo caso è bloccante. Se dai blocchi di entrata raddoppiassi le linee in uscita al primo stadio e quindi

quelle in entrata al secondo avrei risolto.

Il costo del primo stadio però diventerebbe doppio, come quello del secondo stadio.

Quindi con queste soluzioni si riduce il costo riducendo le funzioni e le prestazioni. Bisogna considerare allora la statistica. Si

valuta la probabilità di avere un conflitto che deve essere relativamente bassa, ovviamente. Vediamo quindi ora le strutture T-S

Fissati Ni = Nu cioè il numero delle linee in ingresso uguale al numero delle linee in uscita…

Strutture T-S

Fissati Ni = Nu cioè il numero delle linee in ingresso uguale alnumero delle linee in uscita…

Per ogni struttura di ingresso una struttura T cioè a divisione di tempo. Qui si suppone si

possa fare sia il cambio di canale che di linea.

LINEA DI INGRESSO N1

CANALE 7 -> CANALE 9 LINEA USCITA 7

CANALE 7 -> CANALE 9 (questa la fa il blocco T)

Mentre il blocco S parta da linea 1 a linea 7. Il costo delle strutture singole T è relativo al tempo di accesso e nella struttura S con

il solito NxN. Il costo non viene unito ma stabilito in due parametri.

Le strutture T-S sono bloccanti.

Esempio:

Canale 3 e Canale 8 linea 1 in ingresso voglionoandare rispettivamente in Canale 6 della linea4 e canale 6 della linea 8. Questo

non può essere fatto per un suo blocco strutturale. Queste strutture aumentano la qualità e le funzioni, ma sono comunque

bloccanti.

Strutture S-T

Esempio: linea 1 canale 7 in linea 7 canale 9

linea 1 -> linea 7 e poi

canale 7 -> canale 9

Altro esempio: Linea 1 canale 3 -> linea 4 canale 6 ;Linea 1 canale 8 -> linea 8 canale 6

In questo caso la situazione di prima non blocca.Qui c’è comunque un blocco. Se si ha la stessa linea in uscita e slot diversi.

Strutture S-S-S e T-S-T:Soluzione blocco dei due stadi e riduzione del costo.

STRUTTURA S-S-S

N = numero linee in ingresso

n = numero linee in ingresso a ciascun blocco del primo stadio

N / n = numero di sotto gruppi

Il terzo stadio è simmetrico al primo… vediamo lo schema!

Le linee di ingresso del secondo stadio di ogni blocco sarà N/n.

Il criterio di connessione fra secondo e terzo è uguale.

K uscite di ciascun blocco

In base a k definisco il numero di blocchi del secondo stadio che sono appunto k.

Qui nell’S-S si aveva il blocco, se si voleva andare alle stesse linee di uscita.

Con l’S-S-S… A patto che k sia scelto in maniera adeguata può risolvere il problema del blocco della S-S.

Per quanto riguarda il fattore di costo, questo sarà uguale alla somma dei costi dei singoli elementi.

C1 = N/n x Cb1 = N/n x( n * k) = N x k

C2 = k x Cb2 = k x (N*N/n*n)

C3 = C1

C = C1+C2+C3 = 2NK + K*(N*N/n*n)

Il parametro k è importante sia per il costo che per garantire il funzionamento non bloccante della struttura.

Strutture a più stadi: Quelle non omogenee aumentano i gradi di libertà permettendo sia i cambi di canale sia quelli di linea.

Le strutture a due stadi presentano situazione di blocco che si vedono di risolvere con le strutture a più stadi.

C = 2Nk + k(N*N/n*n)

Definito questo costo ora dobbiamo ridurlo andando a interagire con le variabili, ma avendo

comunque il blocco tendente a 0. Questo problema è stato risolto da CLOS.

CONDIZIONE DI NON BLOCCO DI CLOS

Con questa condizione si cerca di definire k = f(n). Ci si riferisce a un caso particolare.

Si cerca di trovare ed osservare il caso peggiore che può capitare: WORST CASE.

Questo approccio più pratico che tecnico. Cioè se si dimostra che funziona con la condizione

peggiore allora dovrebbe funzionare anche con gli altri.

Condizioni del WORST CASE di CLOS:

(1)Supponiamo una sola linea libera in ingresso, la linea n le altre n-1 linee sono occupate e che voglia essere interconnessa con

l’ultima uscita, quella disponibile del terzo stadio.

(2)Facciamo che le richieste sul primo stadio sono disgiunte da quelle in uscita, cioè non sono dirette al suo blocco, ma ognuna a

un blocco del terzo stadio diverso, per far questo occupano ciascuna un blocco del secondo stadio, quindi n-1 linee in ingresso ,

n-1 secondi stadi usati. Nessuna delle richieste in ingresso è una di quelle in uscita. Ovvero nessuna delle richieste di

ingresso al primo stadio è una di quelle che occupa le n-1 uscite del terzo stadio interessato.

(3)Queste uscite sono occupate da richieste provenienti da n-1 diversi stadi in entrata che occupano n-1 blocchi del secondo

stadio. Bisogna realizzare la connessione sottostando ai vincoli e mettendo in relazione k con n. A questo punto l’unico modo di

far comunicare l’ingresso con l’uscitarichiesti è di aggiungere un blocco al secondo stadio oltre i 2(n-1) già usati in ipotesi.

K = n – 1, k deve essere così => K = (n-1) + (n-1) + 1 = 2n – 1

Il primo (n-1) è per il vincolo sugli ingressi e il secondo è per i vincoli sulle uscite. Questo K = 2n -1 è il numero minimo di k

perché la rete non sia bloccante. Ora rimane da risolvere la riduzione di costo.

Condizione di Clos

a) Si vuole ottenere la condizione (in termini di numero di matrici dello stadio centrale) che consente di ottenere una matrice a

tre stadi non bloccante;

b) A tale scopo si considerando due utenti generici A e B che vogliono comunicare e per i quali è necessario trovare un percorso

dalla matrice i del primo stadio di appartenenza di A alla matrice j del terzo stadio a cui appartiene B

c) Ci si pone nella condizione peggiore ovvero nel caso di massima CONTESA tra le risorse necessarie all’interconnessione tra A

e B

d) Tale caso si presenta quando tutti gli altri n-1 ingressi della matrice i sono occupati e tutte le altre n-1 uscite della matrice j

sono altrettanto occupati ma tali due gruppi non desiderano essere interconnessi (“non si parlano tra loro”)

e) Sono quindi necessarie n-1 matrici per collegare il primo stadio al terzo stadio per gli utenti di i; n-1 matrici per collegare il

terzo stadio al secondo stadio per gli utenti di j e quindi per poter far parlare A con B è necessaria un’ulteriore matrice:

K≥2(n-1)+1 ⇒K≥2n-1 (condizione di Clos).

OTTIMIZZAZIONE DEL COSTO DI CLOS

Ora da k troviamo n. Quindi in una topologia CLOS sono necessari un numero di cross point pari a : 2Nk+k((N/n)^2)

Se è valida la condizione di CLOS allora sono necessari C = 2N(2n – 1) + (2n – 1) (N*N/n*n)

Di solito si gestiscono numeri di linee sufficientemente grandi quindi n >> 1. Calcolando la derivata rispetto ad n (trascurando

l’unità) e ponendola uguale a zero si ottiene => C = 4N - 2(N*N/n*n)=0 =

che il numero di crosspoint è minimizzato se (perché si è trascurato il -1). In questo caso il numero di crosspoint

necessari risulta

che per N molto grandi risulta molto minore di

Usando una derivata si arriva al fatto che Ctot =n= √ e Cmin= √

Rispetto a queste strutture: C=N*2 , N >> 1

Se N è molto grande, nelle strutture a 3 stadi si garantisce il non blocco e costano anche meno.

Ci sono due vincoli per rispettare questa ottimizzazione.

- N deve essere un numero intero. - N/n deve essere un numero intero.

Se si esce da questi parametri bisogna usare la formula generale, ma il k deve essere calcolatao sempre con CLOS, cioè k = 2n – 1

per fare almeno una rete che anche se costa di più almeno non è bloccante.

STRUTTURA T-S-T

Se CANALE3 LINEA 1 -> CANALE 8 LINEA 4 e CANALE 7 LINEA 1 -> CANALE 8LINEA 2

Non è realizzabile con una struttura T-S, ma con questa si.

CANALE 3 LINEA 1 ->T CANALE8 LINEA 1 ->S CANALE 8 LINEA 4 ->T CANALE 8 LINEA 4

CANALE 7 LINEA 1 ->T CANALE10 LINEA 1 ->S CANALE 10 LINEA 2 ->T CANALE 8 LINEA 2

Vogliamo una struttura T-S-T non bloccante e a costo minimo. Per vedere il costo minimo occorre immaginare che la struttura sia

utilizzata per una sola trasposizione T.

La riduzione di costo viene associata a un singolo blocco. Con ta =125 µs/2N , ta= 125 µs/2X (ta segnato). Con le strutture T-S-T

si riescono a gestire le condizioni di blocco per le strutture a due stadi. Andiamo a vedere come si analizza il problema relativo

alla condizioni di non blocco. Consideriamo anche in questo caso l’analisi del caso peggiore. Se si soddisfa la condizione

peggiore allora in generale la struttura non è bloccante.

CLOS: Si considerala prima linea di entrata e l’ultima uscita.

CANALI IN INGRESSO N

n: CANALI IN INGRESSO A CIASCUNA TRAMA INGRESSO / USCITA

L = N/n NUMERO DI LINEE INGRESSO / USCITA.

Si considera che in ingresso n-1 canali sono occupati (nel primo blocco in entrata). Sull’uscita n-1 canali occupati, un solo canale

libero.

K = numero di canali che compongono le trame in uscita del primo stadio. K > n

Si va a peggiorare questa situazione supponendo che nessuno dei canali occupati in uscita corrisponda a quelli in entrata.

K = n-1 + n-1 +1 = 2n-1 sempre la condizione di Clos.

Prendiamo il tempo di accesso come ta = 125 µs / 2k -> ta ridotto ottenuto. ta = 125 µs / 2N -> ta della struttura di partenza.

STRUTTURE A 5 STADI

Si riferiscono principalmente a strutture di tipo S. Lo stadio centrale è composto da blocchi che hanno il numero di ingressi

uguale a quello delle uscite, questo per le S-S-S. Si deve arrivare a una struttura S-S-S-S-S dove il blocco centrale è una S-S-S,

utilizzando la stessa metodologia delle S-S-S, Clos. Il costo della struttura diminuisce, ma dovrebbe aumentare quello della unità

di controllo. Nel caso di una struttura T-S-S-S-T la riduzione dei costi è minore. Vi è una certa probabilità di blocco. Vediamo

come si modificano le strutture a 3 stadi introducendo la probabilità.

FORMULA DI LEE per i commutatori bloccanti

Prendendo in esame una struttura S-S-S… Si vuole connettere una linea del primo blocco con una linea del terzo blocco. Ai

Probabilità di avere una richiesta di connessione per linea ingresso 1/k = Probabilità di sceltadi una singola linea in uscita sul

primo blocco. Uscita occupata primo stadio = n*a / k = probabilità che una delle linee sia occupata.

P=n*a / k= indica la probabilità che sia occupata una linea in uscita alprimo blocco e che sia occupata una linea di

ingresso al secondo blocco. Qual è allora la probabilità che un cammino sia occupato?

P = (n*a / k), (1-P) sarà la probabilità che sia libera una linea.

Probabilità di collegamento disponibile (1-P)^2

Naturalmente 1-(1-P)^2 la probabilità che sia occupata.

Supponendo che il numero di linee in uscita al primo blocco sia k e che k < 2n -2. Qual è allora la probabilità che la data linea in

ingresso possa non essere connessa alla linea in uscita?

PBLOCCO= [1-(1-P)^2]^k

Bisognerà specificare a, mentre k e n sono legati alla struttura. Fissato n, si dovrà trovare k tale che venga con vincolo su

PBLOCCO in modo che venga k < 2n -2.

ESEMPIO: n = 120 a = 0,7 k = 239 (di Clos) => Pblocco = 10^-7

Si trova che per k = 128 (Lee) abbiamo una Pblocco di circa 10^-7 quindi con Lee abbiamo risparmiato molto.

La teoria di Lee non è perfetta ,è abbastanza approssimata ma nella pratica è buona ed è diventata uno standard

Per ridurre i costi di un commutatore si tollera una possibile (limitata) probabilità di blocco dell’apparato; sono state proposte

diverse approcci alla valutazione (approssimata) della probabilità di blocco di un sistema di commutazione multistadio. La

soluzione più elementare di questo problema è dovuta a C.Y. Lee. Viene indicata con p l’utilizzazione di una singola linea ovvero

la frazione di tempo nella quale la linea è occupata. Questa quantità è anche pari alla probabilità di impegno della linea (line

busy).La probabilità che la linea sia libera (idle) è q=1-p

a probabilità di blocco sperimentata dagli utenti è uno degli indici prestazionali (Grado di Servizio) che qualifica un operatore.

Altri aspetti sono il ritardo sperimentato end-to-end, la qualità nella trasmissione, etc.; una probabilità di blocco dell’ordine di

è tipicamente accettabile.

La probabilità di blocco sperimentata da un utente che può impegnare uno tra n link indipendenti è

La probabilità che la chiamata end-to-end venga bloccata quando deve attraversare n link in serie è pari a

B= probabilità che tutti i percorsi siano occupati == (probabilità che uno dei percorsi sia occupato) = (probabilità che

almeno uno dei link nel percorso sia occupato) =

q′=probabilità che un link inter-stadio sia libero = 1-p′

{

} {

}

1.4) Reti per trasmissione dati e per comunicazione fra calcolatori.

Il traffico dati è quello caratterizzato per lo studio che stiamo facendo ed è caratterizzato da almeno 3 qualità.

- NON CONTINUITA’ TEMPORALE O INTERMITTENZA: al server viene fatta una richiesta dal client, il server elabora e nel

mentre non vi è traffico. Da questo ultimo principio è nata l’ADSL.

- ASIMMETRIA: il traffico dati può presentare a seconda della direzione delle caratteristiche diverse di consistenza. Ad esempio

se un clientrichiede un file al server, la richiesta del client rappresenterà un piccolo traffico rispetto all’invio del file dal server

verso il client.

- AFFIDABILITA’: necessita di ricevere i dati con un basso contenuto d’errore. Questi sono problemi tipicamente di livello

fisico, ma con le reti informatiche si sono introdotte delle tecniche per garantire una soglia d’errore bassa. Questo viene

implementato da applicazioni speciali.

Questi tre sono i requisiti base che sono trasversali. Altri si sono aggiunti come la sicurezza che viene applicata a trasferimenti fra

banche ad esempio. Il trasferimento di dati fra calcolatori si basa su procedure standard chiamate protocolli.

PROTOCOLLO:I protocolli si associano a una serie di operazioni definiti per fare una certa cosa. Un protocollo è una serie di

regole. Questo accade anche fra due persone che si incontrano e si salutano. Si usa in genere uno schema base, prima salutare, poi

fare una domanda, attendere una risposta, poi di nuovo salutarsi ecc.. Tutte le operazioni che devono essere fatte per far

comunicare utenti sono state schematizzate a gerarchia di livelli.

Sono stati individuati dei contenitori all’interno dei quali sono racchiuse tutte le operazioni che hanno le finalità di esprimere un

servizio comune. Questi contenitori vengono chiamati LIVELLI. I livelli possono essere immaginati come i piani di un palazzo.

Per RETE APERTA si intende che dispositivi costruiti da aziende diverse possono cooperare all’interno di una stessa rete

tramite regole comuni. In pratica poi non si utilizza a pieno questo vantaggio.

Per il progetto di una rete occorre definire a priori le modalità tramite le quali la linea scambia informazioni.

- FULL DUPLEX: la stessa linea viene usata insieme per trasmettere e ricevere (mentre ti parlo ti posso anche ascoltare)

- HALF DUPLEX: parliamo una volta per uno, o trasmetto o ricevo. Nella half duplex si trasmette e si riceve a banda piena.

Occorre poi specificare il formato delle informazioni. Un altro concetto importante è quello delle primitive di servizio.

PRIMITIVA: Tipicamente le primitive sono classificate in alcuni tipi:

- REQUEST: richieste di attivazioni di operazioni specifiche TESTATA.ESTENSIONE, CHIAMATE.REQUEST, dove

chiamate è il comando e requeste il tipo di comando.

- INDICATION: informano sulla richiesta fatta

- RESPONSE: risposta di una richiesta

- CONFIRM: confermano che il servizio è stato effettuato

SERVIZIO: Insieme di primitive

Classificazione dei servizi:

- servizi orientati alla connessione (Connection Oriented)

- servizi non orientati alla connessione (ConnectionLess)

Il primo richiede che il cammino sia costruito prima di mettere in comunicazione gli utenti, fase di set-up. Successivamente questi

servizi useranno quel cammino fino alla fine della comunicazione. C’è un ritardo iniziale dovuto al tempo in cui si stabilisce il

cammino, ma poi dopo è più veloce perché il cammino è fisso e conosciuto. Questi servizi sono per applicazioni specifiche come

la voce in forma digitale. I servizi non orientati alla connessione sono quelli per i quali si privilegia la fase di invio a quella di

stabilire un cammino. Questo diventa un vantaggio se devo trasmettere informazioni in modo sporadico. Questa modalità è quella

solitamente usata per il trasferimento di dati.

Affidabilità dei Servizi

- AFFIDABILI si richiede un riscontro sulla trasmissione. - NON AFFIDABILI

- RAGGRUPPARE FUNZIONI OMOGENEE IN INSIEMI DETTI LIVELLI: organizzazione gerarchica fra livelli.

- STANDARDIZZARE LE MODALITA’ DI SCAMBIO DI INFORMAZIONI FRA I VARI LIVELLI VICINI

Lo scopo è di semplificare, se si fanno modifiche a un livello ciò non si ripercuote su tutta la PILA, cioè sugli altri livelli. La

ISO, ha standardizzato il tutto con il modello OSI, che prevede 7 LIVELLI PROTOCOLLARI, che sono più importanti via via

che si sale.

1) FISICO :il livello fisico ha il compito di gestire i veri e propri mezzi trasmessivi. Trasmissione numerica dei segnali. Fissato il

mezzo fisico si occupa della eventuale modulazione. Questo livello gestirà il singolo bit per trasmettere a distanza.

2) COLLEGAMENTO: ha il compito di gestire in maniera affidabile il trasferimento dell’informazione su base link,

collegamento, fra apparecchio e apparecchio. Deve controllare il tasso di errore. Il livello fisico va a scegliere delle modalità di

CODIFICA che servono a proteggere l’informazione. Fissato un blocco di bit, secondo tecniche matematiche, si va ad aggiungere

dei bit detti di ridondanza, cioè in più, che evidenziano se ci sono degli errori, e a volte permettono di correggerli. Il livello fisico

decide la codifica e la effettua. Quello di collegamento fa la verifica sui bit prendendo il risultato della ricezione ed effettua delle

verifiche tramite delle tecniche chiamate ARQ. Fatto il controllo in ricezione con le ARQ, se è negativo, il sistema richiede al

trasmettitore la ritrasmissione del blocco dati. Per gestire queste situazioni esistono diverse procedure e protocolli:

STOP AND WAIT: il trasmettitore aspetta un riscontro, aspettando senza trasmettere. Se il riscontro è positivo continua a

trasmettere altrimenti ritrasmette il dato precedente. Si dice metodo a interruzione.

GO BACK N: prevede che continui a trasmettere durante il tempo di attesa del riscontro. In questo caso quando un pezzo è

sbagliato il trasmettitore riceve la segnalazione e nel mentre il ricevitore ignora quello che è stato mandato dopo. Il

trasmettitore poi ritrasmetterà da quello sbagliato in poi.

SELECTIVE REPERT: prevede che quando si riceve un pacchetto con errore il ricevitore continua a ricevere. Scarta solo

se c’è errore e il trasmettitore manda nuovamente solo quelli in errore. L’ultimo ovviamente è il migliore, ma anche il più

difficile da gestire e coinvolge anche funzioni a livello superiore.

3) LIVELLO RETE: Questo livello è caratterizzato da funzioni che sono proprie del campo delle reti. Quelle tipiche sono di

INSTRADAMENTO, cioè quelle che permettono di individuare il percorso migliore in una rete per trasmettere l’informazione

dalla sorgente al ricevitore. Altre sono quelle di CONGESTIONE: sono funzioni preposte a evitare che per esempio alcuni tratti

della rete vengono scelti con una frequenza troppo alta, cioè che siano sovraccaricati rispetto al loro target minimale.

Questi primi tre livelli costituiscono la parte di rete perché in un sistema che prevede l’intera connessione attraverso nodi di rete

vengono utilizzati in tutti i nodi. Ponendo di avere due macchine che sono collegate tramite due nodi, solo le suddette macchine

applicheranno anche i livelli superiori della pila protocollare, mentre i nodi useranno solo questi 3 livelli: fisico, collegamento,

rete, per comunicare con i due terminali utente, le due macchine end to end. Questo, posto il fatto che i nodi siano delle macchine

che hanno bisogno di utilizzare i primi tre livelli proprio perché necessitano di instradarela comunicazione e quindi usufruire sia

delle funzioni fisiche, sia di collegamento, sia per l’appunto di rete.

4) LIVELLO TRASPORTO :Il livello di trasporto fa in modo che il trasferimento end to end avvenga in maniera corretta, quindi

per esempio il compito è quello di riconsegnare al livello superiore l’informazione in ordine esatto uguale a quello con cui è stata

trasmessa dal trasmettitore. Ricompone l’informazione. Nel caso in cui il livello collegamento, ad esempio, usa la SR, cioè STOP

AND REPEAT.

5) LIVELLO SESSIONE: Ha il compito di aprire e chiudere una sessione di lavoro fra due macchine comunicanti con operazioni

ad esempio di LOG-IN e LOG-OUT.

6) LIVELLO PRESENTAZIONE: Fa cooperare sistemi con diciamo “lingue diverse”.

7) LIVELLO APPLICAZIONE: Questo livello è quello diciamo principe a cui competono le applicazioni stesse. Tutto quello per

cui la rete deve funzionare. Le funzioni dei vari livelli interagiscono fra loro. I livelli sotto servono quelli sopra. Il messaggio

parte dall’alto e va giù, ogni livello aggiunge le informazioni caratteristiche del proprio livello. Viene imbustato e poi ripreso dal

livello sottostante. Quando si arriva in ricezione il percorso viene fatto alla rovescia.

MODALITA’ DI TRASFERIMENTO ALL’INTERNO DI UNA RETE

Il trasferimento dell’informazione (voce, dati, …) tra due (o più) stazioni attraverso una rete di comunicazioni può essere

effettuato utilizzando diverse procedure, chiamate tecniche di commutazione che differiscono per l’uso delle risorse di

comunicazione e possono essere divise in tre principali categorie:

1) COMMUTAZIONE DI CIRCUITO :prevede che tutti i pacchetti che costituiscono il messaggio viaggino attraverso uno

stesso percorso nella rete. Si utilizza un cammino preciso. Solo quei pacchetti possono utilizzare quel cammino in modo

esclusivo. Questo comporta una fase di setup all’inizio del collegamento. A livello rete guardo la disponibilità e individuo i nodi,

definisco il percorso e lo mantengo attivo per tutta la comunicazione. - ISTAURAZIONE - MANTENIMENTO - -

ABBATTIMENTO. Tre fasi della comunicazione! Ci sarà un tempo di latenza iniziale per la scelta del percorso che però dopo

uso solo per quella comunicazione e solo io. Si lega a servizi dove l’ordine di generazione dei pacchetti deve essere rispettato,

quindi connection oriented, è la modalità con cui si gestiscono le telefonate ad esempio. Questo perché la voce è un servizio

sensibile alla modalità di consegna. Per il trasferimento dati invece non è quasi mai quella più opportuna.

“In questo tipo di commutazione, un circuito è assegnato a due utenti per tutta la durata del collegamento; nessun altro

utente può utilizzarlo in questo periodo. Il termine circuito è utilizzato in modo generico per indicare una risorsa di rete;

esso può essere un circuito fisico (bidirezionale) effettivo, una porzione di banda, un intervallo di tempo.

La commutazione di circuito è stata utilizzata sin dall’inizio nella rete telefonica. Quando un utente effettua una chiamata

verso un altro utente, la rete costruisce un collegamento fisico riservato soltanto ai due utenti per tutta la durata della

chiamata Nella commutazione di circuito si possono distinguere tre fasi:

9. creazione del circuito. Nel caso del collegamento telefonico, questa fase inizia quando il primo utente

compone il numero e termina quando l’altro utente risponde.

10. trasferimento dell’informazione da un utente all’altro. Nel caso telefonico corrisponde alla conversazione tra i

due utenti. Il trasferimento dell’informazione può avvenire soltanto dopo la conclusione della fase1

11. abbattimento del collegamento. Dopo la fine del trasferimento dell’informazione (uno dei due utenti chiude il

collegamento), la rete effettua una serie di operazioni per liberare il circuito e renderlo nuovamente

disponibile per altri utenti.

La commutazione di circuito è generalmente adatta alla trasmissione di segnali continui nel tempo e che presentano una

durata temporale (fase di trasferimento dell’informazione) molto maggiore rispetto alle altre due fasi (creazione e

abbattimento del collegamento). Un esempio tipico è rappresentato da una conversazione telefonica, in cui il segnale è

(almeno in linea di principio) sempre presente fino a quando dura la conversazione tra i due utenti. Inoltre, la fase di

conversazione è abbastanza grande (in base a misure effettuate una conversazione telefonica ha una durata media di circa 3

min) rispetto alla fase iniziale e finale che generalmente richiedono qualche decina di secondi).

La commutazione di circuito, una volta completata la fase di creazione del collegamento non richiede alcuna operazione

aggiuntiva per il trasferimento dell’informazione”

2) COMMUTAZIONE DI MESSAGGIO :si trasferisce un blocco intero cioè un messaggio da un utente A a un utente B.

Supponiamo di avere fra i due utenti A, sorgente e B, destinazione, 3 nodi: 1, 2, 3. Quando il nodo 1 ha preso il messaggio da A

guarda qual è il prossimo nodo per raggiungere B. A passi successivi si sceglie il percorso su cui far passare la comunicazione. La

commutazione di circuito si preoccupa di costruire un percorso, le sue risorse sono permanentemente allocate a quella

connessione ed è disponibile anche quando non c’è flusso di informazione. La commutazione di messaggio usa i singoli tratti solo

quando è richiesto. Quella di messaggio offre una flessibilità di utilizzo di rete maggiore di quella di circuito.

“Nella commutazione di messaggio, ogni messaggio è considerato un’unità informativa autonoma, e segue per arrivare a

destinazione un percorso deciso volta per volta in base allo stato della rete. Un circuito (cioè una risorsa della rete) viene

utilizzato soltanto per il tempo necessario per trasferire il messaggio; in questo modo, lo stesso circuito può essere utilizzato

contemporaneamente da vari utenti Per spiegare il funzionamento della commutazione di messaggio, consideriamo

l’esempio mostrato nella Figura 1.5 in cui il terminale A invia a B un insieme di messaggi (ad esempio tre messaggi indicati

con M1, M2, M3). Ogni messaggio è composto da una testata (o header) H e dall’informazione, come mostrato nella Figura

1.6. La testata contiene tra l’altro gli indirizzi della stazione di destinazione (B) e della stazione che ha generato il messaggio

(A); in questo modo ogni messaggio è autonomo, poiché contiene tutte le informazioni necessarie per portarlo a destinazione

. Il messaggio viene inviato al nodo di commutazione che immagazzina il messaggio, lo inserisce nella coda dei messaggi in

attesa di essere trasmessi e, quando esso diventa il primo messaggio della coda, provvede ad instradarlo verso un modo

successivo della rete scelto in base al nodo di destinazione (contenuto nella testata) e utilizzando opportune tecniche di

instradamento (o routing). Il funzionamento della rete è quindi basato sul concetto store and forward (memorizza e invia). La commutazione di messaggio è molto più adatta alla trasmissione dati della commutazione di circuito; tuttavia è

scarsamente utilizzata poiché la commutazione di pacchetto presenta prestazioni superiori. Una rete che utilizza la

commutazione di messaggio è quella utilizzata per la distribuzione dei telegrammi.”

3) COMMUTAZIONE DI PACCHETTO :pacchetto informativo: entità elementare associata a un flusso informativo

tipicamente di dimensioni fissate. La disponibilità del percorso può cambiare nel tempo e quindi i pacchetti cambiano percorso. In

quella di messaggio invece viene trasferito tutto insieme. Un altro problemaè quello dell’affidabilità. Se il blocco di riferimento è

il messaggio l’affidabilità è basata su quello e se sbaglio devo trasferirlo di nuovo tutto. Per quanto riguarda quella di

pacchetto esistono due alternative:

“La commutazione di pacchetto rappresenta un’evoluzione di quella di messaggio ed è utilizzata in molte reti per la

trasmissione dati. In questa tecnica, il messaggio generato da un terminale viene diviso in pacchetti di dimensioni più ridotte,

come mostrato nella Figura 1.7. Ogni pacchetto è formato da una testata H e da una parte dei dati del messaggio. La testata

contiene numerosi campi utili per l’instradamento e la gestione dei dati, tra cui un numero progressivo che individua la

posizione del pacchetto e gli indirizzi della stazione di destinazione e di trasmissione. In questo modo ogni pacchetto diventa un’entità autonoma.”

CIRCUITO VIRTUALE: Quando si usa questa, prima di trasferire i pacchetti vi è una fase di set up. Viene individuato il

percorso migliore per i pacchetti. La differenza con quella di circuito non virtuale è che in quella c’era un percorso usato solo da

una connessione e basta mentre in quella virtuale il percorso viene usato da più connessione contemporaneamente. Una

connessione, quella virtuale fissa e le altre possono essere casuali. Questo comporta che a volte dei pacchetti che entrano in nodi

diversi cozzano con altri pacchetti da un altro nodo. Quindi i nodi gestiscono i pacchetti con lo STORE AND FORWARD,

elemento principale che distingue circuito da circuito virtuale. Grazie allo store and forward posso anche cambiare formato ai

pacchetti per mandarli su diversi mezzi trasmessivi. Nei circuiti i pacchetti arrivano nello stesso ordine. Quindi questi si adattano

a servizi di tipo connection oriented.

“ i pacchetti generati a partire dallo stesso messaggio seguono tutti lo stesso percorso, come mostrato nella Figura 1.9. In

questo modo i pacchetti sono sempre nell’ordine corretto con cui sono stati generati e quindi non è necessario al nodo

terminale riordinare i pacchetti Il termine circuito virtuale indica che, contrariamente a quanto accade nella commutazione di circuito, lo stesso circuito può essere condiviso tra diversi utenti. Il circuito virtuale viene individuato prima della

trasmissione dei pacchetti, per cui sono necessarie tutte le fasi presenti nella commutazione di circuito: 1)creazione del circuito virtuale

2) trasmissione dei pacchetti;

3) abbattimento del circuito virtuale.

Una volta individuato il percorso, la trasmissione dei pacchetti è molto più veloce rispetto alla tecnica datagram poiché i

diversi nodi non devono effettuare scelte o elaborare strategie di instradamento. Per questo motivo, la tecnica dei circuiti

virtuali è molto utilizzata nelle moderne reti per la trasmissione di dati ad alta velocità” DATAGRAMMA: Ogni pacchetto è considerato come una entità indipendente anche nei confronti dell’instradamento. Ogni

pacchetto è trattato in maniera individuale e può finire in percorsi diversi La fase di set-up qui non c’è. L’ordine di arrivo non è

necessariamente quello dipartenza e quindi il servizio è connection-less.

“ogni pacchetto viene instradato nella rete in modo indipendente, per cui i pacchetti generati da un messaggio possono

seguire strade diverse (Figura 1.8) e quindi i pacchetti possono arrivare al nodo di destinazione in ordine diverso rispetto a quello con cui sono stati generati. Il nodo terminale deve ricostruire l’ordine esatto dei pacchetti utilizzando il

numero progressivo contenuto nella testata di ogni pacchetto.”

“La tecnica datagram, utilizzata da Internet, presenta alcuni vantaggi rispetto alla tecnica a circuiti virtuali, quali: 1)non è necessaria la creazione del circuito prima di iniziare la trasmissione;

2) risulta molto più robusta a guasti e a malfunzionamenti; infatti, se un nodo o un link non funzionano correttamente il

sistema a datagram identificherà percorsi alternativi, mentre nel caso di circuiti virtuali tutte le connessioni attive passanti

per quel nodo o link sono interrotte;

3) l’instradamento dei pacchetti della rete può essere progettato in modo da ridurre il periodo di congestione di un nodo o

della rete.

La commutazione datagram richiede tuttavia che ogni pacchetto contenga l’indirizzo del nodo di destinazione di validità

geografica e quindi con un numero consistente di bit. Ad esempio, Internet è una rete a commutazione di pacchetto di tipo

datagram e utilizza indirizzi universali formati da 32 bit. Nella commutazione a circuiti virtuali, ogni pacchetto contiene un

indirizzo relativo al circuito virtuale che ha una validità locale, per cui richiede un numero minore di bit.”

ISO OSI e TCP/IP L’applicazione nel TCP/IP è un’entità per la quale la rete viene costruita e fatta funzione: e-mail, ftp, http, ecc.. Il livello di

trasporto del TCP/IP riguarda l’end-to-end, serve ad organizzare il trasporto indipendente dagli altri livelli, usa il protocollo TCP

o UDP utilizzando comeprotocollo rete l’IP. Il TCP/IP è connection oriented in quanto prevede una fase di setup mentre l’UDP

è connection-less in quanto non contiene una fase di setup. Il livello di rete è in funzionedel protocollo IP che si adatta a qualsiasi

rete sottostante. TCP riordinai pacchetti,fa subire unritardo per essere eseguito, per il setup e il riscontro dei pacchetti. UDP è

connection less quindi è più veloce mameno sicuro.

Esempio di rete: MAN, Metropolitan Area Network. Sono reti che offrono servizi di connessionesu un’area estesa come una città.

Attualmente queste reti vengono usate per la interconnessione di reti locali in area metropolitana. Ad esempio la rete universitaria

che collega le varie reti delle facoltà. LAN: Local Area Network, sono reti tipicamente associate a piccola aree come un edificio,

ad esempio una delle facoltà dell’Università. Le LAN sono connesse fra di lorospesse grazie a reti MAN.

Si individuano 3 tipologie di traffico:

- TRAFFICO ASINCRONO: traffico dati che non ha bisogno del rispetto di una cadenza nel tempo. Flusso intermittente, senza

periodicità.

- TRAFFICO ISOCRONO: ha necessità che sia rispettata in maniera rigida la sua periodicità nel suo trasferimento. Periodicità

fissa. Esempio la voce.

- SERVIZI SINCRONI: non necessariamente sono isocroni e sono caratterizzati da continuità di servizio. A questa classe

appartengono i servizi di videoconferenza. Tipicamente queste sono le tipologie di traffico che si fanno coesistere nelle reti MAN.

Gli esempi di MAN tipiche sono quelle in tecnologia DQDB e FDDI.

COMMUTAZIONE VELOCE DI PACCHETTO FPS

In telecommunications, fast packet switching is a packet switching technique that increases the throughput by eliminating

overhead. Overhead reduction is accomplished by allocating flow control and error correction functions to either the user

applications or the network nodes that interface with the user. Cell relay and frame relay are two implementations of fast packet

switching.

FPS does not refer to a switch that can directly support packet switching over an X.25 interface at faster speeds than existing X.25

switches.

2.1) Reti di comunicazione in area locale (LAN), standard IEEE 802. Descrizioni standard sulle reti locali LAN, Local Area Network. Una rete locale è una infrastruttura di telecomunicazioni che

consente l’interoperabilità fra strutture remote entro un’area di dimensioni non eccessive, ad esempio un edificio.Dispone di

mezzi trasmessivi di buona qualità e questo implica che il tasso di errore del mezzo trasmissivo è basso.

Hanno una topologia di rete semplificata. Non avremo mai situazioni con topologia a maglia.

(1)TOPOLOGIA A BUS Il bus è un filo, un cavo, dritto alquale le varie stazioni so connettono tramite prese ad alta

impedenza per ridurre le perdite. Supporta una trasmissione di tipo broadcast. Tanto più è la potenza, tanto più lontano arriva il

segnale con qualità sufficiente. La potenza e l’estensione sono gli elementi contrastanti. Ogni stazione può ascoltare quello che

passa sul bus. L’alternativa è la topologia a RING.

(2)TOPOLOGIA A RING Anello a cui sono collegate le stazioni. Le stazioni sono fra loro connessea coppia, cioèuna stazione è

connessa alle stazioni adiacenti. Per trasmettere alle altre stazioni si deve passare dalle altre. Se A vuole trasmettere dei messaggi

ad H lo fa così, mala rimozione è sempre dovuta ad A. Tutti ripetono tranne il mittente. Il problema della potenza qui è meno

pesante.

[TOKEN: autorizzazione che le stazioni si passano per evitare che si trasmetta in conflitto. ]

(3)TIPOLOGIA A STELLA Individuazione di un centro stella chiamato HUB. L’HUB ha un grado di elaborazione superiore a

quella dei nodi delle reti di prima, cioè a bus e ring. Tutte le informazioni passano dall’hub le può ripetere a tutte le stazioni

facendo come un bus logicamente, ma fisicamente a stella.Si può fare una doppia STELLA.

[IEEE 802.XX 802 è il gruppo di lavoro che si occupa dello standard per le LAN e anche per il WIRELESS.]

MAC = MediumAccess Control, controllo del mezzo fisico gestisce s

s l’accesso al mezzo fisico.

LLC = Logical Link Control, funzioni di livello collegamento, è un livello

generale valido per tutte le 802. In pratica fornisce un’interfaccia s

s unica per tutti i servizi di livello mac e fisico

Invece il MAC e il FISICO sono specifici diuna particolare rete.

A riguardo vi sono delle classificazioni:

802.3 CSMA/CD ovvero ETHERNET

802.4 TOKEN BUS

802.5 TOKEN RING

802.6 DQDB

////////////////////////////////////////////////////////////////////// MAC///////////////////////////////////////////////////////////////////////////////////////////////////

Gestione dell’accesso al mezzo fisico condiviso.

Le tecniche usate dal MAC si suddividono in due grandi famiglie.

- TECNICHEORDINATE - TECNICHEAD ACCESSO CASUALE

TECNICHE ORDINATE: ci focalizziamo sul fatto che il mezzo è condiviso da più persone. Prevediamola definizione di regole

allo scopo dievitare che sivada inconflitto nell’accesso al mezzo fisico tramite il quale siamo in rete. Evitareche in un certo istante

la rete vengausata da più stazioni per la trasmissione.

- FDMA dove A sta per ACCESS: tecniche a divisione di frequenza. Non utilizzate frequentemente nelle reti locali.

- INTERROGAZIONE (POLLING)

- TOKEN

Le tecniche a interrogazioneprevedono l’individuazione diuna stazione master. BUS La stazione master ha memorizzato l’ordine

con cui chiamalaA e lei sa che può trasmettere. Così A trasmette verso il master, ma non è detto. Una volta che ha finito Aassocia

all’ultimo pacchetto un messaggio di rilascio ricevuto magari anche dalle altre stazioni, maè solo per la master, la quale una volta

ricevuto chiamala stazione successiva, la D per esempio. Con questa tecnica non potrà mai accadere che due stazioni

intervengono insieme. Però c’è il problema dei tempi morti. Mentre chiamo una stazione c’è un tempo inutilizzato, soprattutto

sele stazioni sono lontane. Per alleggerire questo inconveniente si provvedea fare una modalità HUB invece che ROLL-CALL

cioè quella appena vista. HUB -> chiamaquella più lontana. Invece difar ricevere il rilascio alla master si fa ricevere alla

stazionepiùvicina a quella più lontana. Si passano il pacchetto di rilascio, quando arriva a C lei inizia a trasmettere poi da il

rilascio e così via finché non arriva alla master che richiamaD, cioè quella più lontana. Così si riducono i tempi. Si rischia

comunque che una stazione monopolizzi.

MODALITA’

(1)GATED: si trasmettono i messaggi arrivati al nodo nel tempo di ciclo. Serve per evitare un utilizzo eccessivo da parte di una

stazione.

(2)ESAUSTIVA: rimuove questo vincolo e trasmette tutti i messaggi. Si trasmettono sia i messaggi arrivati nel tempo di ciclo sia

i messaggi arrivati nel tempo di trasmissione.

Tempo di ciclo: tutte le stazioni accedono alla rete e si ricomincia.

Se sono in una condizione di traffico non eccessivo la modalità esaustiva serve a diminuire il tempo di attesa di alcuni pacchetti

arrivati dopo.

TECNICHE AD ACCESSO CASUALE

Le tecniche ad accesso ordinato hanno come punto di forza che evitano i conflitti. Di contro hanno che va dedicato del tempo al

protocollo che regola l’accesso invece che all’uso della rete. Con le tecniche casuali si cerca di rimediare a questo inconveniente.

Effetto collisione: due stazioni trasmettono insieme. Almeno due segnali distinti si sovrappongono nel canale condiviso.

Sommandosi insieme si distruggono.

COLLISIONE -> DISTRUZIONE PACCHETTO

(1)ALOHA

Tipologia a stella in cui più stazioni utilizzano il canale per raggiungere l’obiettivo. Ogni stazione appena ha un blocco da

trasmettere lo fa senza preoccuparsi delle altre stazioni. Può succedere che più stazioni possono trasmettere e quindi ci possono

essere collisioni. Trovare un metodo per evitare questo problema.

Due problemi:

- Informare i nodi coinvolti della collisione

- Attivare una procedura per risolvere la collisione

Posso stabilire che nel canale broadcast che risponde a tutti tutte le volte si ha un messaggio di riscontro. Poiché il tempo che

passa a quando mi aspetto la notifica è fisso e noto a tutti, se la stazione A trasmette e va bene la master risponde che è andata

bene. TRASMETTO -> STATO DI ATTESA

Il livello MAC sulle reti IEEE 802 è responsabile dell’accesso al mezzo fisico condiviso. Abbiamo visto che vi sono due modi:

ordinato e casuale. Quello ordinato, detto in inglese polling, si suddivide a sua volta in hub polling e roll-call L’hub polling può

essere gated o esaustivo e lo stesso il roll-call. Dell’accesso casuale invece stavamo vedendo l’Aloha.

In generale nelle tecniche ad accesso casuale non esistendo una coordinazione delle stazioni vi è il problema delle collisioni.

Una collisione è caratterizzata dalla presenza contemporanea di segnali generati da stazioni diverse. La sovrapposizione provoca

la mutua distruzione dei segnali. Il problema tipico è rivelare quando la collisione accade cioè RICEVERE LA COLLISIONE e

RISOLVERE LA COLLISIONE cioè attivare delle procedure per risolvere il problema. Nel caso specifico di ALOHA prima di

tutto fissiamo la topologia di rete che in ALOHA è più stazioni verso una stazione MASTER. Quindi abbiamo una stella virtuale

perché ogni stazione usa canali diversi. Può essere il caso di trasmissione via satellite. Il mezzo che usa l’ALOHA per notificare

la collisione è quello del riscontro. Supponendo che tutte le stazioni siano a uguale distanza dalla stazione master e che questa

distanza sia nota a tutte indicando con TAO il tempo di propagazione detto ROUND TRIP, è il tempo da quando ha conflitto la

trasmissione e quando riceve la notifica… Se è costante la distanza è uguale per tutti, se la stazione 1 trasmette all’istante

generico t e se il canale di ritorno è broadcast lavoro su banda differente. La stazione trasmette su canale upline, poi aspetta di

ricevere dal canale di ritorno il riscontro dopo tao secondi e questo è standardizzato.Se è ok conclude il ciclo. Se a quell’istante

non riceve l’ok capisce che c’è stata una collisione. A questo punto per tutte le stazioni interessate alla collisione viene attivato il

meccanismo di RISOLUZIONE DELLA COLLISIONE il quale consiste nel selezionare un nuovo istante in corrispondenza

del quale ritentare la trasmissione. Comescelgo il nuovo istante? Sicuramente non posso usare un meccanismo deterministico

perché se fissassi una regola uguale per tutti essi reagirebbero nello stesso modo e quindi sceglierebbero di nuovo lo stesso istante

con conseguente nuova collisione. Quindi necessariamente si usa un metodo di tipo statistico. A questo punto con che

distribuzione lo vado a scegliere? Per esempio si può usare quella Gaussiana per tentare. Non andrebbe bene perché la

distribuzione Gaussiana accentua verso il valore medio. Andrei ad addensare la scelta a un intervallo ristretto. Allora utilizziamo

la distribuzione uniforme. C’è probabilità uguale quindi ha la casualità massima per la scelta. Si deve definire l’intervallo. Si va a

selezionare con probabilità uniforme su un intervallo ktp con tp -> tempo di trasmissione di un pacchettoe k costante definita in

maniera opportuna.

Nell’ALOHA si usa la trasmissione a pacchetto. Il valore di k influenza le prestazioni del protocollo se è più grande c’è

possibilità sia più attesa. Maggiore k, maggiore intervallo, maggiore scelta.

ESEMPIO: 2 stazioni fanno collisione, qual è la probabilità di collisione del nuovo tentativo fissato

k?Pc?Circa 1/K alla seconda, cioè scelgono lo stesso istante, aumento il tempo prima di fare un

nuovo tentativo.

Questo metodo si chiama ALOHA CONTINUO (o ALOHA e basta). In questo sistema finché ogni stazionenon ha concluso la

trasmissione positivamente non può procedere a trasmettere altro.

Nel caso dell’ALOHA non ho posto nessun vincolo nell’accesso al canale perciò è senza controllo e continuo.

In questo caso se ho fissato in TP la durata di un pacchetto e succede che COLLISSIONE = SOVRAPPOSIZIONE, si possono

avere due eventi distinti: - ALTRE TRASMISSIONI GIA’ IN ATTO - SOVRAPPOSIZIONE CON TRASMISSIONI

SUCCESSIVE ALL’ISTANTE D’INIZIO

Per quanto riguarda il primo caso quanto sarà il tempo in cui ci si darà noia?

Sarà TP secondi precedenti alla trasmissione. Per l’altra situazione sarà invece: Quindi complessivamente si può avere collisione

su 2TP cioè il TEMPO DI VULNERABILITA’ Se riesco a ridurre questo tempo riduco le collisioni e le prestazioni.

A questo proposito è stato proposto l’ALOHA SLOTTED. L’accesso al mezzo fisico può essere fatto solo in corrispondenza di

precisi istanti di tempo. ACCESSO AL CANALE VINCOLATO TEMPORALMENTE

Nel canale il tempo è suddiviso in intervalli di ampiezza regolare. TEMPO SUDDIVISO ININTERVALLI DI DURATA TP

L’accesso al canale da parte delle stazioni può avvenire solo in corrispondenza di questi intervalli. ACCESSO CONSENTITO

SOLO ALL’INIZIO DI QUESTI INTERVALLI In questo modo abbiamo introdotto una forma leggera di coordinamento per le

stazioni.

Che effetto ah questa regola a livello di rete?

Ogni stazione usa un orologio che scandisce in maniera uguale questi intervalli. In questo caso se ci si focalizza su un istante

potranno trasmettere solo i pacchetti che sono arrivati in quell’intervallo e non si può avere collisione con pacchetti che sono

arrivati all’intervallo dopo ad esempio.

Quindi la collisione grosso modo avviene solo con pacchetti dello stesso istante. Riduco quindi la probabilità di collisione.

Il meccanismo di ritrasmissione è uguale ma ovviamente ricalcolato agli istanti di tempo. Tutto questo viene confermato dalla

pratica perché l’ALOHA normale ha un utilizzo di canale del 18% mentre l’ALOHA SLOTTED ha 36%.

(2)CSMA(CarrierSensing MultipleAccess): tecnica ad accesso multiplo a rilevazione di portante,

comunemente viene paragonata ad ascolta prima di parlare. Rilevare prima di iniziare la comunicazione se qualcuno

trasmette. Ogni stazione prima di trasmettere verifica la presenza di segnale modulato sul canale.

Se l’esito è positivo non si trasmette. In questo modo preveniamo collisioni. Questo viene fatto mediante hardware. Le

collisioni sono ridotte non è che non ci sono.

Questo a causa del ritardo di propagazione. Se indico con x il ritardo fra A e B…

Se A ha iniziato una trasmissione entro una ampiezza, entro < X allora B non la vede e si ha allora

collisione. Si rileva la collisione sempre osservando il canale in modo hardware. Supponiamo che B trasmetta. Se c’è collisione h

< x Se quando B finisce rileva un’altra comunicazione allora c’è stata collisione e si va in modalità risoluzione.

Se il canale rileva la presenza di segnale di altro utente non si procede alla fase di accesso e si interpreta questo evento come

una collisione virtuale (“si evita di parlare sopra a un’altro”)

- NON PERSISTENT -> Si fanno scelte successive

vuol dire che la stazione se nel corrispondente istante di tempo è occupata si ritenta con la stessa regola. 17.5 Il non-persistent , in

presenza di canale occupato, si comporta come se ci fosse stata una collisione; l’algoritmo è:

Se la stazione vede il canale libero, trasmette  

Se vede il canale occupato, rimanda la trasmissione ad un istante futuro, come se ci fosse stata una collisione

Ogni volta che una stazione rileva il canale occupato riprogramma un nuovo tentativo di accesso con modalità casuale

(collisione virtuale) ha un buon funzionamento quando ho richieste frequenti d’accesso.

- 1 – PERSISTENT -> Si insiste nella scelta

In condizioni di bassa attività è migliore, mentre la non persistent è migliore in

condizioni di carico alto. Finché non rilevo che è libero non trasmetto, qui non situtela sul fatto che altre stazioni diventino attive

nei tempi di propagazione questo porta problemi quando il bisogno è alto però se tutto va

bene riduco i tempi. Se le stazioni hanno bassa necessità di trasmettere rischio di penalizzare. Il 1-persistent continua ad ascoltare

il canale e, appena questo si libera, trasmette; l’algoritmo è:

Se la stazione vede il canale libero, trasmette

 Se vede il canale occupato, continua a monitorarlo finché non appare libero e quindi trasmette

Una stazione si mette in ascolto del canale quando lo trova occupato non appena rilevato libero accede.

- P – PERSISTENT Quando la collisione viene verificata si usa la distribuzione uniforme per il ritardo su cui fare la

ritrasmissione.

è una via di mezzo. Faccio una scelta e trovo occupato, rimango in ascolto e con probabilità p trasmetto con probabilità 1-p

programmo un altro tentativo. Il p-persistent si comporta come il 1-persistent (con cui coincide quando p=1), ma quando il canale

si libera trasmette con prob. p (nel caso slotted ); l’algoritmo è:

Se la stazione vede il canale libero, trasmette con probabilità p, o rinvia il problema alla Slot successiva con prob. (1-p)

Se vede il canale occupato, continua a monitorarlofinché non appare libero e quindi si comporta comenel passo

precedente

In generale, nei protocolli CSMA, il canale risulta occupato (nel caso peggiore in cui tutti

vedono un ritardo di propagazione PROP massimo) ancora per un ritardo di propagazione dopo la fine della trasmissione

Se il canale viene rilevato occupato si riprogramma l’accesso con modalità casuale. Se il canale è rilevato libero con

probabilità P fissata si accede oppure con probabilità 1-p si considera di avere una collisione virtuale.

(3)CSMA/CD (CD = Collision Detection )

Il Carrier Sense Multiple Access / CollisionDetection(CSMA/CD) introduce la variante dell’ascolto durante la

trasmissione. In caso di collisione, la trasmissione viene interrotta dopo un tempo prefissato (intervallo di jamming).

canale slotted (la sincronizzazione avviene implicitamente alla caduta della portante, e si opera in modalità 1-persistent )

e durata della slot fissata a 2 PROP (intervallo di rilevamento della collisione)

ogni stazione trasmette, indipendentemente dalle altre, con probabilità p nella slot (non trasmette con prob (1-p)

CSMA/CD non è realizzabile in modo semplice nelle reti radio, a causa dell’enorme

differenza che esiste in questo caso fra la potenza del segnale in ingresso (molto bassa) e quella del segnale in uscita (alta), che

rientrando nel ricevitore lo “assorda” o addirittura lo brucia.

Ascolta prima di parlare e mentre parli. Si rimane in ascolto e se si nota una sovrapposizione si chiude la trasmissione dopo un

intervallo utile per tutti a capire la collisione, si riduce il tempo di utilizzo inutile.

Con questa tecnica aumenta l’utilizzo della rete rispetto al normale CSMA. Il CSMA è migliore dell’ALOHA in determinate

situazioni. Il problema è il tempo di ritardo derivato dalla propagazione.

Se a = valore massimo del ritardo di propagazione, si può dire che CSMA è migliore di ALOHA quando TP >> a.

Questo perché tanto a è piccolo rispetto a TP tanto più è l’osservazione da parte della stazione. Per questo motivo nelle

comunicazioni via satellite è migliore l’ALOHA. Le tecniche ORDINATE sono la soluzione migliore in condizioni di carico

elevato. Per “carico” si intende la quantità di richieste di accesso alla rete. Viceversa sono migliori quelle ad accesso casuale.

CSMA/CD -> 802.3 -> ETHERNET

Standard MAC di ETHERNET

/////////////////////////////////////////////////////////////////////////////////////////////LLC//////////////////////////////////////////////////////////////////////////////////////

Livello che completa il MAC nei confronti del livello di collegamento di OSI.

In particolare permette di gestire le modalità di collegamento connection oriented e connection less.

Le sue funzioni sono complementari a quelle del livello MAC. LLC è trasversale a tutti i protocolli di rete indipendentemente dal

MAC. Una caratteristica delle LAN è quella riguardante la loro area. Storicamente erano state proposte per aree limitate: ad

esempio un ufficio. Successivamente le LAN si sono allargate anche a zone più estese. Quindi il problema era trovarei metodi per

estenderle. A questo riguardo ci sono dei dispositivi progettati per questo scopo. Hanno una complessità e una funzionalità a

seconda del loro ruolo. Una tipologia tipica è quella a bus. Un filo a cui sono connesse tutte le stazioni. Col bus riguardo

l’estensione abbiamo il problema legato alla potenza massima con cui una stazione trasmette, perché poi il segnale si attenua col

percorrere del filo perdendo potenza. Quindi va dimensionata la rete in maniera congruente.

2.2) DQDB (Distributed Queue Dual Bus) IEEE802.6

Le prime due parole, coda distribuita, si riferiscono a come la rete gestisce il servizio. Dual Bus indica la topologia la rete: un bus

è un filo, dual bus vuol dire due fili nei quali il segnale si propaga in senso opposto.

A un capo avrà il generatore di trama. L’accesso è di tipo a divisione di tempo (TDM). Tutti i nodi accederanno in istanti

predefiniti. L’accesso è di tipo ordinato. Ho definito una regola valida per tutti i nodi secondo la quale i nodi non entrano mai in

conflitto. Le stazioni sono collegate ognuna tramite due cavi ad ognuno dei due bus. Questi collegamenti sono di lettura e scrittura

nel bus. Attraverso questi due fili, la stazione A prende cosa passa su un filo e poi può scrivere tramite l’altro filo.

Questo vale per entrambi i bus. La tecnologia di questa rete è tipicamente in fibra ottica. La capacità trasmissiva di ciascuno dei

bus è di 150 Mbit/s. La caratteristica di questo protocollo è di poter permettere il trasferimento senza sovrapporsi con le altre.

La rete fa trasmettere una stazione alla volta senza disturbare le altre. Ciò si basa sulla gestione di 2 bit.

- gestione accesso realizzato mediante l’impiego di due bit - bit di stato - bit di prenotazione

La trasmissione è a divisione di tempo. Questo vuol dire che ci sono degli slot ciascuno corrispondente al tempo di trasmissione

nella rete di un pacchetto di informazione. Ogni stazione accede all’inizio di uno slot e ci scrive per il suo tempo. Tutte le stazioni

hanno un orologio che è sincrono. Ogni pacchetto è formato da tre sezioni: la testa, il payload e la coda.

Nella testa risiede il bit di stato che indica se la parte centrale è libera se il bit è a 0 o occupata se il bit è a 1. Nella coda vi è il bit

di prenotazione che indica con 0 se lo slot può essere prenotato e con 1 se è già prenotato.

Espandiamo la struttura di un nodo, che è duale. Se voglio scrivere sul bus superiore devo prenotare su quello inferiore, quindi se

A vuole trasmettere a C e viceversa.

CONCETTO DI CODA DISTRIBUITA Ogni nodo ha una struttura duale, hardware duplicato, uno per trasmettere su un bus e uno per trasmettere sull’altro bus.

Buffer: vengono alloggiati i pacchetti provenienti dall’esterno.

Contatore INC / DEC: rimane connesso alla linea di prenotazione tramite il collegamento in basso a destra.

Quando nella trama passa uno slot, legge il bit di prenotazione e tutte le volte che c’è un 1 il contatore incrementa il suo

contenuto di una unità. Rappresenta quante stazioni hanno prenotato prima di lui. Si controlla lo stato del pacchetto, se è a 0 il

contatore viene decrementato di 1.

In un istante al buffer arriva un pacchetto da trasmettere. Si osserva il campo di prenotazione. La prima volta che passa uno slot

non prenotato, la stazione ci scrive un 1 e lo prenota, allo stesso tempo il contatore 1 trasferisce il valore nell’altro contatore a

solo decremento. Il valore nel contatore a solo decremento rappresenta la prenotazione delle altre stazioni, i pacchetti che vanno

aspettati prima di trasmettere. Si fa così perché si vuole rispettare l’ordine temporale per accedere alla rete: primo arrivato

primo servito, FIFO, first in, first out, da qui il nome di coda distribuita.

Coda virtuale ottenuta mediante questo meccanismo. Il secondo contatore si decrementa quando passa uno slot sopra e quando

arriva a zero comunica al buffer di trasmettere il pacchetto. Il primo pacchetto con lo stato libero viene occupato. Si può

prenotare un pacchetto e usarlo, ma solo uno alla volta.

I contatori funzionano insieme perché dopo un accesso si deve ripartire dalla situazione come si era lasciata. Tutto questo

funziona se il ritardo della stazione è nullo. Supponendo che il tempo di propagazione sia 3 slot se durante questo tempo c’è il

modo di prenotare, A lo fa. Il tempo di propagazione fa si che il tutto si discosti dalla stazione ideale, esistono delle situazioni

critiche che causano dei malfunzionamenti. A vuole trasmettere a C e ha traffico continuo, cioè ha necessità continua di

trasmettere. Supponiamo che quelle prima di C non hanno necessità. C prenota. Si prende il primo slot libero. Siccome non ha

prenotato nessuno trasmette subito e continuo così, ma fintanto che fa così le altre non potranno trasmettere e C oscura tutte le

altre stazioni. Questo protocollo si discosta dal comportamento ideale e ci sono delle criticità.

PROBLEMA(1): Dato il nodo A e il nodo B se il nodo B non ha successori il nodo a vede le sue x prenotazioni come 1 sola

dando una preferenza a B che non merita lo stesso dì se dato un nodo c esso non ha predecessori A e B vedono solo la singola

prenotazione.

A questo riguardo sono state introdotte delle condizioni per poter alleggerire queste criticità, ad esempio SI LIMITA

L’ACCESSO di una stazione al canale. Si pone un limite massimo al numero di slot consecutivi che una stazione può prenotare.

Problema(2): Il nodo A utilizza la rete in modo continuo ed esclusivo:

-B diventa attivo all’istante B

-Si evidenzia un aspetto privilegiato di A che a ha disposizione 5 slot su 6 disponibili.

-Il nodo A prenota->Accede->Trasmette, poi arriva B->prenota->Accede->trasmette (a contatore =0) assurdo!!!! Non può

succedere i successivi 3 slot sono occupati da A.

-A prenota-> Il contatore inc/dec va a 0, il contatore contemporaneamente è passato uno slot libero x3 slot di ritardo di

propagazione ho 6 slot prima che il nodo B possa prenotare , o meglio che A si accorga di B.

Si può “alleggerire il problema” con un meccanismo di preallocazione degli slot a seconda della presenza o meno di nodi della

rete

Problema(3):Il nodo B accede con continuità alla rete il nodo A diventa attivo dopo B

-Il nodo A non riesce mai a trasmettere, questa è una criticità del protocollo che viene attenuata introducendo un limite al numero

di prenotazioni consecutive che ogni nodo può fare.

2.3) FDII (Fiber Distributed Data Interface)

L’FDDI è un protocollo come il DQDB, ma viene usato esclusivamente per le reti in fibra ottica. Questo protocollo consente di

connettere in una distanza massimadi due stazioni 100 km, un numero di stazioni pari a 500 k. La velocità è dell’ordine dei 100

Mbit/s.

TOPOLOGIA DELLA RETE

Per la topologia, è a doppio anello. L’anello esterno e l’anello interno. Il segnale si propaga in sensi opposti. Ogni stazione è

connessa in generale a entrambi gli anelli, anche se in certi casi una stazione può essere collegata anche solo all’anello esterno.

Si usa il doppio bus per l’affidabilità dell’esercizio della rete.Questo aumenta la protezione nei confronti di eventuali guasti ad

esempio per la rottura della fibra ottica. In questo caso si possono anche fare dei ponticelli in modo da poter riparare i guasti.

Alla stesso modo se si rompe un nodo della rete si può fare lo stesso. Vi è un controllo di integrità della informazione su base

end-to-end.

Doppio anello: affidabilità di esercizio -> funziona anche con dei guasti.

(1)Rottura di nodo: escludo il nodo ma mantengo il funzionamento

(2)Rottura di fibra:

ACCESSO ORDINATO: non esiste conflitto da parte di stazioni. Viene realizzato tramite il principio di arbitrato temporale. Con

questo protocollo la trama è divisa in due classi:

- DATA FRAME -> portano informazione

- TOKEN FRAME -> strutture di segnalazione

Le trame dati sono generate da chi le trasmette, tipo la stazione A memorizza tutto in ingresso in un buffer e trattiene

eventualmente delle info e il resto lo ripete in uscita. Ovviamente utilizza solo la parte a lei diretta. In questo modo la stazione

ritrasmette anche la parte a lei diretta. Il compito di non ripetere spetta soltanto alla stazione che le ha generate. Se C trasmette

e riceve dopo un giro quello che ha trasmesso allora non lo ritrasmette più. Nessun altra stazione è autorizzata a farlo. Con

questa operazione chi riceve più può segnalare sedeve ritrasmettere le info tramite un bit. Al solito vi è un payload con un

header prima e un footer dopo, una testa e una coda oltre l’informazione stessa. Per quanto riguarda le tipologie di traffico,

questa rete permette sia traffico asincrono che sincrono. Il traffico asincrono viene trasmesso con la modalità best effort.

Sarebbe anche priorità bassa. Sono previsti 8 livelli di priorità. Il traffico sincrono si dice garantito. Indipendentemente dal

tempo le stazioni si impegnano a trasmettere il traffico sincrono.

“A->B dato l’info in ingresso al token “A” trattiene l’info inserisce le proprie trame informative e poi invia al token d’uscita

quando la trama torna ad A la riconosce e non la ripete “Chi lo genera lo distrugge solo A può toglierlo dal ciclo” gli altri

“ripetono” mentre il nodo destinatario “certifica la ricezione e invia l’info di avvenuta ricezione” ”.

GESTIONE DELL’ACCESSO

Il diritto di accesso di una stazione alla rete viene acquisito una volta che la stazione ha preso il TOKEN. La stazione A riceve il

token, lotrattiene per trasmettere e terminato il tempo lo ritrasmette. Se la stazione non ha da trasmettere rilascia subito il

token. Vengono stabiliti due parametri di riferimento.

(1) il TOKEN ROTATION TIME, (TRT ):che è il tempo in cui il token fa un giro completo, da quando A lo rilascia a quando lo

riceve. Questo tempo viene definito in fase di avvio della rete e denominato TTRT ovvero TARGET TOKEN ROTATION TIME.

All’inizio il TRT corrisponde al TTRT.

N è il numero di nodi della rete. αi necessità di accesso in unità di tempo di trasmissione del traffico sincrono nominale del

nodo iesimo con 1 ≤i ≤N. Anche in questo caso la rete sarà ideale. Tempo di propagazione piccolo, ma finito. C’è anche il tempo

di latenza di ricevere, elaborare e trasmettere: working time. Tempo di passaggio del TOKEN -> WALKING TIME il di il tempo di

passaggio del token dal nodo C al successivo.Complessivamente il tempo TTRT è la sommatoria dei tempi che intercorrono fra

stazione e stazione e del tempo che impiega ogni stazione a trasmetteretraffico sincrono. Lo standard prevede un altro

elemento che indica il fatto che si prevede in considerazione uno slot più grande possibile.

In base a questo parametro ogni stazione ha un obbligo che misura il token rotation time TRT cioè il tempo effettivo da

quando rilascia il token a quando lo riceve.

Se il TRT < TTRT la mia rete per quel giro è stata usata meno di quel che poteva. Qualche stazione ha trasmesso per meno di

quando dichiarato. Questo è un segnale per dire che si può usare questo tempo per trasmettere il traffico asincrono.

TTRT – TRT = THT (Token Holding Time)

Se invece TRT è maggiore o uguale a TTRT non si può caricare ulteriormente la rete. Ad ogni stazione viene dato una banda

garantita pari al tempo attribuito, così definita: il tempo (alfa) che essa dovrebbe trasmettere, fratto il TTRT, moltiplicato per un

R nominale tipo 100 Mbit/s.

Il fattore di utilizzazione è pari alla differenza fra il TTRT e la sommatoria dei tempi che intercorrono fra una stazione e l’altra, il

tutto diviso il TTRT. I tempi che intercorrono fra una stazione e l’altra Di, sono detti anche tempi di servizio. Una rete sarà

migliore quanto più saranno contenuti i tempi del passaggio del TOKEN

FASE DI SETUP (TRT==TRTT)

∑ ∑

{ } { } { }

FASE SUCCESSIVA AL SETUP (THT=valore nominale-valore efficace<= val assegnato alla stazione per la transmissione sincrona)

{

}

SE tutti utilizzano la rete per quanto dichiarato io faccio altrettanto

ALTRIMENTI quando ho un’eccesso rispetto al valore nominale in termini di traffico sincrono, cioè il resto di TRTT-TRT viene

usato per trasmettere a priorità più bassa.

ESISTE UN VINCOLO CON LA BANDA NOMINALE della rete al nodo i, viene garantito un accesso di entità pari a

ricordando che i valori di TRTT e B sono modificabili in fase di setup

Esempio: di=0; 4 nodi con ai=2 ogni nodo se ne ha l’oportunità a sempre traffico asincrono da trasmettere

(valore nominale)

1 2 3 4

TRT THT TRT THT TRT THT TRT THT

0 12=2+10 0<12 quindi

12

12-10=2 14>12 quindi

14

14-12=2 16>12 quindi

16

16-(14+2)=2

18>12 quindi

18

18-16=2 2+2+2+2=8 12-

8=2+2=4

10<12 quindi

10

12-10=2 10<12 quindi

10

12-10=2

2.4) Reti di comunicazione in area geografica (WAN).

Connessioni virtuali

X.25, Frame Relay e ATM sono tecniche orientate alla connessione : prima della effettiva trasmissione delle

informazioni occorre predisporre il cammino che sarà seguito dai dati attraverso tutta la rete tra i due estremi che devono

comunicare tra loro

Le connessioni sono di tipo virtuale nel senso che non prevedonol’allocazione preventiva di risorse trasmissive e/o di

commutazione, bensì solo un’associazione logica di corrispondenze tra i vari punti delle connessioni

Le connessioni (o circuiti) virtuali possono essere di due tipi:

o permanenti (PVC, Permanent Virtual Connection\Circuit), ovvero instaurate tramite apposito centro di gestione

o su base chiamata (SVC, Switched Virtual Connection\Circuit),ovvero instaurate tramite apposito sistema di

segnalazione

Connessioni virtuali: label

Le connessioni virtuali vengono identificate attraverso una etichetta (label), che ha un significato locale all’interfaccia

UNI

La concatenazione di n label (su n link trasmissivi separati da n-1 nodi) costituisce la connessione virtuale stabilita tra

due apparati terminali della rete

La label viene denominata in maniera differente in dipendenza della tecnologia di WAN utilizzata:

o X.25: Logical Channel Identifier (LCI)

o Frame Relay: Data Link Connection Identifier (DLCI)

o ATM: Virtual Path Identifier/Virtual Channel Identifier(VPI/VCI)

Il nodo di commutazione effettua un “label swapping”

X.25: Logical Channel Identifier (LCI)

Si preoccupa di definire le modalità di interconnessione tra terminali di utenti (DTE: DIGITAL TERMINAL EQUIPMENT) e

terminazione di rete (DCE: DIGITAL CIRCUIT EQUIPMENT) a dei concetti di base molto importanti.

L’utente non ha percezione di come la rete gestisce l’info la DTE deve rispettare le regole dell’interfaccia con il DCE

Lavora a 64Kbits,mezzo trasmissivo non di alta qualità, prevede la specifica a 3 livelli fisico,link,rete. Conseguenza di questo è

che “X.25 dispositivi di rete si dividono in tre categorie generali: i dati delle apparecchiature terminali (DTE), i dati Circuit-

terminating Equipment (DCE), e lo scambio di pacchetti di commutazione (PSE). terminale dati dispositivi di attrezzature sono

sistemi finali che comunicano attraverso la rete X.25. Sono solitamente terminali, personal computer, o gli host di rete e si

trovano nei locali del singolo abbonati. Dispositivi DCE sono dispositivi di comunicazione, quali modem e switch a pacchetto,

che fornire l'interfaccia tra dispositivi DTE e un PSE e sono generalmente situato nel vettore di strutture. Elementi strutturali

principali sono interruttori che compongono la maggior parte della rete del vettore. Trasferiscono i dati da un dispositivo DTE

ad un altro attraverso il X.25 PSN. La figura 17-1 illustra le relazioni tra i tre tipi di dispositivi di rete X.25”

Circuiti virtuali permanente X.25

Un circuito virtuale è una connessione logica creata per garantire una comunicazione affidabile tra due dispositivi di rete. Un

circuito virtuale indica l'esistenza di una logica, percorso bidirezionale da un DTE dispositivo all'altro attraverso una rete X.25.

Fisicamente, la connessione può passare attraverso qualsiasi numero di nodi intermedi, come i dispositivi DCE ed ESP. Circuiti

virtuali multipli (collegamenti logici) possono essere multiplati su un unico circuito fisico (una connessione fisica). Circuiti

virtuali sono demultiplexate alla fine remota, ed i dati vengono inviati alle destinazioni appropriate. Figura 17-3 illustra quattro

circuiti virtuali separati di essere multiplexati in un singolo circuito fisico.

1)Circuito virtuale: rete inizialmente non programmata ha bisogno di individuare il percorso in fase di setup minore quindi

migliore per connettere ricevitore-trasmettitore.

2)Circuito virtuale permanente: Il percorso non sarà assegnato all’utilizzo esclusivo per la sezione a cui viene applicato ma

stavolta la fase di setup è eseguita per tutte le richieste successive offre un tempo di trasferimento maggiore perché la fase di

setup viene pagata una volta sola (svantaggio/vantaggio).

Due tipi di circuiti virtuali X.25 esistono: acceso e permanente. Circuiti virtuali commutati (SVC)sono collegamenti

temporanei utilizzati per i trasferimenti di dati sporadici. Essi richiedono che i due dispositivi DTE stabilire, mantenere

e terminare una sessione ogni volta che i dispositivi hanno bisogno di comunicare. Permanente circuiti virtuali (PVC)

sono stabiliti permanentemente le connessioni utilizzate per la frequente e costante trasferimenti di dati. PVC non

richiedono che le sessioni stabilite e terminato. Pertanto, terminali di dati può iniziare il trasferimento dei dati quando

necessario, perché la sessione è sempre attivo.Il funzionamento di base di un circuito virtuale X.25 inizia quando il

dispositivo DTE sorgente specifica il circuito virtuale da utilizzare (nelle intestazioni dei pacchetti), e quindi invia i

pacchetti a un locale collegato Dispositivo DCE. A questo punto, il dispositivo DCE locale esamina le intestazioni dei

pacchetti per determinare quali circuito virtuale da utilizzare e quindi invia i pacchetti alla vicina PSE nel percorso di

tale circuito virtuale. ESP (interruttori) passano il traffico per il prossimo nodo intermedio nel percorso, che può essere

un altro accendere o il dispositivo DCE remoto.Quando il traffico arriva al dispositivo DCE remoto, le intestazioni dei

pacchetti vengono esaminati e il indirizzo di destinazione è determinata. I pacchetti vengono poi inviati al dispositivo

DTE destinazione. Se La comunicazione avviene tramite una SVC e nessuno dei due dispositivi dispone di ulteriori

dati da trasferire, il Virtual circuito viene terminata

LIVELLO FISICO

Due tipi di circuiti virtuali X.25 esistono: acceso e permanente. Circuiti virtuali commutati (SVC)sono collegamenti

temporanei utilizzati per i trasferimenti di dati sporadici. Essi richiedono che i due dispositivi DTE stabilire, mantenere

e terminare una sessione ogni volta che i dispositivi hanno bisogno di comunicare. Permanente circuiti virtuali (PVC)

sono stabiliti permanentemente le connessioni utilizzate per la frequente e costante trasferimenti di dati. PVC non

richiedono che le sessioni stabilite e terminato. Pertanto, terminali di dati può iniziare il trasferimento dei dati quando

necessario, perché la sessione è sempre attivo.Il funzionamento di base di un circuito virtuale X.25 inizia quando il

dispositivo DTE sorgente specifica ilcircuito virtuale da utilizzare (nelle intestazioni dei pacchetti), e quindi invia i

pacchetti a un locale collegatoDispositivo DCE. A questo punto, il dispositivo DCE locale esamina le intestazioni dei

pacchetti per determinare qualicircuito virtuale da utilizzare e quindi invia i pacchetti alla vicina PSE nel percorso di

tale circuito virtuale.ESP (interruttori) passano il traffico per il prossimo nodo intermedio nel percorso, che può essere

un altro accendere o il dispositivo DCE remoto.Quando il traffico arriva al dispositivo DCE remoto, le intestazioni dei

pacchetti vengono esaminati e il indirizzo di destinazione è determinata. I pacchetti vengono poi inviati al dispositivo

DTE destinazione. Se La comunicazione avviene tramite una SVC e nessuno dei due dispositivi dispone di ulteriori

dati da trasferire, il Virtual circuito viene terminata

MODEè Riavvio utilizzati per sincronizzare la trasmissione tra un dispositivo DTE e una collegata localmente Dispositivo DCE.

Questa modalità non è eseguita su una base per-circuito virtuale. Colpisce tutti i dispositivi DTE di stabilito circuiti virtuali.

Quattro tipi di campi di pacchetti PLP esistono:

• General Format Identifier (GFI)-Identifica i parametri di pacchetto, ad esempio se il pacchetto trasporta i dati utente o

informazioni di controllo, che tipo di finestre è in uso, e se è richiesta la conferma di consegna.

• Logical Channel Identifier (LCI): identifica il circuito virtuale attraverso il DTE / DCE locale interfaccia.

• Packet Type Identifier (PTI): identifica il pacchetto come uno dei 17 diversi tipi di pacchetti PLP.

• User Data-incapsulato Contiene informazioni di livello superiore. Questo campo è presente solo in dati pacchetti. In caso

contrario, si aggiungono campi aggiuntivi che contengono informazioni di controllo.

LIVELLO LINK

Procedura di accesso Link, Balanced (LAPB),LAPB è un protocollo di livello di collegamento dati che gestisce la comunicazione

e il pacchetto di inquadratura tra DTE e dispositivi DCE. LAPB è un protocollo orientato al bit che assicura che i fotogrammi

sono ordinate correttamente e senza errori. Tre tipi di telai LAPB esistono:informazioni,vigilanza, enon numerato.

Gliinformazioni telaio (I-frame) trasporta le informazioni di livello superiore e alcune informazioni di controllo. Funzioni di I-

frame includere sequenziamento, controllo di flusso e rilevamento degli errori e recupero. I-frame portano inviare e ricevere

numeri di sequenza. Gli telaio di vigilanza (S-frame) trasporta informazioni di controllo. Funzioni di S-Frame

includere la richiesta e sospende le trasmissioni, relazioni sulla situazione, e riconoscendo la ricevutadi I-frame. S-frame

trasportano solo ricevere i numeri di sequenza. glitelaio non numerato

(U-frame)trasporta informazioni di controllo. Funzioni di U-frame includono installazione collegamento e scollegamento, così

come erroresegnalazione. U-frame portano nessun numero di sequenza.

Frame Relay

È uno standard di interfaccia DCE-DTE che permette di far convivere diversi circuiti virtuali sulla stessa linea simile a X.25.

È uno standard puramente di livello 2 X.25 ha un suo livello 3.

Approccio Core-Edge alla correzione degli erroriX.25 corregge gli errori su ogni tratta ,pensato per linee veloci ed affidabili

Applicazioni di Frame Relay

Standard per interfacciare apparecchiature direte locale (router, bridge, gateway) a reti per trasmissione di dati. Permette di

richiedere la banda quando necessario e di usare solo quella realmente utile. Disponibile sulle reti a commutazione di frame edi

cella e sulle MAN

Trame LMI

Sono particolari trame di gestione inviate sul DLCI 1023Servono per: richiedere informazioni sullo stato della rete, realizzare

schemi di “global addressing”, realizzare meccanismi di multicast.

Architettura di Frame Relay: L'architettura del protocollo Frame Relay prevede due piani operativi separati: un piano di

controllo (c-plane)un piano di utente (u-plane).

il piano di controllo è responsabile della instaurazione, del mantenimento e del rilascio delle connessioni logiche

il piano di utente è responsabile deltrasferimento dati tra utenti end-to end

Vantaggi

Velocità elevate, bassi ritardi

Efficiente condivisione di banda (l'intera banda

viene impiegata per traffico di tipo bursty )

possibilità di CIR (Committed Information Rate)

Ideale per l’interconnessione di LAN

Possibilità di attestare su una porta fisica più

connessioni logiche

Trasparenza ai protocolli al di sopra del livello 2

Interfaccia industriale standardizzata

Svantaggi

richiede terminali di utente intelligenti

richiede linee trasmissive di buona qualità

non idoneo a trasportare la voce

ritardi non sufficientemente bassi

SMDS (Switched Multi-megabit Data Service)

SMDS is a service, not a technology. È un packet switching data service: high performance, wide area, connection less.

Concepito per interconnettere LAN.

Concepito per essere un servizio pubblico(e.s. gestione tariffazione)

SNI (Subscriber Network Interface)disponibile su tecnologia:MAN DQDBATM

Obiettivi di SMDS

To address the existing and emerging userneeds for a standard, public, switched, multi-megabit data communication service

To minimize the difficulty and cost to usersof interconnecting their embedded base of equipment and applications

To provide user with a consistent“technology-independent” service as network technology evolves

Aspetti generali

Possibilità di interconnettere sistemi isolati o intere LAN

Possibilità di effettuare l'interconnessione ad una rete pubblica o ad una “sottorete logica privata”

SMDS implementa access-classes credit manager

per negoziare con la rete: sustained throughputburstiness

Protocolli

Servizio connection less :simile a quello delle LAN ignora i protocolli di livello superiore (es. IP,Decnet, IS-IS)

SIP (SMDS Interface Protocol)corrisponde al MAC delle LAN cellizzazione molto simile a quella del DQDB cellizzazione molto

simile a quella di ATM AAL3/4

A livello fisico SMDS può utilizzare:T1 (1.5Mb/s)T3 (45Mb/s).

Funzionalità SMDS

Le SDU (Service Data Unit)sono trasportate in modo connection less servizio datagram: nessuna connessione e' aperta prima di

trasferire i dati possono essere ricevute non nello stesso ordine in cui sono state trasmesse possono contenere sino a 8191 bytes

(SMDS ammette bridging di LAN Token-Bus (802.4)) .

Errori di trasmissione: solo detection no recovery no reporting.

Addressing SMDS

È basato su CCITT E.164Ha inoltre funzionalità aggiuntive quali: Più indirizzi per una singola interfaccia Indirizzi di gruppo: un

indirizzo identifica un insieme di interfacce. È molto utile per il traffico di broadcast Validazione del Source Address dichiarato

dall'apparato di utente da parte della rete. Importante per la security SMDS implementa inoltre: Address Screening e Logical

Private NetworkService.

Prestazioni SMDS

Availability:totale 24 ore al giorno, 7 giorni la settimana. Accuracy

sulle SDU migliore di: 10^-10 per errored SDUs ; 5*10^-8 per misdelivered SDUs; 10^-4per undelivered SDUs Delay

interfaccia-interfaccia:minore di 20ms in mediaminore di 30ms per il 95% delle SDU Throughput:consistente con

l'access class negoziata

TCP/IP

2.5) Problematiche inerenti l’interconnessione di reti di telecomunicazioni.

Connessione di reti LAN , Dorsali , Reti virtuali Elenchiamo i vari dispositivi d’interconnessione fra reti LAN, operano su vari strati dell’architettura e in base a questi sono

divisi in 5 categorie.

(1)HUB PASSIVI [SOLO CAVO]

(2)HUB ATTIVI o RIPETITORI o SWITCH DI LIVELLO 1 [FISICO]

(3)BRIDGE o SWITCH DI LIVELLO 2 [LAN,COLLEGAMENTO,LINK]

(4)ROUTER o SWITCH DI LIVELLO 3 [RETE]

(5)GATEWAY [APPLICAZIONE]

(1)HUB PASSIVO, è semplicemente un connettore , connette i cavi che convergono nel collettore (e.g nodo centrale struttura a

stella) è parte del canale trasmissivo si colloca la di sotto dello strato fisico.

(2)RIPETITORE, opera nello strato fisico , rigenera (non amplifica) il segnale prima che diventi troppo debole , decodifica bit,

crea un nuovo segnale

(3)HUB ATTIVO, ripetitore più forte , di solito usato per tipologie a stella e a livelli

(4)BRIDGE, opera negli strato fisico e di collegamento:

(fisico) come ripetitore rigenera il segnale

(link) controlla indirizzi MAC e prende decisioni

Non cambia gli indirizzi specifici nei frame

(5)BRIDGE TRASPARENTI, presenza non percepita, viene inserito e rimosso senza riconfigurare i nodi

(6)BRIDGE APPRENDIMENTO possono imparare la tecnologia per funzionare in modo trasparente quando arriva un frame il

bridge impara la strada verso il nodo mittente

(7)BRIDGE APPRENDIMENTO A CICLI, il problema dei cilci si risolve con un minimo albero ricoprente, costruzione

automatica dell’albero.

(8)SWITCH, usato per indicare BRIDGE di secondo livello o ROUTER di 3 livello

(9)ROUTER, instrada i pacchetti tramite l’indirizzio IP, interconnessione a internet o tra più LAN e WAN

(10)GATEWAY, è un router in grado di interpretare e trasformare i messaggi, può essere usato per connettere 2 reti che usa

modelli diversi, opera in tutti gli strati dell’architettura.

(11)DORSALI, collegamenti tra molte reti LAN a grandi distanze (BUS,stella ,punto-punto)

Reti Ethernet

Il MAC di Ethernet:

CSMA/CD:Carrier SenseMultiple Accesswith Collision Detection

Protocollo MAC: concepito per topologie a bus non deterministico con tempo di attesa non limitato superiormente

Caratteristiche di Ethernet/802.3

Per garantire buone prestazioni (collisioni ridotte) bisogna non superare un certo carico: medio del 30 % (3 Mb/s)di picco del

60% (6 Mb/s)Non avendo un ritardo massimo non è adatto ad applicazioni real-time (anche se è stato comunque usato in reti di

fabbrica)È lo standard per LAN più diffuso quindi ampia disponibilità di componenti di basso costo.

Tecnologia dominante per le LAN :

Economica: 10 euro per 100Mbps!

Prima tecnologia LAN largamente usata

Più semplice e meno costosa di altre tecnologie (token

bus e ATM)

Ha sempre aumentato il bit rate: 10, 100, 1000 Mbps

Lo standard IEEE 802.3

Standardizza una famiglia di reti Ethernet:

10Base5: cavo coassiale spesso (thick), ripetitori, transceiver

10Base2:cavo coassiale sottile (thin), ripetitori

10BaseT e 100BaseT:doppini, fibra ottica, hub, switch

Gigabit Ethernet:cavi cat. 5, fibra, speciali hub e switch

10 Gigabit Ethernet:estensione per connessioni punto-punto

A livello MAC:

Il formato del pacchetto

Il protocollo di accesso al canale condiviso

A livello fisico:

Trasmissione (broadcast) in banda base

Codifica del segnale (codifica Manchester e varianti)

La trama Ethernet v2.0

Preamble (preambolo):7 byte con pattern 10101010 seguiti da

un byte con pattern 10101011.

Usato per sincronizzare i clock dei nodi sorgente e destinatario

Addresses (indirizzi):6 byte per ogni indirizzo (destinatario e mittente).

Il frame è ricevuto da ogni adattatore della LAN, ma viene ignorato se

il destinatario non corrisponde es: 62:FE:F7:11:89:AB

Type (tipo):2 byte per indicare il tipo di protocollo del livello superiore (in genere IP, ma anche Novell o AppleTalk)

Data (dati):46-1500 byte per i dati del livello superiore

CRC (controllo):4 byte per controllare errori di trasmissione. In caso di errori il pacchetto viene scartato

2.6) ISDN ISDN sta per Integrate Services Digital Network. Rete integrata nelle tecniche e nei servizi.

Ha come obiettivo primario di integrare e gestire in maniera indifferente tecniche di inoltro e servizi diversi.

Vuol dire che in una ISDN io potrò gestire sia la commutazione di pacchetto che di circuito.

Conseguentemente sarò in grado di poter far coesistere in una stessa struttura, servizi differenti che prima erano realizzati con reti

dedicate, basti pensare le reti per la voce telefonica e quelle per i dati erano reti separate.

Oggi questi servizi stanno in una sola struttura. L’ISDN è una rete interamente numerica.

Vantaggio quindi di poter gestire qualsiasi servizio perché si lavora su bit.

Presenta dal punto di vista pratico dal fatto che se sei sempre attaccato a Internet gli altri possono telefonare ad esempio, due

servizi contemporanei infatti. Integrazione di servizi che prima venivano fatti con linee dedicate.

Far coesistere servizi diversi con requisiti anche di qualità diversi in un unico contenitore, linea.

Altro obiettivo è quello di unificare l’interfaccia d’accesso.

Mentre prima lato utente si aveva dispostivi dedicati ad ogni servizio, con ISDN si ha una sola interfaccia.

- ACCESSO BASE - ACCESSO PRIMARIO

I canali per dati sono: TIPO B (Bearer) 64 Kbit/s, cioè trasportano un canale fonico in maniera numerica.

CANALI TIPO H con capacità maggiore o uguale a 384 Kbit/s dedicati di solito a utenze privilegiate.

Per quanto riguarda i canali informativi si ha i CANALI D (Demand) di 16 Kbit/s che può arrivare a 64 Kbit/s.

L’accesso base prevede 2 canali di tipo B e 1 canale di tipo D con un totale di 144 Kbit/s.

Mentre l’accesso primario prevede 30canali B + 1 D cioè circa 2 Mbit/s.

Si possono sfruttare i 2 canali B per avere più accessie l’accesso primario per dividere l’accesso fra gli utenti.

L’ISDN ha previsto una classificazione degli accessi in questa forma…

La parte superiore si riferisce a terminali già ISDN. Possibilità digestione con modalità full duplex accessi a primario.

TE2 non è in standard ISDN ed ha una interfaccia ditipo Rper poter permettere l’accesso di questi terminali si usa il TA

terminal Adapter che riporta lo standard ISDN comeun modem.

NT2 è un dispositivo locale di proprietà dell’utente. Lavora ai primi 3 livelli OSI può essere quello che in genere si

chiama centralino PBX, gestisce sia traffico telefonico che dati.

NT2 è collegato a NT1 che lavora solo a livello fisico si interfaccia con la rete ISDN secondo le modalità previste dal

livello fisico cioè può fare anche il multiplexing. Nel caso base fa la multiplazione nel tempo dei due canali B.

CCITT: Comitato consultivo internazionale telegrafico telefonico. Hanno standardizzato le reti telefoniche.

Lo standard ISDN distingue l’accesso del canale di tipo B da quello di canale D.

Per il canale di tipo D i principali servizi sono di trasferimento di segnalazione di rete.

Commutazione di pacchetto a basso bit rate…

Trasferimento di servizi di telemetria.

- SEGNALAZIONE - PACCHETTO - TELEMETRIA

CANALE B SERVIZI

- SERVIZI REAL TIME COMMUTAZIONE DI CIRCUITO… ISOCRONO - CIRCUITI DEDICATI - SERVIZI

COMMUTAZIONE DI PACCHETTO

CANALE D

Il livello fisico è comune a tutti i canali e a tutti i servizi.

I430, I431, corrisponde a un libro che specifica come fare a realizzare un accesso in standard ISDN.

Al collegamento i canali D usano LAP-D, linking access protocol di tipo D. Fa colloquiare due terminali di rete direttamente

collegati fra loro.

D perché è stato personalizzato per la gestione di canali di tipo D.

A livello di rete ci sono dei protocolli e una serie di funzioni per la segnalazione.

Il pacchetto è gestito dal protocollo X25. Per la telemetria ancora non sono standardizzati.

Per la gestione di canali di tipo B.

Servizi CC e circuiti dedicati gestiti come le telefonate e i servizi pacchetto con X25.

Rete in standard X25, primo caso di architettura diverse che consentono di implementare i pacchetti su ogni tipo di rete.

Da questo punto di vista è abbandonato per l’IP. Tuttavia a suo tempo ha presentato delle innovazioni che sono state riprese tipo

nell’ATM che rappresenta lo standard per le reti ISDN BROADBAND.

Se un utente deve mandare un pacco al suo amico… confeziona il pacco secondo le modalità dell’ufficio, specifica le info

necessarie dopo di che una volta lasciato il pacco all’ufficio postale… non conosce con quale modalità arriverà all’utente finale.

Ugualmente l’utente finale non sa come è arrivato fino ad un certo punto. Si sono definite delle modalità standard fra terminale e

utente senza preoccuparsi di come viene gestito dopo. Per questo può essere usato su reti diverse.

X25 prevede

- LIVELLO FISICO

- LIVELLO COLLEGAMENTO (LAP B (BALANCED))

- LIVELLO RETE

X25 realizza due tipi di servizi base.

- circuito virtuale classico (VC)

- circuito virtuale permanente (PVC)

La differenza è…

Il VC consente di trasferire info rispettando l’ordine dei pacchetti e ha una fase di set-up.

Il PVC è una modalità a circuito virtuale, non è dedicato alla connessione singola. E’ condiviso fra più connessioni.

Virtuale: seguono uno stesso cammino nella rete, ma il cammino è condiviso da altri pacchetti e relative connessioni.

Permanente: viene individuato solo alla posa in opera del collegamento e viene mantenuto per tempi molto lunghi. Il circuito

viene distrutto ad ogni sessione. Le conseguenze sono: non ho da fare il set-up e quindi è più veloce. Sarà comunque più costoso.

DTE: digital terminal equipment = terminale di utente

DCE: terminale della rete

L’accesso al mezzo fisico viene classificato ad un etichetta CCI logical canell Identifier? … questo

consente di gestire più flussi su uno stesso filo, faccio coesistere canali diversi.

In questa maniera faccio coesistere servizi che hanno capacità di bit rate diverso sullo stesso mezzo fisico.

Ovviamente in ricezione ogni pacchetto sarà distribuito secondo questo campo.

Serve anche per realizzare la commutazione. Può essere ridefinito. Ha un valore che vale da nodo a nodo. ISDN utilizza il

protocollo di segnalazione SSN7 che è il più evoluto.

“La segnalazione in una rete di telecomunicazioni è necessaria per consentire lo scambio di informazioni tra gli utenti della rete

stessa”

Vediamo la modalità base per implementare la segnalazione nelle reti di telecomunicazioni.

1)SEGNALAZIONE IN BANDA: si ritaglia un pezzo di banda per la segnalazione, ad esempio questo viene fatto nei canali

analogici nei quali si manda degli impulsi di frequenza, tipo nel telefono. Ovviamente riduce la banda per la trasmissione. Se è

permanente può essere uno spreco.

2)SEGNALAZIONE FUORI BANDA:

CANALE COMUNE –> FUORI BANDA

Una risorsa dedicata alla segnalazione viene contesa da più servizi allo scopo di aumentare l’utilizzazione e quindi ottimizzare la

gestione. Ovviamente dal punto di vista dell’utilizzo è la migliore. Però presuppone un rapporto di gestione migliore. Da qui la

necessità di fare una rete di segnalazione(viene veicolata su una banda diversa). Alcuni requisiti sono:

SP: SIGNAL POINT, punta di aggregazione di flussi di segnalazione individuali.

STP: SIGNAL TRASFER POINT, è a tutti gli effetti un autocommutatore della rete di segnalazione è un elemento che

individua le richieste di segnalazione e le dirige verso le sue uscite commutando le modalità di connessione e di

architetture di reti di segnalazione

Per esempio la prima modalità è ASSOCIATA che non va confusa con DEDICATA.

L’architettura ricopia esattamente quella della rete informativa che è la rete controllata. Con questa modalità gli SP sono collocati

dove sono gli autocommutatori della rete vera e propria.

Il vantaggio è che con uno solo libero riesce a controllare ciò che passa fra le giunzioni.

Vantaggio: costo contenuto

Svantaggio: deve essere per forza una copia della rete primaria perché per ogni linea di collegamento primaria devo prevedere una

linea di segnalazione e questa può non essere d’accordo con le modalità.

MODALITA’ NON ASSOCIATA => Impiego di STP

Il trasferimento fra gli SPe gli STP, il vantaggio è che l’architettura stavolta non è la copia della

rete primaria.

In più ottengo un utilizzazione superiore perché stavolta controllo tutti i collegamenti che

l’autocommutatore gestisce.

Diminuisco il numero di linee ottimizzo l’utilizzo e lo razionalizzo rendendolo indipendente dalla

rete primaria. Diciamo subito che è la rete di riferimento per le reti più avanzate.

Nel frame in mezzo c’è la modalità quasi associata per la quale di fatto alcuni SP giocano da STP. Le modalità di controllo

multiplo coesistono con quella ASSOCIATA.

2.7) Sistema di segnalazione a canale comune ( standard CCITT) SSN7

La segnalazione in una rete di telecomunicazioni è necessaria per consentire lo scambio di informazioni tra gli utenti della rete

stessa esistono 2 modalità:

1. Segnalazione in banda: l’informazione relativa alla segnalazione di rete viene inviata nella banda del segnale

informativo

2. Segnalazione fuori banda: la segnalazione viene dedicata una risorsa non efettiva che non intacca quanto è stato

previsto dover destinare all’informazione tali risorsa veicolata su banda diversa da quella del segnale.

La tendenza è a non condividere la risorsa dedicata alla segnalazione per il controllo di più flussi informativi (CANALE

COMUNE), non conviene utilizzare una risorsa al controllo di un unico flusso informativo ma conviene se si utilizza per

più flussi , c’è la probabilità che la risorsa sia sempre a “lavorare”.

L’uso della segnalazione a canale comune nelle nuove reti a circuito porta alla definizione di una rete di segnalazione.

Nella rete di segnalazione si identificano punti di segnalazione:

(SP - signalling point): punti di trasferimento della segnalazione, è un collettore per l’informazione di segnalazione

tipicamente viene associata ad una struttura di commutazione.

o La collocazione fisica coincide con quella degli auto commutatori della rete xchè le istruzioni da eseguire sono

implicite nell’info elaborata.

(STP - signalling transfer point): collegamenti di segnalazione, è un’autocommutatore che opera esclusivamente

sull’info di segnalazione.

o Si sovrappone ad un autocommutatore della rete informativa e preposto alla gestione dell’info di segnalazione

punti di segnalazione (sorgenti)

punti di trasferimento della segnalazione(nodi)

collegamenti di segnalazione (canali)

Tra le informazioni di segnalazione hanno particolare rilevanza gli indirizzi di utente,(NUMERAZIONE). Un piano di

numerazione definisce la struttura degli indirizzi in una rete pubblica Piano di numerazione per l’era ISDN). NON è (

ESCLUSIVO ed è a commutazione di pacchetto.

ARCHITETTURA RETE SSN7

- User Port -> implementato su livello end to end - Message Transfer Port

A sua volta…

Message Transfer Port - FISICO - COLLEGAMENTO - RETE

Reti di tipo ISDN BROADBAND B-ISDN .In ISDN son costretto a quantizzare in termini di accesso base e questo non

ottimizza il costo lato utente. Per rispondere alla necessità di gestire servizi diversi con bit rate diversi… Avere una architettura

flessibile e efficiente ha portato a queste tecnologie. L’architettura ATM, Asyncrhonous Transfer Mode, è quello utilizzato in

modo primario. Questo standard di rete, ATM FORUM -> specificano gli standards, università e aziende insieme.

Prima trasferire grosse quantità di dati era un evento sporadico. Se ho una immagine di 10 alla 9 bit di buona qualità quindi con

una ISDN 64 Kbit/s ci metto 4 ore… Se invece utilizzo 1,5 Mbit/s, sono 11 minuti. ATM realizza circa 150 Mbit/s come

riferimento base lato utente.

È basato sulla filosofia CORE-EDGE. Utilizza lafibra ottica come mezzo di riferimento e l’implementazione del core-edge si è

correlata strettamente. La fibra è affidabile, alta qualità e posso eliminare il tipico controllo degli errori a livello collegamento.

Riduco la complessità di livello rete tipo il controllo della congestione e anche questo prevedendo che la rete si garantisca accessi

richiesti. Quindi in ATM rimangono più che altro problemi a livello fisico che vengono quando io opero su una rete grande.

ATM prevede per i nodi intermedi solo il livello fisico. Mentre tutte le altre operazioni sono denotate all’ingresso e all’uscita così

alleggerisco i punti di transito, privilegiando la velocità dell’intero percorso. Dell’ATM è noto anche una concezione innovativa

che sono state riprese nei router, si chiamano FAST PACKET SWITCHING.

Invece di pacchetti si chiamano CELLE. Pacchetto (cella) -> 53 BYTE, 48 di payload e 5 Byte di testata.

ATM standard di livello fisico, tutt’ora prevede dei… chiamiamoli sotto livelli.

- PIANO UTENTE - PIANO CONTROLLO - PIANO GESTIONE

I primi due sono a sua volta divisi.

//////////////////////////////////////////Livello fisico e Link///////////////////////////////////////////////////////////////////

ALL con SSN7

ATM, standard solo a livello fisico. Architettura standardizzata per l’ATM.

AAL ovvero ATM ADAPTATION LAYER:

serve per rendere compatibili con una rete ATM tipologie di servizio che altrimenti non lo sarebbero.

Serve per interfacciare con la rete ATM reti che hanno dal livello 2 in poi architetture diverse.

L’AAL è stato introdotto perché in questa rete dovevano coesistere in maniera efficiente servizi con caratteristiche diverse.

Voce con ritardo fra pacchetto ridotto oppure dati che privilegiano la velocità. Un’altra funzione che questo livello deve fare è

quella di rendere compatibile quello che sta sopra il livello fisico di ATM il formato di rete ATM è a cella.

Il pacchetto ATM è chiamato cella per sottolineare le sue dimensioni definite di 53 Byte delle quali 48 rappresentano il payload

cioè l’informazione. Il resto, 5 Byte, è la testata, funzioni di assemblaggio e deassemblaggio. L’AAL è un servizio in una rete

ATM che coinvolge per la connessione un numero di nodi superiore a 1, è implementato end-to-end.

L’AAL è a sua volta suddiviso in più livelli. Implementazioni diverse a seconda dei servizi che deve fare di chi deve servire.

AAL 1 AAL 2 AAL ¾ AAL 5

Il primo tipo, l’1, è dedicato alla gestione del traffico a bit rate costante che ha bisogno di servizio isocrono, quindi connection

oriented. L’esempio tipico è la voce. Il 2 è indirizzato al traffico caratterizzato da un bit rate variabile, velocità di trasmissione nel

canale rispetto al traffico non c’è una costante nel tempo, esempio un video con compressione. Sono comunque anche questi

connection oriented, un servizio tipico è la video conferenza. ¾ ha bit rate variabile senza conversione e il 5 è per servizi best

effort, vengono accettati solo quando la rete ce la fa a gestirli.

LIVELLO ATM: quello più importante, è responsabile della gestionedel trasferimento dell’informazione attraversola rete a larga

banda. Ci sono due nodi di interfacciamento:

- lato utente - lato rete

ATM è responsabile della definizione dei 5 Bytes di testata la quale si differenzia a seconda che sia utente o rete.

Condivisione a larga banda. Un livello superiore che si chiama cammino virtuale e canale virtuale. Un cammino virtuale

racchiude più canali virtuali. Tutto questo nasce dalla necessità di gestire in maniera efficiente e veloce la commutazione nei nodi

di transito. Entità di tipo virtuale quindi di fatto entità logiche, non fisiche. Supponiamo di avere un tubo, il diametro rappresenta

la capacità che può essere adoperata per diversi scopi. Si può fare una sezione del tubo nel quale sono contenuti più tubi più

piccoli che sono i cammini virtuali.

Ancora però non è abbastanza flessibile. Quindi si suddividono ancora in altri tubicini che diventano i canali virtuali. Ogni tubo è

suddiviso in tubi, i cammini che sono a sua volta suddivisi in canali. Il legame che c’è fra i canali e il cammino è che vi è un

etichetta che li identifica come ad esso appartenenti.

La suddivisione è fatta in maniera logica. Si distinguono i pacchetti in base alla loro etichetta. Questo si gestisce andando a

modificare opportunamente l’etichetta. L’interfaccia è di tipo UTENTE – RETE. UNI (User Network Interface )5 Bytes.

GFC: campo dati controllo del flusso fra utente e rete, General Flow Control

VPI: 8 Bit, Virtual Path Identifier, è un campo dedicato alla specifica dell’etichetta del cammino virtuale, quindi serve a

individuare il contenitore dove il singolo servizio trova connessione.

VCI 16 bit, Virtuale Channel Identifier, individua una capacità specifica per un singolo servizio.

PT 3 bit, Payload Type, è preposto ad identificare il tipo di traffico della cella ATM, servizio preposto allo strato AL.

CLP: Cell Loss Priority 1 BIT, 0 = sta ad indicare che la cella ATM può essere perduta se vengono rilevate situazioni di

congestione.

HEC, HeaderError Control, è costruito in base al controllo di errore e ha la scopo di mettere in evidenza se nella parte di

testata precedente c’era errore. Questo è l’unico controllo d’errore che viene fatto dai nodi e viene gestito a livello fisico.

///////////////////////////////////////////////////////////////////////////////////LIVELLO DI RETE/////////////////////////////////////////////////////////////////////

Per quanto riguarda l’NNI, non esiste il CFC. VPI 16 bit più indirizzi virtuali, per il resto rimane tutto uguale. Serve a rendere più

veloce la commutazione all’interno della rete. I nodi di transito consentono il blocco dei cammini virtuali senza specificare cosa è

contenuto all’interno. Questo è comodo quando si vuole una connettività piuttosto continua fra diverse postazioni. Livello fisico

di ATM: ha il compito di trasmettere la cella, gestisce il campo HEC per evidenziare gli errori. La connessione arriva al control

management che la passa ai livelli sottostanti fino ad arrivare al livello fisico collegato al nodo ATM. Dopo essere arrivata al

control management, viene effettuato il controllo della rete, viene guardato se la richiesta è compatibile e se la rete può garantire

la qualità richiesta. Questo presuppone che richieste in più non vengono accettate. Tutto quello che viene trasmesso è traffico

garantito. Torna indietro l’istruzione su come compilare i campi VCI. In una rete a livello fisico il trasferimento può essere seriale

o parallelo, sincrono o asincrono. Ci può essere la modalità di controllo di flusso. La trasmissione parallela presuppone più fili e

quella seriale un filo unico. Quella parallela è più veloce, ma anche più costosa.

Sincrono: viene trasferito un byte alla volta e anche caratteri dicontrollo per diversificarli.

Asincrono: è più efficiente.

Modalità di controllo Software o hardware per il controllo di flusso. Livello fisico nelle reti di tipo geografico. Si usa il

PDH. In Europa esso prevede il primo livello E1 da 32 canali a 64 Kbit/s di cui 2 dedicati alla segnalazione.

Sta sempre andando bene, ma quando si usa ad esempio l’ATM mostra i suoi limiti, che sono la mancanza di uno standard valido

per tutto il mondo. Questo perchè gli Stati Uniti utilizzano un modo diraggruppare i canali diverso, a 24 canali da 7 bit.

T1 = 24 canali a 56 Kbit/s (7 bit).

Il formato della trama non è uniforme. A seconda di come i blocchi vengono raggruppati, non c’è una regola fissa con cui questo

viene fatto.

- Difficoltà di inserimento della segnalazione e difficoltà di aggregazione di traffico avente bit rate diverso.

Tutto questo viene risolto utilizzando l’architettura o il protocollo SDH. Synchronous Digital Hierarchy.

CCITT SONET Standard specifico per accesso in fibra ottica. Molto complicato.

2.8) ISDN a banda larga (BISDN) e ATM : Generalità, Aspetti architetturali, Aspetti

trasmissivi, Livello fisico, ATM e AAL.

Le B-ISDN(Broadband Integrated Services Digital Network):

sono reti di telecomunicazioni commutate pubbliche e/o private che supportano servizi ad alta e bassa velocità a sullo stesso

supporto trasmissivo

sono in corso di avanzata standardizzazione presso l'ITU-T

sono una evoluzione (o rivoluzione?) della rete ISDN

adottano la tecnica ATM (Asynchronous Transfer Mode) come tecnica di trasporto, di multiplazionee di commutazione

hanno ricevuto un impulso commerciale enorme grazie all'ATM Forum

Applicazioni e servizi per B-ISDN :Tutti i servizi già oggi forniti dalle reti di telecomunicazioni (telefonia, traffico dati,

televisione).

Requisiti delle reti B-ISDN

bassi costi

grande copertura geografica e grande popolazione di utenti

superare le limitazioni di banda delle reti classiche)alta velocità a e topologie magliate

trasporto di traffico eterogeneo sullo stesso supporto trasmissivo)rete integrata

consentire la gestione delle chiamate multi connessione

garanzie di servizio e della sua qualità QoS (Quality of Service),possibilità di fornire garanzie di QoS diversi per applicazione,

necessità di controllare a priori i ritardi con cui i pacchetti arrivano a destinazione (limiti superiori al ritardo medio oppure alla

varianza dei ritardi),possibilità di controllare a priori la probabilità di perdita (si vogliono perdite molto piccole all'interno della

rete)

garantire l'affidabilità senza basarsi solamente sui protocolli end-to-end

fornire prestazioni superiori alle reti attuali

Elementi architetturali per le reti B-ISDN

definizione interfacce di servizio tra utente e rete, basate su un contratto che specifichi il tipo di traffico offerto

dall'utente e la qualità del servizio che la rete è in grado di fornire a fronte di tale traffico.

gestire l'allocazione delle risorse interne alla rete per trasportare sia il traffico con garanzie di servizio che il traffico Best-Effort

procedure di CAC (Connection Admission Control), controllo di accettazione delle chiamate e delle singole connessioni

nuovi algoritmi di routing, basati sulla qualita del servizio da fornire alle diverse applicazioni

una schedulazione in tempo reale all'interno della rete

supporto per il multicast all'interno della rete

meccanismi di policing/shaping del traco in ingresso alla rete

nuova architettura di protocolli per garantire affidabilità e velocità di trasmissione => nuovi protocolli di

basso livello (modica dei protocolli di alto livello?)

rete di comunicazione basate su tecnica e tecnologia ATM ( Aynchronous Transfer Mode)

Soluzioni tecnologiche per B-ISDN

Bassi costi e alte velocità => numerizzazione, standardizzazione, celle di lunghezza fissa.

Traffico eterogeneo e compressione dei dati =>multiplazione statistica di pacchetto.

Bassi ritardi => pacchetti (celle) di dimensioni contenute.

Garanzie di servizio => paradigma o modo orientato alla connessione.

Cosa non è ATM :Una tecnica di trasporto ottimale per alcune tipologie di traffico

Caratteristiche della tecnica ATM

E basata sul trasporto di informazioni contenute in PDU di lunghezza ssa, denominate celle.

E caratterizzata da un meccanismo di trasporto detto a canale(cammino)virtuale mantenimento dell'ordine delle unità dati.

Prevede che all'interno della rete siano disponibili solo i protocolli di livello più basso, per semplificare al massimo le operazioni

all'interno della rete) configurazione core and edge.

E una tecnica efficiente di multiplazione e di commutazione.

Permette una grande flessibilità nel meccanismo di allocazione della banda, grazie alla tecnica di multiplazione asincrona dei

diversi flussi informativi.

Utilizza un sistema di segnalazione e metasegnalazione a canale comune: dati e informazioni di controllo sono trasportati su

circuiti virtuali separati.

Canale a cammini virtuali

Canale virtuale è associato a un canale di comunicazione ed e identificato da un VCI, Virtual Channnel Identier.

Cammino virtuale è un insieme, un gruppo di VC, identificato da un VPI, Virtual Path Identier.

CommutazioneATM

Per ogni linea di ingresso di un nodo di commutazione, l'etichetta di una cella (VPI/VCI) determina univocamente (mediante

tabella all'interna del nodo di commutazione) la nuova etichetta da porre nell'intestazione e il canale di uscita dal nodo.

Il significato delle etichette e puramente locale; vale tra un nodo di commutazione e quello successivo.

Ogni nodo ATM deve quindi essere in grado di effettuare le seguenti operazioni:

-una commutazione, quando trasferisce sicuramente una cella da un canale di ingresso ad un canale di uscita,

-una traduzione di etichetta, variando l'identicativo della connessione virtuale,

-una memorizzazione quando, a causa della multiplazione statistica, una o piu celle devono essere ritardate per fenomeni

di congestione sul canale di uscita.

Instradamento a livello VP

Le funzioni di instradamento sui VP sono effettuate da commutatori VP.

Richiedono la traduzione dei VPI dei VP in ingresso al nodo in VPI dei VP in uscita dal nodo. I VCI rimangono inalterati.

Instradamento a livello VC

I commutatori VC instradano sia i cammini che i circuiti virtuali.

Richiedono la traduzione sia dei VPI dei VP in ingresso sia dei VCI dei VC in ingresso dal nodo.

Vantaggi del canale virtuale

Permette di avere i vantaggi di un circuito con risorse dedicate, senza la necessità di assegnare staticamente le risorse.

Permette di mantenere l'ordine delle unità dati =>è sempre necessario riassemblare ma non più riordinare le unità dati al

destinatario.

Consente l'assegnazione dinamica delle risorse in modo rapido ed efficiente.

Consente il controllo del traffico che, in assenza del concetto di circuito, non può essere controllato dalla rete (vedi LAN attuali).

Vantaggi della separazione in VPeVC

Architettura di rete semplificata: le funzioni di trasporto possono essere separate in quelle relative ad una singola connessione

logica (VC) e quelle relative ad un gruppo di connessioni logiche (VP).

La rete può occuparsi di entità aggregate, più semplici, con vantaggi prestazionali e di affidabilità.

Il tempo di elaborazione e di instaurazione della connessione è ridotto: se esiste già una rete di VP instaurata l'aggiunta di pochi

VC all'interno di un VP richiede uno sforzo minimo.

I servizi di rete sono migliori: il VP è utilizzato internamente alla rete ma è visibile all'utente. L'utente può cosi definire gruppi di

utenti o reti chiuse utilizzando insiemi di VC.

Facilitano il controllo del traffico.

VCI/VPI su reti ATM

Col legamento di canale/cammino virtuale: è una capacità di trasporto unidirezionale di celle ATM da dove viene assegnato un

VCI/VPI a dove questo viene tradotto o rimosso.

Connessione a canale/cammino virtuale: è una concatenazione di collegamenti di canale/cammino virtuale.

Le connessioni sono definite in una fase di instaurazione che precede il trasferimento delle celle, predisponendo i nodi di

commutazione.

Tre possibili modalità di connessione:

-connessioni virtuali permanenti (PVC, Permanent Virtual Connection): un insieme di risorse della rete viene allocato in modo

permanente ad un utente;

- Connessioni virtuali semi-permanenti: le risorse di rete sono assegnate su richiesta dell'utente che però non fa uso della

segnalazione ATM;

-Connessioni virtuali commutate (SVC, Switched Virtual Connection): le risorse vengono assegnate su richiesta dell'utente

mediante segnalazione ATM.

La cella ATM

È di lunghezza ssa pari a 53 byte, di cui 5 dedicati all'intestazione o etichetta (Header) e 48 al campo dati (Payload)

I campi dell'intestazione hanno il seguente significato:

GFC 4 bit (Generic Flow Control): controllo del traffico e della congestione a livello UNI

VPI 8/12 bit (Virtual Path Identier): identica un gruppo di canali virtuali

VCI 16 bit (Virtual Channel Identier): identica il singolo canale virtuale

PT 3 bit (Payload Type): identica se la cella è una cella utente, oppure se porta informazioni di servizio per la rete

CLP 1 bit (Cell Loss Priority): livello di priorità di una cella, se = 1 la cella è a bassa priorità

HEC 8 bit (Header Error Control): CRC sull'intestazione della cella

L'insieme del campo VPI e del campo VCI permettono di identificare la connessione alla quale la cella appartiene.

Tecnica di multiplazione ATM:Si sfrutta la multiplazione statistica.

si basa sul fatto che la maggior parte dei canali virtuali ha un traffico di molto impulsivo dovuto sia a cause strutturali della rete

(canali a velocità diversa) sia a cause intrinseche (velocità di trasmissione di picco degli utenti molto superiori alle velocità

medie)

si ottengono benefici dalla multiplazione statistica se la capacità assegnata sul canale di uscita è inferiore alla somma della banda

di picco delle connessioni in ingresso, ma superiore alla banda media (il rapporto tra somma delle bande di picco e la banda

assegnata fornisce il guadagno)a livello di cella, lo sfruttare la multiplazione statistica implica

-la possibilità di congestione della rete

-aumentare la probabilità di perdita delle celle

-il rischio di creare comportamenti non equi nella rete

L'architettura protocollare di B-ISDN

Basata sull'approccio Core & Edge.

Il controllo di errore è effettuato solo end-to-end per semplificare i protocolli nella rete)la rete deve essere affidabile, con tassi di

errore molto bassi

B-ISDN:il modello di riferimento

Architettura suddivisa in tre piani:

User Plane, piano utente: si occupa del trasporto delle informazioni utente

Control Plane, piano di controllo: trasporto e trattamento dell'informazione di segnalazione

Management Plane, piano di gestione: suddiviso in:

-Layer Management Subplane, che gestisce i flussi informativi di celle OAM (Operation and Maintenance)

-Plane Management Subplane, coordina i piani precedenti e effettua una supervisione del sistema

I due piani di controllo e utente sono suddivisi in tre livelli, sui quali si appoggiano i protocolli di livello superiore:

Physical Layer,ATM Layer,AAL, ATM Adaptation Layer

Apertura di una connessione virtuale commutata(SVC)

Operazioni eseguite per stabilire un collegamento tra Piani Utente.

L'utente effettua una richiesta di collegamento attraverso i livelli più alti di protocollo e il livello AAL nel Piano Utente che

comunica con il Piano di Gestione.

Il Piano di Gestione attiva una entità di segnalazione SE nel Piano di Controllo.

La SE inizia un processo di negoziazione con una entità SE di pari livello utilizzando il protocollo di segnalazione sul canale

virtuale.

La SE comunica al Piano di Gestione il risultato della negoziazione

Il Piano di Gestione, attraverso il livello ATM invia una richiesta al livello ATM per stabilire l'associazione opportuna, stabilendo

una connessione basata su VPI-VCI e predisponendo i commutatori.

Il livello ATM conferma attraverso lo Strato di Gestione lo stabilimento dell'associazione al Piano di Gestione.

Il Piano di Gestione conferma al livello AAL l'instaurazione della connessione ATM

Rende il livello ATMindipendentedal sistema trasmissivo adottato.Si appoggia di preferenza su supporto trasmissivo in

fibra ottica della gerarchia SDH

Funzioni del livello ATM

Costruzione della cella: la PDU AAL è di48byte, a livello ATM la cella è di53byte.

Gestione della connessione:Assegnazione della connessione,Rimozione della connessione

Adattamento della velocità:Generazione della cella,Estrazione della cella e consegna al livello AAL

Commutazione e multiplazione:Ricezione della cella,Validazione dell'intestazione,Traduzione delle etichette,Multiplazione e

demultiplazione di celle appartenenti a connessioni diverse,Copiatura della cella,Meccanismo di controllo di accesso

Protocollo di livello ATM

Monitoraggio delle prestazioni

Gestione dei ritardi

Gestione del bit CLP

Controllo dei parametri utente

Discriminazione del tipo di cella: utente, OAM o controllo, RM o di gestione delle risorse ATM:livello di adattamento

AAL

Livello fisico:AAL

Il compito del livello di adattamento AAL è quello di integrare i servizi forniti dal livello ATM, per permettere ai livelli

superiori di fornire una certa classe di servizio agli utenti.

Le funzioni realizzate dipendono dai requisiti del livello sovrastante; l'AAL è così un livello “service dependent", poiché

implementa protocolli diversi in funzione del servizio che viene richiesto.

Dal punto di vista architetturale, l'AAL è posto tra il livello ATM ed il livello immediatamente superiore, nei tre piani utente,

controllo e gestione.

Esempi delle funzioni del livello AAL:gestione degli errori di trasmissione ,gestione della quantizzazione, causata dalla

dimensione fissa della cella ATM,gestione della perdita di celle,controllo di flusso e della temporizzazione sorgente-destinazione

Il livello di adattamento AAL è suddiviso in due sottolivelli:

SAR (Segmentation And Reassembly): riassembla e segmenta le unità dati provenienti dai livelli superiori in celle ATM

CS (Convergence Sublayer): fornisce servizi specifici a seconda della classe di servizio a cui si riferisce.

E possibile definire SAR e CS in modo dipendente dai requisiti dei servizi, e in alcuni casi i livelli SAR e CS possono essere

quasi inesistenti, se per alcune applicazioni il livello ATM è sufficiente.

AAL1

Convergence Sublayer

Estrazione delle informazioni relativealclock di sorgente (in modo adattativo)

Trasferimento di informazioni di struttura

Adozione di meccanismi a correzione di errore (in studio)

Impacchettamento ed estrazione delle unit adati

SAR SubLayer

Generazione ed analisi del contatore di sequenza (modulo otto)

Trasferimento di unit a dati con sorgenteavelocita costante

Trasferimento di informazioni temporali

Indicazione di perdite o di pacchetti arrivati a destinazione con errori

Monitoraggio e gestione degli errori di bit

Protezione e correzione del SAR-PDU Header

AAL3/4

Signicato campi della SAR-PDU:

ST (SegmentType, 2 bit): specica a quale sezione del messaggio CS-PDU corrisponde una SAR-PDU:BOM Beginning of

Message,COM Continuation of Message,EOM End of Message, SSM Single Segment Message

SN (Sequence Number, 4 bit): posizione di un segmento di tipo COM all'interno del messaggio

MID (Message Identier, 10 bit): stabilisce a quale messaggio appartiene un determinato segmento;

Payload: campo dati

LI (Length Indicator, 6 bit): stabilisce la lunghezza effettiva del payload (padding)

CRC (Cyclic Redundancy Code, 10 bit): codice per il controllo di errore, che copre tutta la SAR-PDU

Trasferimento delle AAL-SDU:

se AAL-SDU sono molto brevi si possono accorpare in un'unica CS-PDU (Blocking-Deblocking)

se AAL-SDU sono molto lunghe sono suddivise in piu CS-PDU (Segmentation-Reassembly)

AAL5

Il sottolivello CS è praticamente inesistente

La SAR-PDU utilizza tutti i 48 byte di payload per trasferimento dati

La CS-PDU è segmentata in unità di48byte, senza che queste siano

identificate o numerate in alcun modo

L'ultimo segmento contiene anche il CRC a 32 bit calcolato sull'intera CS-PDU

L'ultimo segmento e identicato ponendo a 1 il bit più

significativo del PT (Payload Type) dell'intestazione della cella ATM

Il sottolivello SAR assembla tutte le celle ricevute no al momento in cui ha ricevuto la cella con PT=1,verifica il CRC e se

corretto passa la PDU al livello CS, altrimenti la scarta

Non c'è possibilità di multiplare all'interno di un VC-VP.

Vantaggi AAL5

maggiore semplicità di elaborazione

-non ha il MID

-non ha i campi SEQ, Lenght, CRC (controllo di errore effettuato dal livello CS in AAL5)maggiore efficienza

-utilizza 48 bytes invece di 44

-anche da un punto di vista realizzativo permette di interfacciare la memoria con la scheda ATM in 2 passi invece che in

3 passi maggiore affidabilità

-le perdite di celle sono rilevate dal campo Lenght nel CS

-la tolleranza agli errori di tipo burst è migliore grazie al CRC-32 rispetto al CRC-10

Svantaggi AAL5

Utilizza il campo PT, che dovrebbe essere gestito da un altro livello di protocollo (la cui funzione per ò non è stata mai

assegnata)

Vulnerabile alla perdita della cella con PT=1

Non c’è possibilità di multiplare all'interno di un VC-VP.

2.9) Il livello fisico nell’accesso alle reti pubbliche : PDH, SDH

Gerarchia Sincrona SDH

l’elemento base è la trama STM-1, con periodo di ripetizione 125micros.

La trama è costituita da 19440 bit, corrispondenti a una velocità di 155.520Mbit/s.(elemento base)

L'informazione è organizzata in byte, su 9 righe da 270 byte ciascuna quindi 270 colonne

Le trame dei diversi canali possono giungere al multiplatore non allineate (tra loro, nel tempo, rispetto alla trama di

uscita)

Si utilizza un puntatore, inserito nella sezione di overhead, per indicare il posizionamento della trama all'interno della

STM-1.

L'overhead contiene le seguenti informazioni:

-byte di inizio frame

-puntatori alla trama dei vari canali multiplati

-numero di canali trasportati da un frame per identificare i puntatori validi

-informazioni di OAM che permettono la supervisione e la manutenzione del sistema

Si definisce:

-Virtual container (VC) la sezione utile al trasporto dati (261 x 9 = 2349 byte);

-Administrative Unit(AU) è l'insieme di VC e dei relativi puntatori.

With STM-4

Ha una capacità di 622Mbit/s, 4 volte superiore a quella di STM-1, pur mantenendo lo stesso periodo di ripetizione della STM-1

Si ottiene raggruppando quattro AU in un unico Administartive Unit Group AUG, in modo interleaved (intercalato)

Protocollo usato a livello fisico in reti di tipo geografico. Prima dell’SDH si usava il PDH, come è noto, specialmente per il PCM,

ma aveva dei limiti riguardo nuove esigenze di servizio per banda e scalabilità. Non è che potesse soddisfare queste cose, ma

presentava limiti realizzativi quasi. Quindi è stato riprogettato.

L’SDH è un argomento abbastanza complesso che trattiamo in maniera leggera.

In una rete SDH gli elementi che si evidenziano sono gli ADD/DROP MULTIPLEXER e i RIPETITORI.

L’architettura classica di una rete SDH è così fatta:

Il tratto dall’inizio alla fine si chiama CAMMINO. Poi i sono altri elementi tipo:

Sezione: fra Add/Drop e un altro elemento e

Linea: fra Dee Add/Drop.

Gli Add/Drop accomunano flussi tributari (ADD) che vengono separati poi (DROP) verso gli utenti. Il ripetitore è semplicemente

un sistema che da potenza al segnale, lo amplifica con lo scopo di superare grandi distanze.

Per quanto riguarda l’architettura si può dire che sia suddivisa in più parti: ^^^^

Rappresentano la definizione delle funzioni che sono implementate nelle varie parti della rete. La parte CAMMINO sarà costituita

da funzioni end to end. Vengono attivati nel multiplexer sorgente e poi implementate nel multiplexer di destinazione.

Le funzioni dello strato di linea invece sono quelle funzioni implementate nei pezzi di transito. Per esempio può accadere che un

flusso aggregato può essere combinato con altri all’interno della rete per creare flussi a bit rate più alto.

Lo strato di sezione è implementato nei ripetitori e fa solo eventualmente un controllo degli errori al singolo blocco. Esistono

diverse possibilità. L’SDH originariamente era dedicato allo standard SONET nato per la fibra ottica. Tutt’ora l’SDH può essere

supportato anche in rame. Per cui il livello fisico contiene le specifiche per interfacciarsi al mezzo fisico usato. La caratteristica di

questo sistema è la struttura della trama. Come nella gerarchia precedente sono previsti diversi livelli.

Trama ti di tipo STM1, la cui richiesta di banda nominale è di 155,12 Mbit/s, la caratteristica di ogni trama SDH è che il periodo

di ripetizione nel tempo è di 125 µs. La ragione è perché c’è anche il servizio voce. La struttura nella trama SDH in particolare

STM-1 è una struttura che può essere rappresentata in maniera più chiara usando una matrice come nelle celle ATM.

STM-1 9 righe di matrice.

La testata è suddivisa in 3 parti e dentro sono specificate le informazioni anche per il ripetitore. Le informazioni riguardanti il

cammino invece sono nel payload e servono per riottenere i flussi originali. Nella testata ci sono le informazioni per effettuare i

drop e gli add. La struttura dipende anche dai flussi integrati fra di loro. L’elemento base della matrice sarà il byte, cioè8bit. Il

minimo di flusso è 64 Kbit/s. La gerarchia SDH prevede che un flusso STM-1 può essere combinato con altri 3 flussi diventando

un flusso STM-4 con 622,80 Mbit/s, associando 4 di questi si ottiene un STM-16 con 2.488,32 Mbit/s che a loro volta diventano

poi, associandoli, un STM-64 e un STM-256. La tecnologia SDH è stata introdotta per una migliorare la gestione con la banda

larga. La trasmissione di una trama avviene per righe. Una riga per volta. Cenni sul livello di collegamento nelle reti.

Il livello di collegamento è quel livello che garantisce la fase link to link ,l’affidabilità dell’informazione che si trasferisce.

Il protocollo di riferimento generale è l’HDLL, HIGH LEVEL DATA LINK CONTROL. Il quale ha avuto nelle architetture

specifiche direte diverse realizzazioni tipo nell’ISDN dove questo protocollo si chiamaLAP-D. Lo schema tipico di trama ha

questa struttura.^^^

Il livello di collegamento ha una particolarità rispetto gli altri livelli OSI,infatti introduce sia unatestata che una coda.

TESTATA

FLAG

ADDRESS-> dove va

CONTROL -> tipo di servizio nel campo dati

FCS -> specifica bit controllo d’errore che protegge la parte address e control

FLAG -> uguale al rpimo e indica la fine della trama

Se i bit di flag si trovano nel data allora magari si pensa che la trama finisca lì allora si utilizza la tecnica di BIT STUFFING che

inserisce dei bit arbitrati una volta che si rileva il pericolo che la sequenza sia ripetuta. Immaginiamo di avere 1111110, prima

dello zero inserisco uno zero ad esempio ogni tot 1

consecutivi. Poi in ricezione non conto lo 0 in più.

2.10) Il livello collegamento : HDLC e suoi derivati.

Flag:

-Il carattere Flag è un marcatore di Inizio/Fine

trama (01111110)

-La tecnica del “bit stuffing” impedisce che il carattere Flag compaia erroneamente

nel campo dati in fase di trasmissione, inserisce un bit a zero addizionale dopo

5 bit a uno consecutivi, indipendentemente dal valore del bit successivo in fase di

ricezione, ignora un bit a zero dopo 5 bit a uno consecutivi.

Address: Usato unicamente per la gestione delle linee Multipunto. Non identifica il protocollo di livello 3 come nel caso di LLC

Control:

-Utilizzato per disporre di tre diversi tipi di pacchetto: Information Supervisor Unnumbered

-che consentano di utilizzare HDLC: come protocollo connesso come protocollo non-connesso

- Su rete geografica si adotta la modalità connessa che usa tutti e tre i tipi di pacchetti

Tipi di trame e numerazione

Information: Dati in modalità connessa Acknowledge

Supervisor: Acknowledge

Unnumbered: Dati in modalità non connessa, Iniziare e terminare connessioni

Numeri di sequenza:Usati in fase di trasmissione e di acknowledge,Due schemi di numerazione possibili:modulo 8,modulo 128

HDLC e CDN

HDLC è idoneo a collegare tramite un CDN: due bridge remoti, due router mono protocollo

HDLC non fornisce un supporto multiprotocollo nativo e non è quindi adatto a

collegare: router multiprotocollo di costruttori diversi, brouter

Point to Point Protocol (PPP)

Metodo per l’imbustamento di pacchetti su link seriali

Estensione di HDLC con supporto multiprotocollo

Link Control Protocol (LCP) instaurazione, configurazione e controllo delle connessioni

Network Control Protocol (NCP) famiglia di protocolli per configurare vari protocollidi rete

Comunicazione su link seriali

Invio di pacchetti LCP per configurare e collaudare il collegamento di livello data-link

Negoziazione dei parametri opzionali di livello data-link

Invio di pacchetti NCP per scegliere e configurare uno o più protocolli di livello rete

Invio dei pacchetti di livello rete

Il link rimane operativo fino a che non viene chiuso esplicitamente mediante un pacchetto LCP o NCP

2.11) Livello di rete

IP Control Protocol

NCP per IP

Negoziazione del protocollo di compressione

Negoziazione dell’indirizzo IP locale notifica dell’indirizzo proposto richiesta dell’indirizzo da usare

Negoziazione dell’indirizzo IP remoto proposta di un indirizzo richiesta dell’indirizzo remoto

Autenticazione

Challenge Handshake Authentication Protocol (CHAP):il router locale manda un pacchetto CHAP ad un

altro durante la fase di apertura della connessione il router remoto è sfidato (challenged) a rispondere una password crittografata

un valore casuale il proprio nome

Password Authentication Protocol (PAP) il router che richiede il collegamento invia nome e password il router locale conferma la

connessione

Controllo della qualità

Pacchetti Link Quality Report (LQR) sono inviati periodicamente ad un LQR viene risposto con l’invio di un LQR

La qualità del collegamento è controllata qualità in uscita: rapporto tra il traffico ricevuto all’altro estremo e quello generato

localmente qualità in ingresso: rapporto tra il traffico ricevuto e quello generato all’altro estremo

Se la qualità scende sotto una soglia predefinita, la connessione è abbattuta

Livello 3, livello rete

- funzioni di instradamento (routing) - controllo della congestione (flow control)

Le funzioni di instradamento riguardano quelle operazioni che vengono fatte nella rete per far arrivare il flusso informativo a

destinazione attraverso i vari dispositivi. Esistono varie tecniche.

Classificazione degli algoritmi di routing.

- SEMPLICITA’ - ROBUSTEZZA - STABILITA’ - OTTIMALITA’

Qualsiasi algoritmo di instradamento deve rispettare questi criteri.

Semplice per non essere più lento.

Robusto perché non deve risentire dei guasti sulla linea.

Stabile: anche in condizione di rete modificata deve arrivare a una soluzione.

Ottimalità: deve avere qualità, tipo ritardo medio non troppo grande.

- CENTRALIZZATI - DISTRIBUITI - ISOLATI

Centralizzati e distribuiti: modalità di implementazione.

Centralizzati: prevedevano esclusivamente tabelle e una unità di elaborazione dell’algoritmo centralizzata

Distribuiti: prevede una esecuzione dell’algoritmo in forma distribuita anche detta cooperativa anche in questo caso si

prevedono tabelle

Isolati: tipicamente rivolta a realizzazioni senza tabella prevedono l’esecuzione in locale (STAND-ALONE)

dell’algoritmo

INSTRADAMENTO SENZA TABELLA:

-Non prevedono abbinamenti ingresso-uscita predefiniti sono di tipo reattivo cioè attivati solo su richiesta

- in un router vi è una tabella che stabilisce su quale porta va mandata l’informazione proveniente da una certa entrata. Non è

questo il caso! A questa famiglia appartengono:

- Random: in base alla richiesta che arriva in ingresso, l’elemento di rete sceglie casualmente l’uscita. Questo è sicuramente un

algoritmo che non risente della rete, ma non si può garantire il tempo minimo di consegna. Questova bene in reti a maglia, ma

semplici.

- Floating: è simile come concezione al random. Non si pone problemi, ripete la informazione su tutte le uscite così viene presa

anche quella giusto per forza. In una rete a maglia consente il pacchetto trovi più strade per arrivare a destinazione. Quindi

garantisce una alta affidabilità nell’arrivo però a discapito del traffico per lo più inutile. Questo tipo di scelta è opportuna quando

si vuole affidabilità a discatipo del traffico. Applicazionitipiche sono quelle nel settore militare.

- Source routine: garantisce che un pacchetto arrivi alla fine. È un sistema che prevede che il nodo sorgente stabilisca a priori il

percorso che lo stream dati deve seguire. Questo può essere ottenuto con due modalità diverse. Il nodo può avere già memorizzato

il cammino e in questo caso di dice PATHSEVER. L’altra modalità è il PATH DISCOVERING, la sorgente una volta che ha

richiesto per una destinazione con floating manda una richiesta di path, i pacchetti vengono ripetuti e memorizzano i nodi, una

volta arrivato a destinazione esso risponde dicendo i nodi attraversati per raggiungerlo e quindi la sorgente adesso sa dove

mandarli.

INSRADAMENTO DI TIPO GERARCHICO: è forse il più semplice da realizzare. Prevedo nella rete elementi di importanza

diversa. Vi sono dei piani da attraversare con un certo ordine e posso comunicare solo fra piani. Un esempio tipico è quello della

rete telefonica.

INSTRADAMENTO CON TABELLA DI TIPO FISSO:

-Un nodo registra in una memoria per ogni richiesta di instradamento in ingresso quale linea d’uscita deve essere interessata

- all’interno del router ho una tabella che dice dove devo mandare l’informazione a seconda della sua destinazione. Di tipo fisso

vuol dire che una volta che metto in funzione il router userà i criteri, la tabella, da me impostata. Avere una tabella di tipo fisso

non è robusto perché se qualcosa cambia non funziona più. Allora si usano gli algoritmi di tipo dinamico che fanno adattare la

tabella ai cambiamenti della rete con una certa cadenza temporale.

INSTRADAMENTO SENZA TABELLA, ALGORITMI

-RANDOM dato un ingresso il MSG a una qualsiasi degli out disponibili non è ottima.

-FLOODING si semplifica l’algoritmo di routing decidendo che ogni richiesta che inoltro presente sugli ingressi venga ripetuta

su tutte le uscite , sicuramente è robusta e va ad interessare il percorso migliore, la caratteristica di robustezza spiccata della

tecnica rende possibile il suo utilizzo in applicazioni specifiche (e.g militari o safecritical).

PROBLEMA: facilità di congestione della rete dovuta alla continua ripetizione un’informazione non più attuale.

SOLUZIONE: si inserisce un campo che porta il valore MAX delle volte che un pacchetto può essere ripetuto un nodo che riceve

un pacchetto con il valore di questo campo a zero scarta il pacchetto. Ogni volta che uno stesso pacchetto viene ripetuto il campo

viene diminuito di 1.

-SOURCE ROUTING il percorso che dobbiamo seguire i pacchetti è già specificato nell’informazione di livello 3:

PATH SERVER: il percorso per i flussi di dati è inviato ai nodi da server centrale

PATH DISCOVERY: questa procedura di scoperta del percorso migliore da usare è gestita dal nodo e tiene conto dell’effettivo

stato della rete in quanto prevede una fase di scoperta gestità con modalità flooding.

INSTRADAMENTO CON TABELLA DI TIPO DINAMICO, ALGORITMI

- DISTANCE VECTOR: tutti i nodi della rete si scambiano delle info in riferimento ad esempio ad un parametro tipo il ritardo

relativo ai cammini che legano i nodi vicini. In questo modo di volta in volta in modalità floating si mandano questi pacchetti in

maniera distribuita e viene fatto secondo l’algoritmo di BELMAN-FORD.

- LINK STATE: ogni nodo conosce il ritardo per arrivare a un altro nodo e si usa l’algoritmo di DIJKSTRA per costruire

l’albero della rete più semplice. Si conosce la distanza a priori. Se cambia qualcosa l’algoritmo ricalcala l’albero.

FLOW CONTROL NELLA RETE

In una rete ideale all’aumentare del traffico corrisponde pari aumento del traffico che la rete manda all’esterno, throughput. Il

traffico che va all’uscita è quello utile. L’andamento ideale della rete prevede che crescendo il traffico esso ad un certo punto si

stabilizzi senza scendere, nonostante la congestione. Normalmente arrivati a un certo livello in cui inizia la congestione, il

rendimento della rete inizia a scendere e quindi cala invece di aumentare con l’aumento del traffico. Con un controllo di

congestione riusciamo a limitare questo degrado della resa della rete.

Il rendimento non sarà lo stesso di quello ideale anche perché un tot di banda sarà usato per l’azione di controllo, ma comunque

sarà molto migliore di una rete senza controllo. Per effettuare il controllo vi sono degli appositi algoritmi di flow control.

Quelli di tipo preventivo intervengono prima che la congestione si manifesti, un esempio è l’admission control in ATM, dove se

la rete non può accettare altre richieste garantendo la stessa qualità le scarta.

Gli algoritmi di tipo reattivo come dice la parola reagiscono dopo che si è manifestata la congestione per ridurla e ridurre gli

effetti negativi da essa prodotti. Altri metodi di tipo preventivo sono il CREDIT BASED E IL RATE BASED.

Credit based: vado a specificare l’utilizzazione della rete in termini di utilizzo medio fra i servizi. Se un servizio che utilizza 10

Mega Byte avrà un tempo in modo che credito/ tempo -> rate medio del servizio. Supponiamo che a una stazione da 1Mb ogni

secondo. La stazione accumulerà i crediti e li spenderà una volta che nel proprio buffer avrà n. Se ha 1MB e riceve 1MB sempre

avrà sempre credito 0. Se invece non ha altre richieste di trasmissione si tiene il credito e se lo spende nel tempo se vi sono poi dei

picchi di traffico.

Risultato è che il rate medio rimane sempre a 1MB.

Rate based: metodi simili ma concettualmente diversi. Il principio è quello del secchio bucato

Leaky Bucket. La stazione mette i pacchetti in un buffer così come arriva il modo in cui li trasmette è con un rate di riferimento

noto. Il secchio bucato per quanto possa riempirlo dipenderà da quanto è grande il foro in fondo. Quindi quanto ci posso mettere

dentro non potrà essere più di un tot. Non va riempito completamente il buffer, si controlla questo.

METODO REATTIVO: sliding windows,stabilisco che la mia finestra abbia un tempo relativo a 10 pacchetti. Comincio a

trasmetterli. Arrivato al decimo se non ho ancora ricevuto il riscontro sul primo, mi interrompo riprendo la trasmissione solo

dopo. Se la rete non è congestionata si trasmettono 10 pacchetti nel tempo di finestra.

TWTTD rate minimo se 10 (pacchetti) / TWTD, dove quest’ultimo tende all’infinito il rate allora tende a zero. TWTD è il tempo

del ritardo.

Il problema di questa tecnica è che non posso garantire all’utente un rate minimo ed è per questo che questa tecnica NON

viene usata nelle reti ATM.

3.1) Reti wireless & Reti in tecnologia IEEE 802.11

Network wireless . Come impostare e utilizzare un WLAN. (Estratto dell'articolo di John Lortz e Susan Leavitt da Wireless

Computing)

Alcuni ricordano la prima volta che hanno potuto cambiare canale senza alzarsi dalla poltrona, grazie ad un telecomando. Pur

con funzionalità limitate, questo dispositivo consentiva, improvvisamente, di girare per il soggiorno, sedersi dovunque si

voleva eppure controllare la TV. Beh, stavamo muovendo i primi passi nel mondo wireless.

Oggi, la libertà e la mobilità del "senza fili" stanno modificando il modo in cui viviamo. Inoltre, sebbene cellulari e altri

dispositivi mobili siano in giro da un po' di tempo, adesso anche il network informatico wireless é finalmente entrato nelle

nostre aziende e case.

Quest'articolo vi fornirà dei suggerimenti su come creare una rete senza fili: prima di tutto cercheremo di capire come

funzionano questi network, per poi dare un'occhiata ai dispositivi wireless presenti sul mercato: infine, vi daremo un esempio

su come impostare un tipico network wireless.

Benvenuti nel networking.

Un LAN (Local-Area Network) é composto da un gruppo di computer che condividono risorse come file, stampanti e

connessioni Internet. I computer che formano un LAN vengono chiamati workstation e vengono di solito collegati tramite

cavi Ethernet. Quest'ultimo, chiamato anche IEEE (Institute of Electical and Electonics Engineers) 802.3, é uno standard

popolare nel networking. Questo perché é una tecnologia matura, con un prezzo accessibile, che consente l'invio dei dati,

all'interno del network, a velocità che variano tra i 10 e i 100 Mbps (Megabit per secondo). In un tipico LAN Ethernet

aziendale, ciascuna workstation é munita di un NIC (Network Interface Card) o scheda di rete, con un connettore RJ-45 che

consente il collegamento di un cavo Ethernet CAT5 (categoria 5). In una tipica configurazione, questi cavi vanno da ciascuna

workstation fino al punto di collegamento, chiamato hub, che può avere tra le 4 e le 24 porte RJ-45. Quindi, i segnali inviati

da ciascun computer "viaggiano" lungo il cavo fino allo snodo centrale, da dove sono trasmessi alla workstation che si vuole

raggiungere. Un altro dispositivo spesso presente in un network aziendale é il router, che trasmette i pacchetti dei dati del

LAN a (per esempio) Internet, in modo che tutte le workstation che fanno parte del network possano condividere una stessa

connessione di rete.

Cavi contro wireless.

Di recente, i LAN impostati tramite cavi sono diventati molto comuni. I WLAN (Wireless LAN) consentono lo stesso tipo di

accesso alle risorse condivise, ma senza che si usino cavi, quindi, passare al wireless ha certamente i suoi vantaggi.

Flessibilità e mobilità. Il vantaggio più ovvio di un WLAN é che potete mettere i computer dovunque volete e spostarli senza

dover armeggiare con nessun cavo. Nel caso a noi pertinente pensate ad una serie di PDA (palmari) che possono essere

utilizzati indipendentemente da dove l'utente si trovi.

Accessibilità. I prezzi dell'hardware wireless scendono di giorno in giorno. Per esempio ci sono schede NIC per PC che

costano 50 euro, mentre quelle per notebook non superano gli 80 euro. In questo modo si evita anche di passare cavi e la

spesa per passarli.

Scalabilità. Nei network impostati tramite cavi, spesso aggiungere dei computers significa aggiungere cavi, uno snodo con

più porte e perdere tempo e denaro. Al contrario, grazie al wireless, non ci sono cavi di cui preoccuparsi e, quindi, le

workstation possono essere aggiunte in pochi minuti. Inoltre, il WLAN aziendale si può espandere facilmente fino a

comprendere 15 o più computers dislocati fino a 100 metri. Potete perfino trasformare il LAN tradizionale che avete già

impostato in un network wireless.

Il limite del wireless. Ovviamente, nessuna tecnologia é perfetta e, per quanto il wireless possa sembrare fantastico, ci sono degli aspetti su cui

riflettere.

Velocità. I tradizionali LAN Ethernet hanno una velocità che può variare tra i 10 e i 100 Mbps. Al contrario, la velocità

massima di un WLAN tipico é di 11 Mbps, velocità che si traduce in 4 Mbps, in base al numero di utenti, della distanza tra le

workstation e della presenza, o meno, di ostacoli che possono interferire nella trasmissione.

Interferenza. Gran parte della tecnologia wireless, per trasmettere segnali, si affida alle onde radio. Quindi, come con la

radiolina a casa, potrebbero esserci vari ostacoli che possono bloccare o impoverire la comunicazione, tra i quali oggetti

metallici, elettrodomestici (in particolare forni a microonde) e perfino le persone.

Sicurezza. Ricordiamo che, dal momento che la tecnologia wireless utilizza onde radio, i WLAN sono passibili

d'intercettazione. Tuttavia, ci sono degli strumenti per la sicurezza che aiutano a prevenire l'intrusione degli estranei. Prima di

tutto, chiunque voglia accedere al network deve conoscere un codice di accesso speciale; secondo, si può impostare il WLAN

in modo che vi siano vari livelli di codifica a secondo dell'hardware che si acquista; infine, c'é la tradizionale password che

protegge files e cartelle presenti nel disco rigido.

Incompatibilità tra prodotti di marche diverse. Gli standard wireless del momento sono abbastanza vari; quindi, prodotti

diversi, fabbricati da società differenti, potrebbero essere incompatibili l'uno con l'altro. Così, quando s'imposta un WLAN, la

regola d'oro é cercare, per quanto possibile, di usare prodotti della stessa marca.

Standard wireless.

Nonostante vi sia, oggigiorno, un buon numero di standard wireless, incluso Bluetooth e SWAP (Shared Wireless Access

Protocol) protocollo di accesso wireless condiviso, supportati dal gruppo di lavoro HomeRF, lo standard per il networking

aziendale di gran lunga più diffuso é IEEE 802.11, introdotto nel 1997 e basato su una tecnologia sviluppata dall'esercito per i

sistemi di comunicazione utilizzati durante missioni delicate.

Questo standard include tre tipi diversi di tecnologie radio: DFIR (Diffused Infrared, o infrarossi diffusi), FHSS (Frequency

Hopping Spread Spectrum, o frequenza alternata ad ampio spettro) e DSSS (Direct Sequence Spread Spectrum, o sequenza

diretta ad ampio spettro). Negli ultimi anni, per quanto riguarda il networking wireless domestico ed aziendale, sono emerse

due varianti dell'802.11, vale a dire IEEE 802.11b e IEEE 802.11a.

IEEE 802.11b. Utilizza la tecnologia DSSS sulla banda di frequenza ISM (Industriale, scientifica e medica) che va dai 2,4 ai

2,48 GHz. Si utilizza questa frequenza perché è disponibile in tutto il mondo in maniera gratuita e senza nessun tipo di

restrizione. Tuttavia, questo significa che essa è una frequenza utilizzata anche da altri dispositivi, per esempio forni a

microonde e telefoni cordless, che possono, quindi, interferire con i WLAN 802.11b.

Un network di questo tipo ha velocità massima di trasmissione dati di 11 Mbps (ma in realtà essa scende a circa 4 Mbps) e, a

seconda dell'ambiente circostante, consente il collegamento di due workstation che stanno a una distanza fino a 100 metri

l'una dall'altra. Lo standard 802.11b viene comunemente chiamato Wi-Fi (Wireless Fidelity), termine coniato da un gruppo

chiamato WECA (Wireless Ethernet Compatibility Alliance), il quale promuove i dispositivi wireless 802.11b, certificandone

la compatibilità.

Il protocollo IEEE 802.11b consente di:

- inviare dati fino a 22Mbit/sec;

- scegliere il canale di trasmissione meno occupato;

- variare la velocità di trasmissione per adattarsi al canale;

- scegliere automaticamente quale Access Point usare in funzione dell'intensità del segnale e del traffico di rete;

- creare un numero arbitrario di celle parzialmente sovrapposte in modo da consentire il roaming del tutto trasparente.

IEEE 802.11a. È una variante di 802.11 più complessa rispetto a 8002.11b e basata su una tecnologia chiamata OFDM

(Orthogonal Frequency Division Multiplexing, o divisione multiplex a frequenza ortogonale).

Diversamente da 802.11b, questo standard funziona su una frequenza radio di 5,2 GHz, vale a dire una banda meno trafficata

e che, dunque, dà meno problemi d'interferenza. Per questa ragione si possono raggiungere velocità di trasmissione che

arrivano oltre i 54 Mbps.

Compatibilità tra 802.11b e 802.11a. Al momento, per quanto riguarda i network aziendali, é 802.11b che fa da padrone.

Tuttavia, entro il 2003, é sicuro che vedremo sempre più dispositivi 802.11a in giro, dato che questo standard fornisce quella

velocità necessaria per applicazioni di networking più robuste. A questo punto la domanda d'obbligo è: i dispositivi 802.11b e

802.11a saranno direttamente compatibili? Al momento in linea di massima, non lo sono. Tuttavia, secondo Debashis

Pramanik della NETGEAR (http://www.netgear.com), casa produttrice di dispositivi per il network, "ci saranno prodotti che

supporteranno sia 802.11b che 802.11a per l'inizio di quest'anno. In questo modo, il passaggio dai network wireless esistenti a

11 Mbps a quelli a 54 Mbps sarà più fluido."

Metti un palmare in rete. I PDA hanno fatto molta strada da quando la APPLE Newton si é impegnata per migliorare la

velocità, prestazioni e applicazioni. La nuova generazione di PDA, infatti, possiede potenza e software sufficienti per

approfittare delle possibilità offerte da qualsiasi LAN, tradizionale o wireless che sia. Pertanto, quando un PDA entra a far

parte di una rete, si possono ottenere i benefici della condivisione dati pur rimanendo "mobili". La maggior parte dei PDA

supporta alcuni tipi di NIC, ma é importante ricordare che quasi tutti gli adattatori di rete per PDA hanno caratteristiche Wi-Fi

(IEEE 802.11b). Quindi se volete comprare una NIC per il vostro PDA, accertatevi prima che anche il WLAN sia Wi-Fi.

Inoltre, dal momento che questi dispositivi utilizzano una combinazione tra schede di rete e schede di espansione, le

periferiche che le contengono possono essere molto diverse. Molti tra i dispositivi tascabili (come quelli Compaq/Hewlett

Packard) e che utilizzano il sistema operativo Pocket PC, hanno degli slot per schede CF (CompactFlash), che possono essere

collegabili sia tramite fili sia wireless. Entrambe le versioni possono essere inserite negli slot senza problemi.

I Palm non hanno questa versatilità quando si tratta di aggiungere periferiche, cosicché i moduli LAN per PDA si collegano di

solito al dispositivo stesso. D'altro canto, i PDA Handspring Visor, sono stati progettati tenendo presente possibili espansioni

(per esempio, l'aggiunta di una scheda di rete) e così ciascuno slot della Springboard é stato creato con i moduli LAN che

dispongono di funzionalità Plug-and-Play. Le NIC per PDA hanno le stesse caratteristiche degli altri dispositivi Wi-Fi e

utilizzano il protocollo 802.11b a 11 Mbps. In ogni modo, dal momento che un PDA è meno potente e ha meno memoria di

un PC, le prestazioni non saranno le stesse; quindi, se c'è un "ingorgo" non pensate che a provocarlo sia la NIC.

I prezzi degli adattatori network per PDA variano molto e dipendono dal tipo di apparecchio che si possiede. Il costo delle

schede CF é simile a quello delle NIC Wi-Fi e si aggira intorno ai 150 euro. I moduli network per Palm e Handspring costano

invece tra i 200 e i 400 euro.

Reti wireless. (Ufficio Tecnico Assistenza Clienti ISTES)

Quali reti wireless adottare a seconda della logistica e della configurazione interna del locale.

Prima configurazione. (Fig.1)

È la configurazione più semplice poiché l'Access Point é collegato alla scheda di rete del PC tramite un cavo cross-

over. A tutt'oggi gli Access Point da noi testati non hanno driver particolari, essi hanno una configurazione di base

dell'indirizzo IP, che si deve modificare a seconda delle necessità di rete.

Gli Access Point da noi testati fanno da Server DHCP per la rete wireless, questo significa che non é necessario impostare gli

indirizzi IP di ogni singolo Palmare o PDA. È necessario impostare, per contro, il criptaggio dati (data encryption) per la

sicurezza interna della rete: cioè sicuramente un dispositivo wireless estraneo alla nostra rete é in grado di visualizzare la

nostra rete, ma non é in grado di comunicare con la nostra rete.

Seconda configurazione. (Fig.2)

Anche questa configurazione é abbastanza semplice. Bisogna dotare il PC di una scheda di rete PCI/PCMCIA

wireless LAN. Come conseguenza é valido tutto quello che é già stato anticipato per la prima configurazione.

Terza configurazione. (Fig.3)

Questa configurazione sfrutta il collegamento di un hub alla scheda di rete del PC. In figura

esplicativa abbiamo:

1) cavi patch RJ45 (1), categoria 5 UTP, 8 fili twistati;

2) hub/switch 10/100 Mbps (2), n porte categoria 5 RJ45 con partizionamento degli errori e delle collisioni per ogni porta;

deve supportare lo standard IEEE 802.3x per il controllo di flusso e operazioni in full-duplex;

3) Access Point (3)

Resta valido quanto già riportato nel paragrafo relativo alla prima configurazione in merito all'Access Point ed ai Palmari o

PDA.

Quarta configurazione. (Fig.4)

Questa configurazione ha un grado di difficoltà maggiore nella configurazione. In

figura abbiamo:

1) cavi cross-over (1);

2)Bridge wireless (ponte radio)(2). Per definizione, il Bridge wireless può collegare due reti LAN (Hub to Hub) senza

bisogno di connessione via cavo. Il ponte radio necessita di almeno due Bridge wireless. Nel caso in figura abbiamo il Bridge

(2a) che é collegato al PC (Server) che deve essere configurato per riconoscere il Bridge (2b) ed il Bridge (2c); il Bridge (2b)

é collegato all'Access Point (3), e deve riconoscere il Bridge (2a) ed il Bridge (2c); ovviamente il discorso é speculare per il

Bridge (2c).

Introduzione

Ormai il wireless sta sempre più prendendo il "volo" e fiducia, il crescente aumento di questi apparecchi ne è la prova più

evidente.

Di conseguenza è importante fare opportuna chiarezza su questo tipo di tecnologia. E' stato scritto di tutto sul wireless,

moltissimi documenti e libri, ma di solito il tecnichese non viene digerito da tutti, il mio intento sarà quello di far capire

questa nuova e rivoluzionaria tecnologia nel modo più chiaro possibile, e capire se si necessita davvero di una WLAN

discutendo anche dei pro e dei contro.

La prima parte verrà concentrata principalmente sul perché si è sviluppato l'uso di questa tecnologia e quali sono i benefici,

partendo dalle tecniche che usa il wireless per diffondere i dati, fino alle possibili ed alle già presenti implementazioni nella

nostra vita.

Il seguito parlerà dello standard che regolarizza le WLAN l'802.11 fino ad arrivare alla designazione ed all'implementazione

della security in una WLAN, aspetto "primario" vista la semplicità risaputa nel forzare una rete di questo tipo. Per questo è

molto importante seguire passo passo questo procedimento, dal posizionamento dell'ACCESS POINT per evitare che non ci

sia un'eccessiva dispersione delle onde, alla scelta dell'antenna in base alla effettiva potenza che dovrebbe essere richiesta.

Tutto questo per cercare di complicare il più possibile ad un possibile malintenzionato il tentare di intercettare le

comunicazioni, oppure sfruttare una Wlan debole per avere accesso all'intera lan.

L'architettura che regola il Wireless

Per reti wireless si intende far comunicare dispositivi sfruttando la tecnologia a radiofrequenza, fornendo anche una possibile

estensione di una rete ethernet esistente.

Trasmettendo e ricevendo via radio i dati è logico che non necessita del mezzo fisico "il cavo", eliminando così oltre ai costi

anche l'ingombro fisico del cavo, però questo comporta una diffusione più ampia dei dati legata alla potenza dell'antenna,

aspetto che verrà trattato in seguito quando parleremo di security.

L'implementazione di questo tipo di rete pero non è universale, infatti esistono diverse tecnologie che regolamentano questo

tipo di comunicazioni, come il FHSS (Frequency Hopping Spread Spectum), DSSS (Direct Sequence Spread Spectrum) e

sistemi a raggi infrarossi (IR).

Le prime due utilizzano le tecnologia a Spettro Espanso (Spread Spectrum) sviluppata in ambito militare per un utilizzo in

sistemi di comunicazione affidabili e sicuri, ed anche per far fronte alla continua crescita di servizi wireless particolari visto

che la tecnologia a banda ristretta avrebbe portato sicuramente dei problemi. Infatti a causa del limite fisico della risorsa

radio, avrebbe richiesto una rigida regolamentazione ed il continuo utilizzo avrebbe portato alla reciproca interferenza ed il

conseguente, inaccettabile degrado delle comunicazioni.

Lo Spread Spectrum non ottimizza l’uso della banda ma garantisce l’affidabilità, integrità e sicurezza nelle trasmissioni. Se

un ricevitore non è sintonizzato sulla corretta frequenza, il segnale è simile a rumore di fondo.

L'unico modo per poter interpretare i dati è quello di conoscere a priori i parametri di connessione, senza la conoscenza di

questi al massimo si potranno sentire appunto solo rumori di sottofondo. Lo stesso discorso vale per i possibili disturbi che si

possono arrecare alle comunicazioni, senza la conoscenza dei parametri della connessione non si è in grado di intercettare

niente, anche facendo uno scanning su di un ampio spettro di frequenze sarebbe solo lavoro inutile.

Tecnologia FHSS

La tecnica FHSS (Frequency Hopping Spread Spectrum) e’ ottenuta facendo propriamente "saltare" il segnale, su un certo

numero di frequenze portanti, scelte in base ad una logica regolata da una sequenza PN. In altri termini si può dire che il

segnale modula, nel corso del tempo di salto Th, una portante sempre diversa. La frequenza del segnale rimane costante per

un determinato periodo di tempo. La durate di questo periodo determina se il sistema è veloce o lento, infatti se il salto della

frequenza avviene con velocità superiore rispetto al bit-rate del messaggio allora il sistema è veloce in caso contrario siamo in

presenza di un sistema lento.

Tecnologia DSSS

Nella tecnologia DSS invece una portante viene modulata da un codice digitale dove il bit-rate del codice è superiore al bit-

rate delle informazioni. I bit del codice rappresentano uno schema di bit rindondante generato dalla tecnologia DSS che viene

applicata a ciascun bit delle informazioni da trasmettere. Questo schema di bit è chiamato chip o codice di chipping, inoltre

più è lungo il codice di chipping e maggiori saranno le probabilità che un ricevitore possa ricostruire i dati originali. Pero

visto che ogni bit formante una determinata informazione viene modificato in piu sequenze di bit logicamente qui si necessita

di una maggiore ampiezza di banda.

Vediamo in definitiva le differenze tra le due tecnologie:

DIRECT SEQUENCE (DSSS)

- Bassa potenza di emissione, il segnale è espanso in una ampia banda

- Utilizza le stesse frequenze in modo costante

- Apparati più economici di quelli FHSS

- Minore resistenza alle interferenze

- Velocità a 11 Mbps

FREQUENCY HOPPING (FHSS)

- Alta potenza trasmessa su una piccola banda

- La frequenza del segnale cambia diverse volte al secondo

- Forte resistenza alle interferenze

- La velocità è limitata a 2Mbs

Infrarossi (IR)

Un terzo metodo utilizzato per l'implemetanzione di reti locali wireless si basa su comunicazioni a infrarossi. I sistemi di

comunicazione a infrarossi usano frequenze elevate che si trovano appena sotto lo spettro elettromagnetico della luce visibile.

C'è da ricordare che le comunicazioni ad infrarossi non sono in grado di attraversare gli oggetti opachi e questo ne ha limitato

di molto la diffusione, infatti in caso si dovesse implementare il collegamento tra due device tramite appunto l'infrarosso, i

due device per potersi vedere necessitano sempre di un percorso a vista tra il ricevitore ed il trasmettitore. Dal punto di vista

della security pero il sistema a raggi infrarossi è immune all' eavesdropper ossia è immune all'intercettazione di dati, poiché

non potendo oltrepassare i corpi limita di molto la diffusione del segnale.

Una rete wireless quindi usa lo spettro elettromagnetico sotto forma di onde radio a infrarossi. Poiché non sono necessari cavi

per far comunicare un dispositivo con un altro, le comunicazioni avvengono senza alcuna connessione fisica.

Le trasmissioni dei dati sullo spettro delle frequenza è regolamentato da enti governativi. Questi controllano oltre alla banda

utilizzata anche la potenza del segnale emesso, per esempio in Italia come tutta l'area geografica europea si può irrorare una

potenza massima che secondo le ultime regolamentazione è di 100 mv.

In un ambiente di una possibile rete locale wireless ogni PC deve partecipare alle comunicazioni e per farlo ha necessità di

una scheda wireless. La scheda include una piccola antenna ed un interfaccia tra il sistema operativo del computer e le onde

radio.

Per quando riguarda l'uso delle onde esistono tre architetture per reti locali wireless: reti locali peer-to peer, reti con un unico

punto di accesso e lan con più punti di accesso, utilizzando funzionalità di roaming.

Andiamo a spiegare quali sono le possibili implementazioni di rete in una W-Lan.

Rete peer-to-peer "Ad-Hoc"

Una rete peer-to-peer ossia "Ad-Hoc" è composta da soli terminali wireless. Creata spontaneamente, non supporta l’accesso

alla rete cablata e non necessita di ACCESS POINT. Non vi è una struttura nella rete, né postazioni assegnate da cui poter

accedere, normalmente ogni nodo può comunicare con gli altri.

In questo tipo di rete i computer devono soltanto trovarsi l'uno nel raggio d'azione dell'altro.

Visto le forti limitazioni di questo tipo di rete è normale che non possa essere impiegata in una rete locale da ufficio ma in

generale è utile per eseguire connessione di rete temporanee tra pochi computer o dispositivi.

Rete con ACCESS POINT "Reti strutturate"

Una seconda architettura di rete prevede l'estensione di una normale rete locale cablata tramite l'impiego di un punto di

accesso, in gergo ACCESS POINT (AP). Il punto di accesso è un PC dotato di un adattatore di rete. Pertanto il PC estende

l'accesso ad una rete locale esistente alle comunicazioni wireless.

Altra funzione svolta dall'AP è quella di fungere come ripetitore per le stazioni mobili situate in un'area geografica.

In questo modo le stazioni non devono comunicare le une con le atre, ma ogni trasmissione di dati passa attraverso il punto di

accesso.

C'è da precisare pero che sebbene questo raddoppi l'utilizzo dell'ampiezza di banda, riduce il livello delle prestazioni della

rete wireless. Infatti in questo tipo di implementazioni le schede wireless possono essere dotate anche di un antenna non

molto potente visto che il ripetitore è unico ed è l'ACCESS POINT dotato di un antenna abbastanza potente da mettere in

comunicazione tutte le postazioni della Wlan.

Poiché il punto di accesso è connesso alla rete cablata, questo permette ad un qualsiasi client wireless di ottenere l'accesso a

tutte le risorse della rete locale. Risorse che possono essere server locali, altri client e cosa molto importante l'uso di un'unica

connessione ad internet.

Utilizzare le funzioni di roaming anche in una Wlan

In edifici di molti metri quadrati un solo ACCESS POINT può limitare di molto l'accessibilità ad una rete da parte di

eventuali clienti, si pensi per esempio ad un complesso industriale, oppure si pensi in edifici in cui non è presente nessuna rete

cablata e di conseguenza la impossibilità di collegare ACCESS POINT.

Per questo i produttori di dispositivi hanno previsto anche situazioni del genere, infatti si possono concatenare sia più

ACCESS POINT, sia si possono installare dei veri e propri ripetitori per incrementare la potenza del segnale e rendere

l'accesso ad una lan da qualsiasi punto.

Sia i punti di accesso che i ripetitori estendono le funzionalità della rete locale in un'area relativamente estesa offrendo in

pratica ai notebook, ai PDA etc. funzioni di roaming.

Come si può capire l'uso del wireless non si può ghettizzare alle sole wlan, questo significa che le possibilità associate alle

applicazioni wireless sono limitate solo all'immaginazione ed a breve tempo rivoluzionerà il nostro modo di svolgere le

normali operazioni quotidiane, dalle più ovvie come il lavoro in ufficio a quelle meno ovvie ma non meno importanti, un

esempio potrebbe essere la spesa al supermercato, il pagamento dei pedaggi autostradali.

Protocollo CSMA (Carrie Sense Multiple Access).

Supponiamo che più stazioni si trovino nella condizione di dover condividere uno stesso canale trasmissivo. Ad esempio

più terminali connessi su una stessa LAN. Sappiamo che in questa situazione, se più stazioni accedono

contemporaneamente al canale effettuando una trasmissione, generano una collisione di dati con la conseguente perdita

dell'informazione. Appare quindi necessario un'insieme di regole che disciplinino l'accesso al canale. L'insieme di tali

regole va sotto il nome di protocollo.Il CSMA è un protocollo a contesa. Con questo s'intende l'assenza di un'entità

centralizzata che decide chi deve trasmettere e chi meno. Le stazioni si contendono quindi l'accesso al canale. Nella

versione base si ha che la stazione, prima di effettuare la trasmissione, ascolta il canale per capire se ne è presente una in

corso. L'ascolto del canale continua anche durante la trasmissione. In tal modo la stazione in esame, potrà rendersi conto di

un'eventuale collisione e interrompere la trasmissione. In una sua variante, ovvero la CSMA/CA, s'impone che le stazioni

che hanno generato la collisione, attendano un tempo ramdom prima di riprovare a trasmettere. La variante che interessa il

nostro studio è la CSMA/CD. Questa è anche la più diffusa. Nel caso la trasmissione avvenga via etere, la rilevazione di

una portante definisce l'occupazione del canale. Se invece la trasmissione è effettuata via cavo, si effettua una lettura della

potenza. Si ha quindi che una stazione inizia la propria trasmissione solo se rileva il canale libero. Ora questo modo di

procedere non salvaguarda da collisioni. Supponiamo infatti di trovarci nella situazione in cui ci siano due stazioni molto

lontane tra loro.

Il segnale trasmesso dalla prima impiegherà un po' di tempo per giungere alla seconda. Supponendo che la trasmissione

avvenga in t 0 e che il segnale giunga alla seconda in un tempo T, avremo la presenza di una finestra temporale all'interno

della quale la seconda stazione non rileva presenza di segnale sul canale.

In tale situazione si sentirà pertanto autorizzata ad accedere al canale, causando una collisione di dati. Tale finestra va

infatti sotto il nome di finestra di collisione ed aumenta in modo direttamente proporzionale alla grandezza della LAN. Vi

sono inoltre casi in cui la seconda stazione non è in grado neanche di rilevare l'avvenuta collisione. In tal caso potrebbe

pensare che la trasmissione ha avuto buon fine e di conseguenza non effettua la ritrasmissione del pacchetto informativo.

Questo avviene quando la durata della trasmissione della seconda stazione avviene in un tempo inferiore della durata della

finestra temporale. Questo è un grosso limite che porta alla drastica riduzione dell'estensione di una rete i cui terminali

presentano un'elevata velocità di trasmissione.

Le WLAN

Le reti locali wireless, o LAN wireless, stanno modificando il mondo delle reti di computer. Le aziende di tutto il mondo

stanno implementando reti wireless indipendenti o in aggiunta a quelle cablate per aumentare la produttività dei

dipendenti, ridurre i costi e superare gli ostacoli delle connessioni tradizionali.

Giunte sul mercato nei primissimi anni novanta, esse hanno avuto la definitiva svolta con l'approvazione dello standard

IEEE 802.11 (1997) evolutosi in seguito nello 811.2a e 811.2b. Quest'ultimo definisce oggi lo standard definitivo per il

WLAN anche se si lavora ancora al fine di ottenere un miglioramento ed un adattamento dello stesso alle esigenze

quotidiane. Infatti parallelamente sono nati altri standard meno conosciuti. Citiamo ad onor di cronaca l'HIPERLAN

definito dall'European Telecomunications Standards Institute-Broadband Radio Access Network, l'HomeRF SWAP e il

Bluetooth.

Quali sono i vantaggi che rendono così appetibile questa tecnologia? Beh, indubbiamente la flessibilità. Infatti abbiamo

un'enorme aumento d'efficienza rispetto ad una rete cablata. Si scavalcano in questo modo tutti quei problemi riscontrati

nella stesura della stessa. Pensate ad esempio la realizzazione di una LAN che colleghi due edifici separati da grossi

ostacoli o la stesura della stessa all'interno di una struttura storica. Non ci sarebbe più bisogno di stendere cavi antiestetici.

Abbiamo inoltre la possibilità di rendere mobile l'utente collegato. Pertanto se parliamo di computer portatili le

potenzialità aumentano. Immaginatene l'uso che se ne potrebbe fare all'interno di una struttura sanitaria quale un ospedale

oppure all'interno di un aeroporto, un magazzino. A tutto questo aggiungiamo che i costi di realizzazione sono

relativamente bassi.

Ovviamente c'è il risvolto della medaglia e quindi gli svantaggi. Essendo una trasmissione radio fatta ad alta frequenza, ne

presenta tutte le pecche. Abbiamo da considerare fenomeni di attenuazione, interferenza, riflessioni, e sicurezza. A ciò va

aggiunto problemi energetici legati al fatto che usiamo dispositivi a batteria e compatibilità. Per i primi tre, i problemi sono

identici a quelli riscontrati in una qualsiasi altra trasmissione radio. Ipotizzando un trasmettitore isotopico (che trasmette

nello stesso modo in tutte le direzioni) abbiamo che il segnale si propaga e la potenza si spalma istante per istante su sfere

concentriche. Questo porta ad un'attenuazione che è inversamente proporzionale alla distanza percorsa dal segnale. Quindi

se trasmettiamo una potenza effimera, non arriva nulla. Se trasmettiamo una potenza superiore al necessario, inficiamo

sulla durata della batteria. Ancora, il segnale in presenza di ostacoli rimbalza e genera un'onda riflessa. Questa giunge sul

ricevitore contemporaneamente al segnale diretto ed a un'infinità di segnali riflessi (fenomeno delle riflessioni multiple).

Specie negli ambienti chiusi. Il risultato è una distorsione del segnale e nella peggiore delle situazioni, il fenomeno

dell'affievolimento profondo. Poi c'è l'interferenza verso altri dispositivi e la suscettanza nei confronti di disturbi radio.

Parlando invece di compatibilità, il problema nasce dalla presenza di diversi standard. E' ovviamente preferibile l'uso di

access point e schede identiche per poter sfruttare al massimo la rete. Infine, ma non per ultimo per importanza, il

problema della sicurezza. L'informazione trasmessa diviene alla portata di tutti, pertanto occorre effettuare un criptaggio

del segnale.

Le applicazioni della WLAN sono in parte stati elencati prima quando ho trattato i vantaggi. A questi vanno aggiunti il

prossimo lancio dell'home networking (dispositivi che colloquiano tra loro all'interno di un'appartamento) o ai cellulari di

prossima generazione. Facciamo ora una breve panoramica sugli standard. In questa sede tratto solo gli standard citati

sopra a eccezione dello standard 802.11. Per questo dedicherò un paragrafo molto completo, cercando di venire incontro a

tutti gli interessati, dato che in giro si trova solo materiale in inglese.

Il primo standard citato, ovvero l'HIPERLAN definito nel 1996 dallo ETSI-BRAN. Esso lavora su una banda centrata sui

5Ghz raggiungendo un throughput di 24 Mbps. E' garantito il supporto Quality of Service (QoS) per voce dati immagini e

video. Da poco ne è stata sviluppata una seconda versione che si pone in diretta concorrenza con lo standard americano

802.11. In questa il throughput si porta a 54 Mbps. Di seguito si riporta una tabella riassuntiva circa le caratteristiche della

famiglia HIPERLAN.

La tecnologia bluetooth è stata approvata nel 1998 dalla Bluetooth SIG. Nata per ovviare ai problemi di mancanza di

compatibilità fra periferiche digitali, usa potenze più basse rispetto agli altri standard, definendo in realtà una PAM

(personal area network) ovvero un sottoinsieme di una WLAN più grande. Esso è utilizzato per far comunicare dispositivi

situati a pochi metri di distanza l'uno dall'altro (computer con periferiche) In questa si ha che i dati vengono trasmessi con

Modulazione FHSS (frequency hopping spread spectrum) con GFSK (Gaussian Frequency Shift Keying) su una frequenza

di 2.4 Ghz con velocità di 1 Mbps. Di questi giorni la notizia secondo la quale la Bluetooth SIG ha rilasciato un

aggiornamento alle proprie specifiche che promette di risolvere alcune delle lacune tecniche rimaste aperte nelle specifiche

1.1 E' inoltre disponibile ondine un'analisi Sui problemi di sicurezza di Bluetooth consultabile qui in formato PDF, gli

esperti di @stake. Infine lo SWAP (Shared Wireless Application Protocol) creato dall'HomeRF Working Group prevede

una modulazione FHSS a 2.4Ghz con velocità variabile tra 1 e 2 Mbps.

STANDARD IEEE 802.11

Il gruppo 802.11 può essere visto come una famiglia di standard comprendenti un'insieme di standard quali:

- 802.2: Logical Link Control

- 802.3: Carrier Sense Multiple Access with Collision Avoidance

- 802.4: Token bus

- 802.5: Token Ring

- 802.6: Distributed Queuing Dual Bus (DQDB)

- 802.9: Unified Integrated Services su Backbone

- 802.11: WLAN

- 802.12: Demand Priority Access Method

- 802.14: Cable TV

- 802.15: Wireless Personal Area Networks

- 802.16: Broadband Wireless Access Methods

che riguardano il livello MAC e il livello fisico della pila ISO-OSI riportata in figura.

Lo standard 802.11 si riferisce alle reti wireless. Nello standard originale si focalizza l'attenzione su tre distinti livelli fisici

(Infrarosso - Trasmissione radio con modulazione FHSS - Trasmissione radio con modulazione DSSS) e il livello MAC. In

seguito si sono avute due estensioni quali 802.11a e 802.11b. La versione base propone l'uso della banda di frequenze dei

2.4GHz, la cosiddetta ISM (Industrial, Scientific and Medical band) che è disponibile a libero uso dei privati, senza la

necessità di ottenere concessioni da parte degli enti pubblici. Nella prima estensione si ottiene un throughput massimo di

54 Mbps ad una frequenza di lavoro di 5,2 GHz. A causa dell'elevata frequenza usata, vengono richiesti un maggior

numero di AP rispetto allo standard 802.11b. Questo non è autorizzato in Europa ed è il diretto concorrente dello standard

Europeo Hyperlan/2. I prodotti sono marcati con la sigla "Wi-Fi5". Un problema riscontrato è il seguente: la frequenza

utilizzata è la stessa con cui operano i satelliti, perciò l'utilizzo è permesso soltanto per gli ambienti chiusi. In questo

standard viene utilizzata la tecnologia di modulazione OFDM con tecniche di modulazione BPSK/QPSK/16 QAM/64

QAM, 8 canali disponibili non overlapping. Nella seconda estensione, la 802.11b, abbiamo invece un throughput massimo

di 11 Mbps, 100 metri di distanza , utilizzo della banda ISM a 2.4 GHz, tecnica di modulazione DSSS con tecniche di

modulazione quali:

- DBPSK (Differential Binary Phase Shift Keying) per velocità da 1 Mbps

- DQPSK (Differential Quaternary Phase Shift Keying) per velocità da 2 Mbps

- QPSK/CCK (Quaternary Phase Shift Keying with Complementary Code Keying) per velocità comprese tra 5,5 e 11

Mbps.

Il livello fisico di questi standard viene comunque approfondito nell'omonimo paragrafo. Attualmente lo standard 802.11 è

in continua evoluzione, grazie alle estensioni che i vari gruppi di lavoro stanno studiando e proponendo. Da poco si è

infatti approvato lo standard 802.11g che presenta un throughput di 54 Mbps ad una frequenza di 2.4 GHz. La tecnica di

modulazione usata è la OFDM (tre canali disponibili non overlapping).

Si riporta di seguito un elenco dei vari gruppi di lavoro dell'IEEE 802.11 per capire in quali campi di ricerca essi lavorano.

Gruppo di

lavoro Scopo del progetto Stato del progetto

802.11a Sviluppare un livello fisico per trasmettere nella banda dei

5GHz.

Il progetto è stato completato e lo

standard è stato pubblicato.

802.11b Definire uno standard per trasmettere ad un bit rate più alto

nella banda dei 2,4GHz.

Il progetto è stato completato e lo

standard è stato pubblicato.

802.11c Migliorare alcune mancanze nel Management Information

Base nello standard 802.11b.

Il progetto è stato completato ed è stato

integrato nello standard 802.11b.

802.11d Perfezionare l'interoperabilità tra lo standard IEEE 802.11 e

lo standard IEEE 802.1d.

Il progetto è stato completato ed è stato

integrato nello standard IEEE 802.1d

2001.

802.11e Migliorare il livello MAC dello standard IEEE 802.11 per

supportare la Quality of Service (QoS). In stato di avanzamento.

802.11f

Migliorare l'interoperabilità tra Access Point di diversi

costruttori in un Distribuited System, standardizzando un

protocollo di roaming.

In stato di avanzamento.

802.11g Aumentare il bit rate in trasmissione delle reti di tipo

802.11b superando i 20Mbps.

Il progetto è stato completato e lo

standard pubblicato.

802.11h Migliorare il livello MAC e fisico dello standard IEEE

802.11a. In stato di avanzamento.

802.11i Migliorare i meccanismi di autenticazione e sicurezza. In stato di avanzamento.

802.11j Aumentare il numero dei canali nella banda dei 5GHz in

Giappone. In stato di avanzamento.

802.11k

Definire un Radio Resource Measurement per scambiare

informazioni con i livelli superiori riguardo alle misurazioni

sul segnale radio.

In stato di avanzamento.

Topologie di rete contemplate dallo standard 802.11

In una WLAN il blocco elementare è dato da una BSS (Basic Service Ser) ovvero un gruppo di stazioni situate nella stessa

area e coordinate dalla stessa funzione di coordinazione (DCF o PCF. Avrò modo in seguito di parlare di queste.)

Solitamente abbiamo che in questi blocchi una stazione può colloquiare direttamente con un'altra che si trovi all'interno

della stessa BSS. Tale area prende il nome di BSA (Basic Service Area). Sostanzialmente abbiamo una serie di NIC

(Network Interface Card) wireless, dette anche semplicemente stazioni (STA), inserite in apparati di diversa natura (PC,

portatili, palmari,ecc.) e da un bridge wireless, definito AP (Access Point), come mostrato in figura. L'Access Point

interfaccia la WLAN con la rete cablata (quindi anche con altre WLAN eventualmente) . Per la maggior parte delle

WLAN presenti sul mercato il range spaziale all'interno del quale le stazioni riescono a trasmettere dati con l'AP è di circa

300m all'aperto.

Nello standard in questione sono definite due tipologie:

• Reti IBSS (Indipendent BSS) dette anche ad hoc network;

• Reti ESS (Extended Service set).

Nel primo caso siamo in assenza di un'AP. La comunicazione tra due distinte stazioni può avvenire direttamente se queste

sono in visibilità radio, come riportato in figura.

Oppure attraverso l'ausilio di stazioni intermedie il cui compito è quello di propagare l'informazione fino al destinatario. In

quest'ultimo caso la rete necessita di un protocollo di routing per l'instradamento dei dati.

Nel secondo caso siamo invece in presenza di un'AP. La comunicazione tra due distinte stazioni avviene sempre mediante

l'appoggio intermedio sull'AP che quindi deve essere necessariamente in visibilità radio con le altre stazioni. Più BSS

formano in tal modo una rete wireless di più vasta copertura geografica. Tutto sta nel posizionare opportunamente gli AP.

E' ovvio che ogni stazione sarà in comunicazione con un solo AP ovvero quello che presenta migliore visibilità radio.

Compito degli AP sarà quindi anche quello di comunicare tra loro o con reti esterne. Quindi oltre alle funzioni di

coordinazione abbiamo anche quella di bridge verso l'esterno mediante l'uso di DS (Distribution Service) ovvero una

dorsale wireless o wired che connette tra loro gli AP e l'interfaccia con l'esterno.

Qualora una stazione sia mobile è possibile mediante l'uso di protocolli di roaming di dissociarsi da una BSS per entrare a

far parte di una nuova. Tenendo conto ovviamente della visibilità radio offerta dal corrispondente AP e dal traffico gestito

dallo stesso.

Il livello MAC nello standard IEEE 802.11

L'architettura logica di una WLAN che definisce l'attività di rete, comprende gli ultimi due livelli della pila ISO-OSI,

come riportato nella figura seguente.

In una Wireless LAN abbiamo che le stazioni sono obbligate a condividere lo stesso canale trasmissivo. Questo implica il

problema delle collisioni nel caso avvenga la trasmissione contemporanea da parte di due o più stazioni. Per evitare questo

problema, il standard in questione utilizza il protocollo CSMA/CA con acknowledgment (ACK) definendo così il DCF

(Distribuited Coordination Function ). Perché viene utilizzato quest'ultimo? Perché nelle strutture wireless, a causa della

bassa potenza trasmessa dai nodi, non si rende possibile la rilevazione di una collisione. Una stazione che trasmette il

pacchetto informativo, è in grado di rilevare la collisione solo a fine trasmissione. In tal caso infatti, non riceverà il

pacchetto ACK valido come riscontro. Ovviamente il segnale di ACK viene generato dalla stazione ricevente che ha

ricevuto correttamente il dato trasmesso. Parliamo di ricezione corretta in quanto alla perdita d'informazione non concorre

solo il fenomeno della collisione, ma anche il rumore presente sul canale ed altri fenomeni di disturbo. In Tali situazioni si

sfrutta il Bit Error Rate e il Packet Error Rate per quantificare l'entità del disturbo. Abbiamo quindi introdotto il concetto di

DCF. Questo è il modo fondamentale di coordinamento di traffico in una WLAN. Esso infatti è sempre presente. Stessa

cosa non va invece detta per il PCF che è una funzione di coordinamento opinabile. Questi modi posso coesistere in una

WLAN. Considerando infatti il CFP riportato in figura, abbiamo che il DCF lavora nel CP (Contention Period), mentre il

PCF nel CFP (Contention Free Period).

Nei prossimi capitoli avrò modo di approfondire l'analisi di queste due funzioni di coordinazione. Prima di andare ad

analizzare il frame soffermiamoci un momento sul funzionamento della pila ISO-OSI al fine di capire come viene costruito

il frame. Sappiamo che questa è una struttura gerarchica il cui funzionamento può essere riassunto per grandi linee nel

seguente modo: il programma applicativo dell' host 1 deve mandare un messaggio alla sua peer entity dell' host 2 ; il livello

applicativo consegna quindi il messaggio in oggetto al livello sottostante per la trasmissione; questo aggiunge un suo

header ( testata ) in testa al messaggio. Quest'ultimo contiene informazioni di controllo, tra le quali il numero di sequenza

del messaggio, la dimensione del messaggio e altro. L'informazione così elaborata viene passata al livello sottostante che

può trovarsi nella necessità di frammentare i dati da trasmettere in unità più piccole, (i cosiddetti pacchetti ) a ciascuna

delle quali aggiunge il suo header. Il messaggio è quindi passato al livello sottostante ovvero il livello MAC. Questo

blocco di dati costituisce il frame body del pacchetto a livello MAC, indicato anche come MSDU (MAC Service Data

Unit) ; proprio il livello MAC vi aggiunge ulteriori dati in testa (MAC header) ed in coda (il campo FCS), a formare il

MPDU (MAC Protocol Data Unit) , che `e il payload di un pacchetto a livello fisico e quindi viene anche indicato come

PSDU (Physical Service Data Unit) ; infine il livello fisico vi aggiunge in testa i campi di preambolo ed intestazione,

traduce in segnale elettrico il pacchetto così ottenuto e lo trasmette sul canale fisico tramite una opportuna modulazione. In

caso di pacchetto ricevuto il percorso da seguire `e invertito. Vi sono inoltre dei frame che non contengono dati ma sono

comunque essenziali per la rete; questi sono generati interamente dal livello MAC e quindi il relativo eventuale MSDU

non proviene dai livelli superiori. Passiamo ora a descrivere come è organizzato il frame nello standard 802.11.

Ricordiamo anzitutto che il frame è un'insieme di oggetti dalla struttura ben definita e nota sia a chi trasmette sia a chi

riceve. Il formato generale presenta un'insieme di campi che si presentano in un fissato ordine. In figura si riporta tale

modello generale.

Vediamo quindi come sono organizzati i vari campi. Il frame di controllo consiste in un insieme di sottocampi quali:

Protocol Version, Type, Subtype, To DS, From DS, More Fragments, Retry, Power Management, More Data, Wired

Equivalent Privacy (WEP), e Order. Questi vengono riportati nella figura seguente.

Protocol Version : è un campo di lunghezza pari a due bit contiene informazioni circa le revisioni dello standard in uso.

Nello standard 802.11 tale valore è settato a 0. Questa quantità viene incrementata di una unità quando si presenta

un'incompatibilità tra la versione in uso e la precedente.

Type and subtype : presentano una lunghezza rispettiva di due e quattro bit. La loro funzione è quella di identificare il tipo

di frame in oggetto. Abbiamo infatti tre tipi di frame supportati dallo standard 802.11:

- Frame di gestione: comprendono frame usati per l'associazione e la separazione da una BSS, per l'autenticazione e la

deautenticazione, per la temporizzazione e la sincronizzazione.

- Frame di controllo: comprendono frame usati per l'handshake durante il CP, per l'ACK positivi durante il CP e per la

terminazione del CFP.

- Frame dati: contengono i dati trasmessi durante il CP e il CFP.

Si riporta di seguito una tabella relativa alle combinazioni di bit valide.

To DS : settando tale campo a 1 o 0 si definisce se il frame è destinato al Distribution System o meno.

From DS : se posto a 1 indica che il frame proviene dal Distribution System. In caso contrario è settato a 0.

More Fragment: questo campo, di lunghezza pari a 1 bit, viene settato a 1 nei frame di dati o di gestione che hanno subito

la frammentazione, dando così l'indicazione della presenza di altri pacchetti del corrente MSDU (MAC Service Data Unit)

o MMPDU (MAC Management Protocol Data Unit).

Retry Field: questo campo, di lunghezza pari a 1 bit, è settato a 1 nei frame dati e di gestione che hanno subito la

ritrasmissione. Serve a dare informazione alla stazione ricevente circa l'eliminazione dei frame doppioni.

Power Management Field: questo campo, di lunghezza pari a 1 bit, definisce lo stato energetico di una stazione (active /

power save mode). Questo valore è indicativo dello stato di una stazione al termine di uno scambio di dati. Il livello logico

1 è indicativo dello stato power save mode. Il campo è settato sempre a 0 nei frame trasmessi da un Access Point.

More Data Field: questo campo, di lunghezza pari a 1 bit, se settato a 1 da indicazione ad una stazione in power save mode

che altri MSDU o MMPDU stanno per essergli inviati da un AP.

WEP Field: questo campo, di lunghezza pari a 1 bit, se settato a 1 indica che il corpo del frame ha subito un criptaggio con

algoritmo WEP. Tale campo può essere settato a 1 solo nei frame dati e di autenticazione.

Order Field: questo campo, di lunghezza pari a 1 bit, è settato a 1 solo nei framme di dati che contengono MSDU o

frammenti dello stesso.

Ritorniamo quindi alla descrizione dei campi presenti nel frame generico.

Duration/ID Field: questo campo presenta una lunghezza di 16 bit ed il contenuto può assumere i seguenti significati:

nei frame di controllo con subtype power save-poll, viene memorizzato nei 14 bit meno significativi l'AID (Association

Identity) della stazione trasmittente. I due bit più significativi vengono settati a 1;

in ogni altro tipo di frame definisce un valore indicativo della durata del frame stesso. Tale valore va ad aggiornare il

contenuto del NAV (Network Allocation Vector) di cui parlerò in seguito. I frames trasmessi durante il CFP presentano

questo campo settato al valore di 32768;

Address Field: All'interno del frame ci sono ben 4 campi contenenti informazioni circa indirizzi. Senza dilungarmi troppo

nella descrizione di questi (per maggior informazioni fate riferimento allo standard 802.11) mi limito a dire che vengono

trasmesse informazioni circa il BSSID (Basic Service Set Identifier) , DA (Destination Address), SA (Source Address),

RA (Recevier Address) e TA (Trasmitter Address);

Sequence Control Field: è un campo lungo 16 bit all'interno del quale è possibile individuare due sottocampi. I primi 4 bit

identificano il numero del pacchetto qualora ci sia stata una frammentazione (Fragment Sequence), mentre i rimanenti 12

definiscono il numero del MSDU o MMPDU all'interno della sequenza generale (Sequenze Number);

Frame Body Field: è il corpo del frame, contenente l'informazione che si vuol trasmettere. La sua dimensione varia tra 0 e

2312 byte;

FCS Field: è un campo di controllo dell'errore ( frame check sequence, FCS ), che contiene un valore a 32 bit calcolato in

funzione di tutti i precedenti byte presenti nel frame, indicato come CRC (cyclic redundancy code).

Prima di inviare un qualsiasi frame, il nodo deve in generale verificare che il canale sia libero (assenza di portanti) per un

certo intervallo di tempo, chiamato IFS (Interframe Space). Questa quantità può assume quattro valori distinti e definiti

come segue:

- SIFS (Short IFS) : è il più breve intervallo di tempo definito. E' usato per i frame di ACK o CTS (Clear to Send), tra due

MPDU all'interno di un burst, da una stazione che risponde al polling;

- PIFS (PCF IFS)= SIFS + aSlotTime . Usato esclusivamente nella modalità PCF per avere priorità nell'accesso al canale, è

definito in funzione di aSlotTime , l'unità temporale dipendente dal livello fisico usato;

- DIFS (DCF IFS) = PIFS + aSlotTime. U sato esclusivamente nella modalità DCF in generale prima di iniziare una

contesa;

- EIFS (Extended IFS) = DIFS + 8 * ( durata di unACK ) + ( durata di un preambolo ed una intestazione PLCP ). E' usato

nella modalità DCF quando vengono rilevati degli errori nel canale al livello fisico, tramite il controllo dei CRC.

Il DCF (Distribuited Coordination Function)

Come detto in precedenza, il DCf rappresenta all'interno dello standard IEEE 802.11 il metodo fondamentale di

funzionamento della rete e pertanto è obbligatoriamente presente in tutte le sue implementazioni. Esso sfrutta il protocollo

CSMA/CA che ricordiamo essere di tipo a contesa. Questo è opportunamente modificato al fine di ottenere un riduzione

delle collisioni. Passiamo ad analizzare l'insieme di regole che una stazione deve rispettare per poter trasmettere all'interno

di una BSS. Ogni stazione che presenta del traffico in coda è una stazione che partecipa alla contesa del canale. Questa si

pone in ascolto del canale attendendo che lo stesso risulti libero. Appena ciò avviene si attende un DIFS quindi, se ci sono

concorrenti, si partecipa alla contesa. In caso contrario la trasmissione avviene subito al termine del DIFS. L'ascolto del

canale, al fine di determinare se lo stesso è occupato o meno, avviene facendo uso di due tecniche. La prima agisce a

livello fisico e consiste nel effettuare un'analisi della potenza presente sul canale stesso al fine d'individuare la presenza o

meno di una trasmissione. A questa viene affiancata una tecnica chiamata Virtual Carrie Sensing. Nell'analisi del frame

abbiamo individuato un campo denominato Duration/ID. in questo viene inserito un valore che definisce la durata,

espressa in microsecondi, della corrente sequenza di scambio di dati. Tale quantità viene calcolata a partire dal termine

della ricezione del frame contenente l'informazione stessa. Questa viene inserita nel NAV di tutte le stazioni facenti parte

della BSS. Pertanto, ricevuto questo frame di controllo, tutte le stazioni aggiorneranno il proprio NAV ed incominceranno

a decrementarlo. Il canale risulterà occupato per tutte le stazioni che presentano un NAV diverso da zero. Una stazione il

cui NAV è uguale a zero, attende un DIFS, quindi inizia la contesa. Ovviamente il canale risulterà occupato se almeno uno

dei due meccanismi da esito negativo. Vediamo cosa accade più nel dettaglio. Una stazione che vince la contesa trasmette

il proprio pacchetto. Chi riceve questo attende un SIFS quindi risponde con un ACK. Tale segnale indica che la

trasmissione ha avuto esito positivo. Pertanto lo stesso viene generato solo se non ci sono state collisioni o se il controllo

degli errori ha dato esito negativo. Si potrebbe infatti avere che dopo la procedura di contesa del canale, due o più stazioni

inizino la trasmissione. In tale situazione solo l'assenza di riscontro positivo sarà indice di un errore nella trasmissione

stessa. In tal caso si attenderà che il canale si liberi più un DIFS per poter partecipare nuovamente alla contesa.

Vediamo quindi come avviene la contesa del canale. Ogni stazione genera un valore intero in modo casuale mediante l'uso

di una distribuzione uniforme all'interno di un intervallo [0, CW] La grandezza di quest'intervallo è definita dallo standard.

Il valore estratto è un multiplo intero del aSlot-Time. Dopo che il DIFS è trascorso, si dovrà attendere che passi un tempo

pari a questo appena definito prima di poter trasmettere. Sostanzialmente abbiamo quindi che una stazione genera tale

valore e comincia a decrementarlo di un aSlot-Time. Vede quindi cosa accade sul canale e decrementa di un altro aSlot-

Time. Quando il valore ottenuto diviene pari a zero, la contesa risulta riuscita e si inizia la trasmissione. Questa procedura

prende il nome di Backoff Time. Qualora durante questa operazione il canale dovesse risultare occupato, allora si congela

il valore. La procedura viene quindi riavviata nell'istante in cui il canale risulta libero per un DIFS. Una volta vinta la

contesa e trasmesso il frame, la procedura si ripete estraendo un nuovo valore dalla finestra [0, CW] La differenza sta che

in questo caso, il limite superiore della finestra è settato a CW min nel caso in cui la trasmissione abbia avuto esito

positivo (ACK), mentre viene assegnato valore pari a :

CW = 2CW + 1 < CW max

in caso di esito negativo. Il numero massimo di ritrasmissioni di uno stesso frame è definito da due parametri quali Short

Retry Limit e Long Retry Limit. Il primo è usato qualora stiamo trasmettendo un MSDU o un MMPDU di lunghezza

inferiore ad un certo parametro. Il secondo negli altri casi. Esiste un'altra modalità di trasmissione nella quale si ha lo

scambio di due frame di controllo prima della trasmissione effettiva. Vediamo come avviene e in quali casi è utilizzata. Il

primo frame trasmesso dalla stazione sorgente è un RTS (Request to Send). Questo specifica la durata della trasmissione

del presente frame di dati e del seguente frame di ACK. La stazione destinatario, dopo un intervallo di tempo di un SIFS

dalla ricezione del RTS, invia un frame CTS (Clear to Send) in cui sono contenute ancora informazioni sulla durata

dell'attuale trasmissione. Tutte le stazioni all'interno del BSS, che riescono a “sentire” i frame RTS e CTS, aggiornano il

valore del loro NAV grazie alle informazioni contenute in questi. Lo scambio dei frame di RTS e CTS viene indicato dallo

standard come facoltativo, in quanto, soprattutto in presenza di frame di dati molto piccoli, potrebbe rendere inefficiente il

protocollo.

Esso si rende comunque necessario in presenza delle hidden stations : potrebbero esserci nella stessa BSS due stazioni non

in visibilità radio fra loro (ma che comunque vedono l'AP); se una delle due inizia la trasmissione di un frame di dati

diretto all'AP, l'altra non riuscirà in alcun modo ad accorgersi dello stato occupato del canale e potrebbe quindi iniziare una

propria trasmissione, dando dunque origine ad una collisione e alla perdita di entrambi i frame. In questa procedura invece,

supponendo che la stazione remota non riesca a ricevere l'informazione contenuta nell'RTS, sfrutterà quella contenuta nel

CTS per aggiornare il proprio NAV.Discutiamo infine la presenza di un meccanismo di frammentazione usato qualora il

canale non permetta la trasmissione di frame troppo lunghi. Il frame originario viene spezzettato ed inviato sottoforma di

frame più piccoli. La stazione ricevente invierà un segnale di ACK ad ogni ricezione corretta. Sarà impegno della stazione

ricevente ricostruire il frame originario.

PCF (Point Coordination Function)

Come accennato in precedenza questa funzione di coordinazione va implementata opinabilmente. In ogni caso sarà sempre

presente il DCF che è la funzione di coordinazione fondamentale all'interno di una rete wireless. Entrambe queste possono

coesistere in quanto vengono ad essere implementate in istanti di tempo distinti. Se consideriamo il CFP Repetition

Interval, il PCF viene implementato nel CFP (Contention Free Period) mentre il DCF nel CP (Contention Period). Vado a

commentare la seguente figura tratta direttamente dallo standard IEEE 802.11

L'inizio del CFP è determinato dal PC (Point Coordinator) che solitamente coincide con l'AP della BSS. Questo invia un

pacchetto, detto Beacon Frame, la cui utilità è quella di sincronizzare la BSS. Tale frame viene inviato solo dopo che il PC

ha constatato che il canale è rimasto libero per un PIFS. Ricordo che tale valore è numericamente inferiore al DIFS, tempo

che deve invece attendere una generica stazione prima di poter accedere al canale. Di conseguenza viene garantita la

priorità del PC nell'accesso al canale rispetto ad una generica stazione. Trasmesso quindi il Beacon Frame, si ha che tutti i

NAV vengono aggiornati ad un valore tale da impedire l'accesso al canale per tutta la durata del CFP. In tal modo si sfrutta

il Virtual Sensing per proteggere il PCF. La durata del CFP è inizialmente settata al valore massimo ovvero il CFP Max

Duration. In realtà tale periodo può essere terminato anticipatamente dal PC mediante l'invio di un frame detto CF-END.

Nel CFP abbiamo quindi che il PC accede per primo al canale. Quindi interroga le stazioni e concede alle stesse il

permesso di trasmettere. La procedura seguita è la seguente. Trasmesso il Beacon, il PC attende un SIFS. Quindi trasmette

il CF-Poll ovvero un frame che autorizza la stazione che lo riceve a trasmettere. Quest'ultima risponde quindi con un frame

di dati (nel caso generale) al quale segue un segnale di CF-ACK da parte del PC in caso di corretta ricezione. Qualora sia

invece il PC a dover trasmettere dei dati ad una stazione, si ha la trasmissione di questi al posto del CF-Poll e la

conseguente risposta da parte della stazione ricevente con un CF-ACK in caso di corretta ricezione.

Nel PCF i frame vengono spessi accorpati al fine di migliorarne l'efficienza. Pertanto avremo che i PC possono trasmettere

frame del tipo CF-Poll, CF-ACK + CF-Poll, Data + CF-ACK + CF-Poll. La stazione che ha ricevuto il CF-Poll può

rispondere dopo un SIFS con un CF-ACK o con un Data + CF-ACK. Se la stazione non ha nulla da trasmettere, allora

invia un frame detto CF-Null. Il PC sceglie le stazioni a cui inviare il CF-Poll da una lista detta polling list. Questa

contiene l'elenco di tutte le stazioni che, in fase d'associazione alla BSS, ne hanno esplicitamente richiesto l'inserimento.

Quando una stazione si associa a una BSS riceve un numero identificativo detto AID (Association ID). La polling list

viene interrogata in ordine crescente di AID. Quando la lista termina la si inizia nuovamente a leggere dall'inizio. Anche

per il PCF è previsto un processo di frammentazione e deframmentazione di dati simile al DCF. In figura si riporta

un'esempio di scambio di frame nel PCF.

Il QoS nelle Wireless LAN

Gli standard presentati in precedenza, sono stati pensati per un traffico di tipo generico detto best-effort. Con tale termine

individuiamo una certa tipologia di traffico caratterizzata dal non presentare particolari esigenze in termini di risorse

assegnategli. Esempi di traffico identificabili in tale categoria sono i traffici di trasferimento file (FTP, File Transfer

Protocol), quelli per lo scambio di posta elettronica (SMTP, Simple Mail Transfer Protocol, POP3, Post Office Protocol), o

per la consultazione di pagine web (HTTP, Hyper Text Transfer Protocol). E' anche vero però che negli ultimi anni si

presenta sempre più l'esigenza di far uso di particolari tipi di traffici che presentano esigenze nettamente diverse. Sto

parlando di traffici di informazioni di tipo audio o video, interattive o non. Questo comporta il soddisfacimento da parte

della rete, di particolari specifiche in termini di prestazioni, al fine di garantire la qualità dell'informazione trasmessa. Si

introduce quindi il concetto di QoS (Quality of Service) definito come proprietà della rete di garantire una certa qualità nel

servizio offerto. Il gruppo IEEE 802.11 ha costituito pertanto un gruppo di lavoro il cui scopo sia la realizzazione di uno

standard che garantisca il soddisfacimento di questa specifica. Tale gruppo e il 802.11e. Allo stato dell'arte non è ancora

stato definisto uno standard, ma sono stati proposti diversi Draft . Il compito che mi pongo in questa sede è quello di

definire meglio il concetto di QoS andando ad analizzare le varie proposte fatte per garantire tale servizio nello standard

802.11.

Partiamo quindi dall'analizzare il traffico multimediale, cercando di capire quali esigenze esso presenta e perché non si

possa sfruttare una rete pensata per il traffico best-effort. Con traffico multimediale si identifica solitamente un tipo di

trasmissione che presenti informazioni di tipo audio o video al proprio interno. Allo stato attuale, abbiamo che le

applicazioni più diffuse sono: audio streaming, video streaming, video conference e VoIP (Voice over IP). Queste quattro

applicazioni prevedono la trasmissione di tipo interactive detto anche two-way (VoIP e video conference) nelle quali in

traffico è bidirezionale, o di tipo non-interactive detto anche one way (streaming audio e video) nelle quali abbiamo invece

un traffico di tipo unidirezionale.

Appare evidente come queste applicazioni richiedano particolari specifiche alla rete al fine di garantire una ricezione

accettabile verso l'utente destinatario. Le specifiche di cui occorre tener conto sono sostanzialmente quattro:

Banda allocata. Occorre fare una differenziazione in termini di traffico trasmesso. Infatti passiamo da un banda di pochi

Kbit/sec per il VoIP fino a Mbit/sec nel caso di streaming video. Non può pertanto essere pensato una gestione paritaria

delle risorse disponibili pena uno spreco delle stesse.

Delay. Esso sostanzialmente è il tempo che trascorra tra l'istante in cui il pacchetto è generato all'istante in cui esso è

ricevuto dal destinatario. Appare evidente come ad esso concorrano una serie di fattori quali il ritardo di elaborazione

(piccolissimo ma comunque non nullo), il ritardo di accodamento (i pacchetti vengono conservati in una coda in attesa di

esser trasmessi, usualmente serviti secondo una politica FIFO - First In First Out), il ritardo di trasmissione (dipendente

direttamente dalla velocit`a di trasmissione), ed il ritardo di propagazione fisica del segnale trasmesso (anch'esso

piccolissimo). Diventa un fattore a cui occorre fornire una particolare attenzione nel caso di traffico interattivo pena il

rischio di rendere la conversazione incomprensibile.

Jitter. Questa quantità esprime la varianza del ritardo di cui prima. Un jitter nullo è sinonimo di un ugual ritardo da parte

dei pacchetti. Jitter elevati significa un traffico poco fluido.

Packet loss. Da informazioni circa la quantità di pacchetti persi (oppure corrotti) durante la trasmissione. I traffici

multimediali presentano specifiche abbastanza stringenti verso questo indice.

Potenzialmente si potrebbe affermare che, in assenza di traffico sul canale trasmissivo, il DCF potrebbe tranquillamente

garantire questo il QoS verso questi tipi di traffico. In realtà sappiamo bene come la qualità di un protocollo il cui fine

ultimo sia garantire una specifica, vada saggiato in presenza di condizioni di lavoro sfavorevoli. Riporto di seguito una

tabella in cui si definiscono, degli indici appena elencati, i valori massimi tollerati in funzione dell'applicazione.

Il gruppo di lavoro 802.11e, istituito per opportare modifiche allo standard originale al fine di garantire il QoS verso tali

applicazioni, ha proposto due nuove modalità di trasmissione. Una è l'EDCF (Enhanced DCF) basata sul DCF, l'altra è

l'HCF (Hybrid Coordination Function) Basata sul PCF.

Il livello fisico

Questo livello occupa il posto più basso nella gerarchia individuata all'interno della pila ISO-OSI. E' situato al di sotto del

livello MAC ed il suo compito è quello di ricevere da quest'ultimo i frame da trasmettere sul canale e viceversa di passare i

frame presi dal canale stesso. Si occupa inoltre di determinare lo stato del canale stesso (Carrier Sense).

All'interno del livello fisico è possibile individuare i seguenti componenti:

- Physical Layer Management. Questo s'interfaccia con il livello superiore e gestisce i seguenti sottolivelli. - PLCP

(Physical Layer Convergence Procedure).Esso provvede a convertire i frame provenienti da livello MAC o dal canale

aggiungendo o eliminando un PLCP preamble e un PLCP header. - PMD ( Physical Medium Dependent).Governa

direttamente l'hardware in uso.

Nella prima versione dello standard IEEE 802.11 sono stati incluse tre differenti implementazioni per il livello fisico:

DSSS, FHSS, IR. Le successive estensioni dello standard hanno introdotto l' OFDM e una versione più veloce del DSSS,

denominata HR-DSSS (High Rate Direct Sequence Spread Spectrum). Esse rappresentano fondamentalmente diversi tipi

di modulazione del segnale, che permettono diverse frequenze di trasmissione. Analizziamo quindi ciascuna di queste,

partendo da quelle di tipo Spread Spectrum.

- Modulazione Spread Spectrum - Rappresenta il comune denominatore della DSSS (e della FHSS. Questa tecnica di

modulazione permette sostanzialmente di spalmare la potenza del segnale in una banda più ampia al fine di garantire una

maggiore immunità all'interferenza ed un aumento del rapporto segnale rumore. Ovviamente si ha come risvolto uno

spreco di banda.

- DSSS (Direct Sequence Spread Spectrum) - Lo standard IEEE 802.11 implementa la tecnica DSSS per trasmettere dati

sul canale. La trasmissione garantisce in tal modo un througput di 1 Mbps o 2 Mbps in una banda a cavallo dei 2.4 Ghz.

Mediante questa tecnica si suddivide la banda disponibile in 11 canali da 22 Mhz l'uno. Quindi mediante l'uso della

sequenza di Barker come chipping code si codifica ogni simbolo con chipping sequenze da 11 bit. Il differente througput

dipende dal tipo di codifica implementato. Sfruttando il Differential Birany Phase Shift keying si raggiunge la velocità di 1

Mbps. Per poter raggiungere i 2 Mbps occorre far uso della Differential Quadrature Phase Shift Keying.

FHSS (Frequency Hopping Spread Spectrum) - Anche in questo caso si fa uso di una banda allocata nell'intorno di 2.4

GHz. Questa viene divisa in più canali la cui ampiezza è di 1 Mhz e il cui numero varia da paese a paese. L'allargamento

dello spettro (Spread Spectrum) avviene mediante modulazione con una portante che salta (Frequence Hopping) da una

frequenza ad un'altra mediante una sequenza pseudo-casuale. Lo standard impone che vi sia una distanza minima tra le

frequenze di due salti contigui. Tale valore è pari a 6 MHz nel Nord America mentre è di 5 Mhz in europa e nel Giappone.

Facendo uso di una codifica GFSK (Gaussian Frequency Shift Keying) si raggiunge un througput di 1 Mbps, mentre con

GFSK e quattro livelli si ottiene un througput di 2 Mbps.

HR-DSSS (Standard 802.11b) - Lo standard 802.11b introduce un nuovo tipo di modulazione al fine d'ottenere un

througput maggiore di quello ottenuto dallo standard 802.11. E' da sottolineare che esso è un complemento allo standard

originale e non una sostituzione. Anche in questo caso si opera nella frequenza dei 2.4 GHz. Per i througput più bassi si fa

sempre uso della DBPSK (1 Mbps) e DQPSK (2 Mbps). Per valori superiori si fa uso del DS-SS/CCK(Complementary

Code Keying) + DQPSK per Data rates a 5.5 e 11 Mbit. Il DS-SS code è di 11 chip per bit mentre il CCK code è di 8 chip

per bit.

Pmax= 1 W (USA), 100 mW (EU)

- OFDM (Standard 802.11a) - All'interno dello standard 802.11a si utilizza la OFDM come tecnica di modulazione. In

queto modo la trasmissione avviene in una banda allocata nell'intorno dei 5 Ghz con througput massimo di 54 Mbps (6

Mbps, 9 Mbps, 12 Mbps, 18 Mbps, 24 Mbps,36 Mbps, 48 Mbps, 54 Mbps). Sostanzialmente tale tecnica consiste nel

suddividere un segnale dall'elevato bit rate in un insieme di sottosegnali dal bit rate inferiore. Questi vengono trasmessi in

simultanea mediante sottoportanti generate sfruttando la Inverse Fast Fourier Transform. Per evitare errori introdotti da

interferenza d'intersimbolo si mantiene una differenza di un numero intero di periodi all'interno del periodo d'integrazione

della FFt. In tal modo è assicurata l'ortogonalità e quindi l'annullamento dell'interferenza. La frequenza operativa è di 5.15-

5.35 GHz e 5.725-5.825 Ghz in US, UNII - Unlicensed National Information Infrastructure band mentre in Europa 5.15-

5.35, ma esistono ancora notevoli limitazioni all'utilizzo. Il througput è fortemente dipendente dalla potenza trasmessa e

dal numero di AP. Riporto di seguito una tabella riassuntiva circa il througput nello standard 802.11a.

- Infrared - L'IrDA (Infrared Device Application), è lo standard di interconnessione dati tramite infrarossi bidirezionale

point-to-point tra dispositivi posizionati in visibilità reciproca ( LoS, line of sight) Tali dispositivi sono indicati per le

comunicazioni e non per le reti vere e proprie. Questa modalità di trasmissione è stata inclusa nello standard 802.11

nell'eventualità di utilizzo di una rete in ambienti chiusi e piccolo. Il througput raggiunto è di 1 o 2 Mbps sfruttando

codifiche del tipo 16-PPM e 4-PPM.

3.2) Tecnica ad acesso OFDMA (Orthogonal Frequency Division Multiplexing Access)

E’ una tecnica di accesso multiplo basata sulla modulazione OFDM, che è parte dei principali sistemi radiomobili di generazione

successiva alla terza.

OFDMA è la modalità di trasmissione prevista per lo standard IEEE 802.16 nato per fornire servizi radio a larga banda ad utenti

fissi, nomadici e mobili (può essere usato sia come backhaul che per l’accesso nell’ultimo miglio)

L’interfaccia radio LTE (Long Term Evolution) su cui sta lavorando il 3GPP, come evoluzione dei sistemi radio di terza

generazione, prevede l’OFDMA nel downlink (BS-mobile) e una tecnica Single Carrier ma con equalizzazione nel dominio della

frequenza nell’uplink (mobile-BS) detta Interleaved FDMA (IFDMA)

FDMA: ad ogni utente è assegnata una sottobanda della banda totale (nei sistemi FDMA classici, le sottobande sono separate da

una banda di guardia per evitare l’Adjacent Channel Interference)I segnali sono sovrapposti nel tempo

TDMA: ad ogni utente è assegnato uno o più time slot per la trasmissione (non c’e’ sovrapposizione nel tempo, ma in frequenza)

all’interno di una struttura periodica detta trama. L’assegnazione dei time slot può essere fissa o dinamica e cambiare da trama a

trama.

OFDMA: è un caso particolare di FDMA (la separazione avviene nel dominio della frequenza), dove però agli utenti non sono

assegnate sottobande non sovrapposte in frequenza e separate da un tempo di guardia (come nell’FDMA), ma delle sottoportanti

ortogonali. In genere, è combinata con il TDMA e quindi la trasmissione è sempre organizzata in trame temporali e time slot. In

ogni time slot, ad ogni utente viene assegnato un gruppo di sottoportanti. Il numero e la posizione delle sottoportanti assegnate

ad ogni utente può variare da time slot a time slot.

Confronto con altre tecniche d’accesso

Tecniche di accesso a singola portante di grande importanza sono:

TDMA, usato nei sistemi di seconda generazione (2G)quali il GSM

DS-CDMA, usato nei sistemi di terza generazione (3G) quali UMTS.

Queste tecniche di accesso a singola portante progettate per i sistemi di 2G e 3G forniscono i seguenti vantaggi (+) e svantaggi ():

generazione del segnale a bassa complessità

basse fluttuazioni dell’inviluppo del segnale trasmesso nell’uplink (basso PAPR)

capacità di sfruttare la selettiva in frequenza del canale (in particolare per il DS-CDMA, il

capacità di sfruttare la selettiva in frequenza del canale (in particolare per il DS-CDMA, il segnale viene trasmesso su una

banda larga e si usa il ricevitore RAKE per sfruttare la selettiva in frequenza)

- La complessità dell’equalizzazione (nel caso TDMA)e del processamento per separare il segnale d’interesse da quello

degli altri utenti (nel caso CDMA), cresce notevolmente all’aumentare della selettiva in frequenza del canale (ossia, sia se

aumenta il delay spread sia che si vogliano ottenere elevati data rate) e del numero di utenti (es. complessità

dell’equalizzatore nel dominio del tempo, es. Viterbi, cresce esponenzialmente al numero di cammini multipli)

Tecniche di accesso multiportante di grande importanza sono:

Multi-carrier CDMA: esempio di combinazione tra sistemi multiportante e CDMA. Si fa prima lo spreading poi la modulazione

OFDM, quindi, lo spreading è applicato nel dominio della frequenza e la separazione tra gli utenti viene fatta nel dominio dei

codici (a utenti diversi codici diversi).

Svantaggi del MC-CDMA:High PAPR e complessità in ricezione per avere la “user separation” in quanto, seppure il CP rende il

sistema robusto all’ISI, il delay spread determina comunque seppure il CP rende il sistema robusto all’ISI, il delay spread

determina comunque la perdita di ortogonalità tra i codici assegnati ai vari utenti.

OFDMA: la separazione degli utenti è fatta nel dominio dellafrequenza (assegnando sottoportanti ortogonali diverse). Che le

sottoportanti appartengano allo stesso utente o a utenti diversi non cambia molto; con il CP garantisco che le sottoportanti

rimangano ortogonali e questo rende il sistema robusto sia all’ISI che alla MAI. Quindi, il ricevitore risulta essere meno

complesso che nel caso MCCDMA e DS-CDMA (è sempre necessaria una qualche equalizzazione, qui basta l’equalizzatore a un

tappo)

Uno dei vantaggi principali dei sistemi CDMA è la cosidetta “interference averaging”: l’intererenza è la somma di un elevato

numero di segnali interferenti con fading independenti (alcuni interferenti si sommanoaltri sottraggono) e quindi le fluttuazioni

dell’interferenza sono minori della fluttuazioni di un singolo interferente, le cui fluttuazioni possono invece essere profonde

(come le fluttuazioni del segnale dovute al fading). Questo fa siche i margini di sistema possano essere minore rispetto al caso

di sistemi non CDMA.

OFDMA ha un elevato PAPR (e quindi, richiede dei costosiamplificatori lineari). Questo la rende inappropriata

soprattuto per l’uplink (sul terminale mobile non si vogliono mettere costosi amplificatori).

Questo ha fatto si che l’OFDMA venisse scelto solo per il downlink dell’interfaccia LTE, dove il problema del PAPR è meno

importante, mentre nell’uplink si e’ scelto una tecnica che è un ibrido tra CDMA e OFDMA: IFDMA (Interleaved FDMA).

Si noti che l’OFDMA senza codifica di canale non riesce ad ottenere un guadagno di diversità in frequenza come i sistemi

DS-CDMA o anche MC-CDMA.

Riassumendo:

OFDMA ha:

un ricevitore semplice che lavora bene sia in presenza di elevata selettività del canale sia con molti utenti

Tuttavia ha un elevato PAPR

I sistemi a singola portante hanno :

basso PAPR

Maggiore robustezza ad altri tipi di interferenza o alle non idealità ma ricevitore in genere complesso all’aumentare degli

utenti o del delay spread.

ma ricevitore in genere complesso all’aumentare degli utenti o del delay spread.

Uno dei piu’ grandi vantaggi dell’OFDMA è comunque un altro:

Grande flessibilità e granularità nell’assegnazione dinamica delle risorse:

1) posso fare l’adaptive loading portante per portante

2) posso assegnare piu’ o meno portanti agli utenti a secondo delle loro condizioni di canale (multiuser diversity) o della

banda disponibile (scalabilità)

Tecniche adattative (in generale)

L’idea è di adattare le potenza o la data rate (scegliendo opportunamente la modulazione e/o la codifica di canale) in base alle

condizioni istantanee del canale.Per poterle applicare è necessario un canale di ritorno tra RX e TX, al fine di poter mandare la

stima del canale fatta al Rx al TX (a meno che non si usa una multiplazione di tipo TDD). Permettono di dimensionare il sistema

non per le condizioni di propagazione peggiori, ma per condizioni medie. Quando le condizioni di propagazione sono migliori del

caso peggiore, posso trasmettere più informazione nell’unità di tempo, quando le condizioni di propagazione sono cattive, si

trasmette con una efficienza spettrale minore.

“Se l’SNR è maggiore di 26dB (circa) allora si può usare una 64-QAM, che massimizza l’efficienza spettrale. Se le condizioni di

canale peggiorano e l’SNR scende a un valore compreso tra 20-26dB allora, si può usare una 16-QAM, se scende sotto i 10dB,

non c’e’ modo di garantire quella BER e si ha il “fuori servizio”.”

Relativamente alla codifica, se le condizioni di propagazione effettive sono peggiori di quelle medie per cui si è progettato il

sistema, allora si può usare un codice con una ridondanza maggiore, ma anche un guadagno di codifica maggiore(chiaramente, il

guadagno di codifica deve essere maggiore della riduzione dell’ Eb/N0dovuta all’aumento della ridondanza che deriva dall’usare

un codice con Rc minore).In generale, aumentare la frequenza di codifica Rc significa ridurre la ridondanza introdotta dal codice

e quindi, una efficienza spettrale maggiore (maggiore informazione è trasmessa per unità di banda), ma minore protezione dagli

errori; ridurre Rc significa introdurre per unità di banda), ma minore protezione dagli errori; ridurre Rc significa introdurre

maggiore ridondanza, e quindi maggiore protezione a spese di una minore efficienza spettrale.

Come variare la frequenza di codifica senza dover realizzare troppi codec in parallelo?

Tecnica del puncturing, tolgo dei bit alle parole di codice in modo noto e a partire dal codice madre ottengo dei codici con rate

maggiori e prestazioni minori.

Tecniche adattative, caso OFDM

Efficacia delle tecniche adattative e di quelle con diversità in funziona della variabilità del canale Le sottoportanti con guadagni di

canale maggiori utilizzano modulazioni di ordine superiore per portare più bit, mentre sottopotanti in “deep fade” portanto un bit

o anche nessun simbolo. Inoltre, siccome le diverse sottoportanti sperimentano un’attenuazione diversa e trasmettono differenti

numeri di bits, anche il livello di potenza con cui vengono trasmessi devono cambiare. Studi sull’allocazione ottima della potenza

nelle sottoportanti sono stati fatti .

Si noti che quando si usa la modulazione adattativa con l’OFDM, una buona porzione di sottoportanti potrebbe non essere usata

(perchè in deep fade)Se uso l’OFDM con una tecnica d’accesso multiplo ditipo TDMA, ad ogni utente è assegnata un diverso

time slot per trasmettere e sein quel time slot alcune sottoportanti non sono utilizzate, non possono essere usate da altri utenti che

invece vedono le stesse sottoportanti con un’attenuazione diversa Nel caso OFDMA, si può invece pensare ad un’allocazione

delle sottoportanti tra gli utenti, nei vari time slot, che tenga conto delle condizioni di canale: la scelta della sottoportante da

occupare, del numero di bit e della potenza da allocare per sottoportante da occupare, del numero di bit e della potenza da allocare

per sottoportante, dipende dalla condizioni di canale di tutti gli utenti. Può succedere che ad un utente non venga assegnata la

propria sottoportante “migliore” perchè quella è la sottoportante migliore anche di un altro utente che ha tutte le sottoportanti in

deep fade. Comunque, in media aumenta l’efficienza spettrale del sistema perchè uso delle sottoportanti che altrimenti non userei

Scheduling adattativo nel dominio della frequenza e multiuser diversity

Nell’interfaccia radio LTE, si prevede un’adattamento s u base 1ms/180kH

Si può anche pensare ad assegnare più sottoportantiall’utente con condizioni di canale migliori e meno a quelli con condizioni di

canale peggiori. Questo concetto di scheduling adattativo è già presente nei sistemi 3G e 3.5G (High Speed Packet Access,

HSPA), la novità è che ora si può applicare anche nel dominio della frequenza.

Supponiamo di avere un sistema OFDMA con K utenti edi dover allocare ogni volta una sottoportante all’utente con guadagno di

canale (per sottoportante) massimo. I guadagni di canale h sono supposti v.a. i.i.d. distribuite alla Rayleigh

al crescere del numero degli utenti aumenta la probabilità di trasmettere su di una sottoportante con guadagno elevato

La possibilità di fare un’assegnazione delle sottoportanti tra i vari utenti in base alle condizioni di canal porta ad un guadagno in

termini di:

1) Capacità (o throughput, ossia, numero di bit trasmessi con successo nell’unità di tempo)

2) In termini di affidabilità

3) In termini di area di copertura

Questo guadagno che aumenta all’aumentare del numero degli utenti, implica che si sta utilizzando una forma di multiuser

diversity.

3.3) BlueTooth È stata pensata per:

Comunicazioni a corto raggio

Essere utilizzata da dispositivi dotati di batterie

Supportare sia traffico voce che dati

Essere utilizzata in tutto il mondo (banda ISM)

È caratterizzata da:

Basso costo

Basso consumo di potenza

Affidabilità

Specifiche aperte

Caratteristiche base

Obiettivo principale della tecnologia è la sostituzione dei cavi con comunicazioni radio

o Solo dispositivi nel raggio di copertura del segnale radio (da 1 a 100 m) possono comunicare direttamente

o Bluetooth non offre direttamente un supporto per l’instradamento di informazioni tra dispositivi non in vista

reciproca

Le comunicazioni possono essere

o a pacchetto, banda massima fino a 723 kbps

o isocrone, banda costante pari a 64 kbps

‰La comunicazione è di tipo punto-multipunto tra dispositivi che formano una “piconet”

PICONET & SCATTERNET

Una rete formata da due o più dispositivi Bluetooth è detta piconet: architettura a stella

Un dispositivo si comporta da master

o Si occupa della gestione dell’accesso al canale

Gli altri vengono definiti slave

o Accedono al canale solo a fronte di una richiesta del master

o Al massimo 7 slave attivi, fino a 254 slave inattivi

‰Per permettere la creazione di reti più grandi, ciascun dispositivo può:

o Essere master in una piconet e slave in un altra

o Partecipare come slave a più piconet

‰L’aggregazione di più piconet viene detta scatternet

Indirizzamento

Ogni dispositivo Bluetooth è dotato di un indirizzo univoco a livello mondiale, assegnato dal costruttore

Equivalente del MAC address nelle reti ethernet

Dimensione: 48 bit ⇒fino a 2,84×10^14 dispositivi

‰Ad ogni dispositivo può essere assegnato un nome

Stringa di caratteri Unicode,Definito dall’utente,Non è univoco, ma facilita la vita agli utilizzator

Gestione del mezzo fisico

Frequency hopping pseudocasuale

79 canali separati, larghezza di banda 1MHz

Slot temporali di 625 μs

Natura master-slave della comunicazione

Chi inizia una conversazione funge da master

La sequenza dei canali utilizzati viene derivata dall’indirizzo MAC del master

Il master invia, durante uno slot, una richiesta ad uno slave, che gli risponde nello slot successivo (sul prossimo canale

della sequenza pseudocasuale)

Possibilità di avere fino a 7 slave attivi

Master e slave devono mantenere il clock allineato

Paging e Inquiry

Un dispositivo che intende iniziare una conversazione invia pacchetti di richiesta riportanti l’indirizzo del destinatario

Se il destinatario è in ascolto, può sincronizzarsi al master e accettare la comunicazione

L’invio di richieste si chiama“paging”, la disponibilità del destinatario a ricevere richieste di connessione di chiama “page

scan”

La connessione richiede la conoscenza dell’indirizzo MAC del destinatario

Per scoprire i possibili destinatari, una stazione può inviare pacchetti di “Inquiry”

Chi riceve tale pacchetto, risponde indicando il proprio indirizzo MAC, il proprio clock ed un intero indicante la tipologia

del dispositivo (ClassOfDevice)

Per ricevere richieste di paging e di inquiry, mittente e destinatario devono utilizzare lo stesso canale radio

Per evitare congestioni su ununico canale, lo standard definisce un sottoinsieme di canali su cui tali richieste vengono

trasmesse

Il mittente cambia, ad ogni slot, il canale di richiesta

Il destinatario ascolta su uno stesso canale per molti slot consecutivi

Le operazioni di page scan e/o di inquiry scan possono essere disabilitate per ridurre i consumi e/o aumentare la sicurezza di un

dispositivo.

La pila protocollare

La pila protocollare può essere suddivisa in due parti:

Bluetooth host protocolso implementati in softwareo Funzioni di alto livello

Bluetooth controller protocolso Gestione del modulo radio

I due componenti dialogano tramite l’interfaccia HCI

Host-Controller Interface

Definisce un insieme di messaggi ed un insieme di modi per trasportarli (porta seriale, USB, …)

Protocolli Bluetooth

Il livello radio definisce i requisiti del transceiver

Opera ad una frequenza di 2.4 GHz

Invia dati alla velocità di 1 Mbps

Il livello baseband e link controller si occupano di:

Stabilire una connessione

o SCO per il traffico voce (in tempo reale, non affidabile)

o ACL per il traffico dati (affidabile, senza vincoli sul tempo)

Gestire l’accesso ai canali radio

Riconoscere le richieste provenienti da altri dispositivi

Mantenere la sincronizzazione con il master

Il protocollo link manager (LMP) si occupa di

Configurare il collegamento fra due dispositivi Bluetooth

Gestire e negoziare la dimensione dei pacchetti utilizzati a livello baseband

Il livello host controller interface (HCI)fornisce comandi per il controllo dei livelli

radio

baseband

link manager

Il livello L2CAP si occupa di multiplare pacchetti provenienti dai livelli superiori su una stessa connessione fisica

RFCOMM:Emula una connessione seriale tra due dispositivi.Equivalente, in termini di funzionalità a TCP. Tranne nel fatto che

solo due dispositivi in prossimità possono dialogare. Il server attende connessioni. Il client inizia una richiesta

SDP –Session Description Protocol

La conoscenza dell’indirizzo MAC di una stazione è necessaria ma non sufficiente per poter avviare una comunicazione utile

Occorre conoscere quali servizi l’altra stazione offre

Il protocollo SDP affronta questo tema

Ogni stazione che offre un servizio Bluetooth pubblica, in un apposito registro, la descrizione del servizio ed i parametri necessari

ad utilizzarlo

Scoperta l’identità di una stazione vicina, un dispositivo può interrogarne il registro alla ricerca di una specifica voce

Ogni servizio è descritto attraverso un UUID, numero binario a 128 bit univoco a livello mondiale

Attraverso il protocollo SDP, una stazione può esaminare il registro delle stazioni adiacenti ed individuare eventuali

servizi cui intende connettersi, con i relativi parametri

Sicurezza

La tecnologia Bluetooth fornisce diversi livelli di sicurezza Pairing , Autenticazione , Cifratura ,Autorizzazione

Il processo di pairing viene attivato quando due dispositivi, che vogliono attivare politiche di sicurezza, vengono in

contatto per la prima volta.

o Devono stabilire un segreto condiviso

o Si deriva tale segreto a partire da una coppia di numeri casuali, ciascuno determinato da uno dei due dispositivi e

da un codice esplicito (PIN), inserito dall’utente, usato per la mutua autenticazione

o Il PIN può essere arbitrario (purché identico sulle due parti) e non viene a far parte del segreto

Autenticazione Bluetooth utilizza un meccanismo a sfida per autenticare il dispositivo remoto

o Quando A vuole autenticare B,gli manda una sfida (un numero casuale)

o B calcola il risultato di una formula non invertibile che ha come parametri (La sfida,Il segreto condiviso

(costruitodurante la fase di pairing)

o Il risultato viene inviato ad A

o A esegue lo stesso processo e verifica di ottenere lo stesso risultato: in questo modo è certo dell’identità di B

o Lo stesso processo deve essere ripetuto da B per autenticare A.

Cifratura:Una volta autenticato il dispositivo remoto, è possibile attivare la cifratura. Il dispositivo che decide di

cifrare il traffico deve richiedere al dispositivo remoto di fare altrettanto:

o Se il dispositivo remoto accetta la richiesta, tutto il traffico scambiato viene cifrato

o Se rifiuta, la connessione viene chiusa

Autorizzazione: L’autorizzazione è il processo che stabilisce se la richiesta di connessione che proviene da un

dispositivo remoto deve essere soddisfatta

o Per ogni applicazione può essere creata una lista di dispositivi che possono accedere liberamente al servizio

(trusted device)

o Se un dispositivo non presente in questa lista richiede l’attivazione di una connessione, viene richiesto all’utente

di accettare o rifiutare questa richiesta

3.4) Reti in tecnologia IEEE 802.16 cioè WIMAX

WiMAX, ovvero Worldwide Interoperability for Microwave Access, è una certificazione che attesta la capacità di un prodotto di

essere operativo per lo standard IEEE 802.16, uno standard broadband per l'accesso wireless.

Il Wimax per molti aspetti è un parente stretto del Wi-fi con una piccola grande differenza: la sua portata di azione è pari a circa

50 km (31 miglia, per un totale di circa 7500-8000 km quadrati di copertura per singola antenna) contro le poche decine di metri

del Wifi, non soffre i problemi di muri e ostacoli naturali e potrebbe permettere di coprire tutte le zone rurali, difficili da

raggiungere o a bassissima densità con una linea simile a quella Adsl.

Una stazione Wimax posizionata nel cuore di una grande metropoli, potrebbe per esempio permettere a chiunque di accedere a

Internet magari direttamente dal portatile mentre si trova per strada, un cellulare compatibile Wifi e qualsiasi altro dispositivo

mobile oppure permetterebbe di eliminare il fastidioso problema dell'ultimo miglio per i sistemi telefonici, portare la rete Voip

ovunque, utilizzare videotelefoni e qualsiasi servizio richiesta la rete broadband (banda larga).

La rete Wimax utilizza uno spettro di banda compreso tra 2 e 11 Ghz per le attività "domestiche" e da 10 a 60 Ghz per altre

attività andando quindi a coprire parti di banda inutilizzate dagli attuali sistemi radio e garantisce una banda indicativa di circa 70

mbit/s, capace di poter coprire con linea Adsl migliaia di utenti (considerando che nelle normali Adsl a 1.2 Mbit/s la capacità

mediamente utilizzata è inferiore del 70% della reale capacità).

Un altro aspetto importare è definito nel termine Mac Layer, ovvero un sistema capace di supportare diversi livelli di

collegamento ( multiple physical layer, Phy) permettendo quindi una maggiore flessibilità su prodotti e dispositivi da collegare.

Nella rete Wi-Fi (e nella rete ethernet derivata) tutti gli utenti che accedono passano attraverso un dispositivo chiamato Access

Point. Maggiore è la distanza tra l'utente e il nodo di accesso e maggiore sarà il degrado del segnale o la possibilità che si formino

colli di bottiglia, blocchi del segnale e forti rallentamenti.

Il sistema MAC invece assegna un certo canale ad ogni singolo utente che accede garantendo la piena operatività del segnale ed

evitando problemi di intasamento soprattutto durante l'accesso

La rete Wimax è dunque una rete Wireless dedicata a connettere le c.d. "metropolitan area network" (Man), ovvero reti

metropolitane.

L'attuale standard è identificato dalla sigla 802.16 e più precisamente 802.16-2004 (ovvero approvata nel 2004, la precedente

versione risale al 2001) ed esistono due "sottosistemi" ovvero 802.16a and 802.16c mentre il 802.16e è dedicato alla

interconnessione con sistemi mobili quali cellulari e pda.

3.5) Tecniche di istradamento in reti fisse e wireless

Definizione: Insieme di regole secondo le quali il traffico esterno entrante viene instradato verso la propria destinazione.

Datagram: la tecnica di instradamento agisce sui singoli pacchetti (ogni pck ha storia a sé)

Virtual call: la tecnica di instradamento agisce sui pacchetti di richiesta di chiamata. La strada è fissata per ogni circuito virtuale

(instradamento di sessione).

Le tecniche di instradamento coinvolgono varie procedure anche complesse che possono lavorare indipendentemente ma che

devono supportarsi a vicenda e scambiarsi informazioni.

Complessità dovuta a:Coordinamento fra tutti i nodi della rete (a livello Data link solo 2 nodi)

Funzionamento anche in presenza di guasti nei collegamenti e nodi. Reinstradamento del traffico e aggiornamento di tabelle.

Dinamicità nelle scelte dovuto a cambiamenti nel traffico. Per ottenere migliori prestazioni.

Nota: non tutti gli instradamenti sono dinamici. Possono anche essere statici.

Prestazioni che dipendono dalle tecniche di instradamento,

ovvero criteri di valutazione delle tecniche di instradamento Throughput S, Ritardo medio , Affidabilità A

Requisiti delle Tecniche di Instradamento

ƒ Semplicità: di descrizione e programmazione (diversi calcolatori, tempo reale)

Affidabilità: possa reagire quando nodi e lati si guastano

Stabilità: a valori di traffico fissi deve fornire una soluzione stabile ed accurata, che non dipende da come è evoluto il

sistema

Adattamento: alle variazioni della topologia della rete e del traffico. Velocità di adattamento

Ottimità globale: ottimizzare il traffico totale smaltito dalla rete

o In generale, tenere basso il numero di tratte (link) utilizzate massimizza la capacità del sistema, soprattutto ad alti

carichi

o Tuttavia in questo caso tale criterio non andrebbe bene: il link (1,2) si vedrebbe offerto un traffico di 100 kbit/s,

superiore alla sua capacità

Fairness (eguaglianza) con cui tratto gli utenti della rete

o Ogni link ha capacità unitaria (1 unità di banda)Tutte le coppie di nodi offrono alla rete 1 unità di banda

o Instradando tutto il traffico proveniente dai nodi 1, 2 e 3, saturo i 3 link centrali, ed impedisco al nodo 0 di

trasmettere. Tuttavia ho accettato 3 u.d.b. nella rete

o Se invece instrado 0.5 u.d.b. dei traffici 1,2 e 3, posso instradare anche 0.5 u.d.b. del traffico proveniente da 0. In

totale ho accettato solo 2 u.d.b, ma ho trattato equamente i 4 utenti della rete

Possono essere classificate in:

Tecniche Deterministiche: assegnate “una volta per tutte” in fase di progettazione/configurazione della rete

o Diffusione o Flooding (Inondazione)

o Instradamento Fissato

o Instradamento Suddiviso

Tecniche Dinamiche

(1)Diffusione (o Flooding)

DIFFUSIONE:Ogni nodo ritrasmette ogni messaggio ricevuto su tutti i lati in uscita escludendo quello da cui è stato ricevuto.

Proprietà

o Un messaggio viene propagato a tutti i nodi della rete.

o Per implementarlo in modo corretto, va memorizzata l’identità (ID) dei messaggi giàinoltrati per evitare continuo

ricircolo (Numerazione ciclica)

Svantaggi

o ƒ Elevato traffico interno

o ƒ T* grande

o ƒ Realizzazione abbastanza complessa (dovuto alla memorizzazione degli ID)

Vantaggi

o Grande affidabilità: è garantito il pck giunga a destinazione, ammesso esista almeno un cammino tra sorgente e

destinazione. Questa tecnica le prova tutte, le strade.

Applicazioni

o Rete con piccolo coefficiente di utilizzo e vincoli ristretti sulla affidabilità (esempio reti militari, pensate per

funzionare anche in ambiente ostile)

Varianti

o Diffusione selettiva: ad es i messaggi che arrivano da un nodo a Nord li mando a Sud. Spanning Tree: albero di

diffusione

(2)Istradamento fissato

(3)Istradamento suddiviso

Tecniche dinamiche

Il Traffico cambia in modo statistico. La topologia anche.

Si ipotizza che tutti i nodi conoscano (o abbiano stimato) una Tabella dei Ritardi

Sulla base di tale misura/stima, adattano l’instradamento alle condizioni del traffico e della topologia.

La Tabella dei Ritardi (T), indica, per ogni nodo i, qual è il tempo medio necessario a raggiungere ogni altro nodo

passando per un determinato link uscente

Ti(j,l) = stima al nodo idel tempo (medio) necessario a raggiungere il nodo jutilizzando l’arco l.

Nota (stimata) la Tabella, ricavo un VI (stavolta dinamico)

Algoritmi di instradamento

Algoritmo distance- vector

I nodi di rete cooperano alla determinazione dei cammini minimi realizzando l’algoritmo di Bellman-Forddistribuito.

I nodi mantengono nella tabella di instradamento la stima di minor costo per ogni destinazione.

Instradamento tratta per tratta (hop-by-hop).

Per accelerare il riconoscimento di nodi sconnessi:

o limite alla stima del ritardo massimo

o time-out alla durata delle stimeƒ

o non si invia stima al nodo vicino se esso è quello che ha comunicato la stima minore (split horizon).

Algoritmo Link-State

Le informazioni trasmesse da ogni nodo (Link State Advertisement) contengono:

o identità del nodo

o lista dei collegamenti incidenti

o costi per l’uso dei collegamenti

o identità dei segmenti di rete

o indicazione delle applicazioni di rete ospitate nel nodo.

Osservazioni

o DV minor complessità rispetto a LS

o LS velocità di convergenza superiore

o Tempi di convergenza:

DV : n x K con n = numero dei nodi e K= numero di sottoreti

LS : n log n “non dipende dal numero di sottoreti”

Tecniche centralizzate

Calcola vettori instradamento per tutti i nodi, che eseguono un instradamento fisso sulla base dei vettori VT ricevuti ed

aggiornati da un calcolatore centralizzato.

Centralizzate vs. Distribuite: - Vantaggi

o Centralizzate

ƒ Calcolo più semplice

ƒ I nodi non hanno overhead di calcolo

ƒ L’algoritmo può essere più sofisticato

ƒ Possono essere evitati i “loops”

o Distribuite

ƒ Maggiore affidabilità

ƒ Applicabile a grandi reti

Centralizzate vs. Distribuite: -Svantaggi

o Centralizzate

o ƒ Non applicabile a grandi reti

o ƒ Quantità di calcolo nel calc. centralizzato molto pesante (N3invece di N2)

o ƒ Calcolo su informazione vecchia

o ƒ Ritardo dell’applicazione nuove decisioni

o ƒ Possono esistere “loops” dovuto ai ritardi di propagazione

o ƒ Scarsa affidabilità:

o ƒ Duplicazione calc. centralizzato

o ƒ Pericolo di isolamento congestione traffico di instradamento

o ƒ Non si conosce il calc. centralizzato in funzione

o ƒ La rottura di un lato o di un nodo può essere critica

o Distribuite

o ƒ Reagisce lentamente alle cattive notizie

o ƒ Maggior tempo di adattamento

o ƒ Tutti i nodi devono calcolare in modo corretto.

o ƒ (L’errore di uno si propaga)

InstradamentoMulticast/Broadcast

Un pacchetto deve essere inviato a tutti i nodi della rete (Broadcast) oppure ad un gruppo di essi (Multicast).

INSTRADAMENTO SEPARATO

Il nodo sorgente trasmette n volte lo stesso pacchetto con indirizzi diversi.

Non richiede delle tecniche di instradamento con destinazione unica.

Spreco di banda.

INSTRADAMENTO A DIFFUSIONE (FLOODING)Spreco di banda. Robusto

INSTRADAMENTO CON MULTIDESTINAZIONE

Il pacchetto contiene indicazione delle destinazioni.

Ogni nodo ritrasmette il pacchetto sututte le linee in uscita necessarie per raggiungere le destinazioni indicate.

Il pacchetto trasmesso in una linea contiene solo le destinazioni raggiungibili attraverso di essa.

Il numero delle destinazioni siriduce ad ogni ritrasmissione

Una sola copia viene trasmessa per più destinazioni che seguono la stessa strada.

Efficiente uso della banda

Richiede modifica al formato del pacchetto, elaborazione nei nodi ma usa la stessa informazione dell’instradamento

singolo.

3.6) Tecniche per il controllo della congestione

Congestione: Quando troppi pacchetti sono presenti in una porzione della sottorete, le prestazioni degradano.

Flusso:Un flusso di pacchetti che usa lo stesso protocollo ed è diretto da una sorgente ad una destinazione è chiamato Flusso.

Fattori di congestione: Diversi flussi di pacchetti che arrivano da piu sorgenti e tutti necessitano dello stesso output

Controllo della congestione: garantire che la sottorete sia in grado di trasportare il traffico immesso

Controllo del flusso: evitare che una sorgente veloce trasmetta più dati di quanti un ricevitore può assorbire

Esempio controllo della congestione: Rete composta da linee da 1 Mbps ,1000 computer, Circa la metà trasmettono a 100Kbps

Esempio: controllo del flusso: Rete in fibra ottica,Capacità di 1000gigabit/sec,Trasferire un file alla velocità di 1 Gbps

NOTA: Il controllo della congestione viene confuso con il controllo di flusso perché alcuni algoritmi di controllo della

congestione inviano alle sorgenti messaggi che dicono di rallentare la trasmissione

Controllo della congestione

• Soluzioni a cicli aperto

– Tentano di risolvere il problema mediante un buon progetto

– Una volta attivato non viene eseguita nessuna correzione in esecuzione

• Soluzioni a ciclo chiuso

– Concetto della retroazione

Ciclo chiuso

o Controllo del sistema per rilevare quando e dove si presenta la congestione

o Passaggio di queste informazioni ai punti dove si possono eseguire le azioni di correzione

o Regolazione del funzionamento del sistema per correggere il problema

Controllo della sottorete

Percentuale dei pacchetti scartati a causa di un esaurimento del buffer

Lunghezza media della coda

Numero dei pacchetti scaduti e ritrasmessi

Ritardo medio dei pacchetti

Deviazione standard del ritardo del pacchetto

Ciclo di retroazione

Le informazioni sono trasferite dal punto dove sono state rilevate a quello dove èpossibile fare qualcosa per risolvere il problema

– Se rimando il pacchetto alla sorgente con la segnalzione del problema non faccio altro che aumentare il traffico di rete

nel momneto in cui è congestionata

Data link

Il criterio di ritrasmissione riguarda la velocità con la quale un trasmettitore gestisce la scadenza dei pacchetti e che cosa

ritrasmette dopo un timeout

Criterio di utilizzo del buffer

Generazione degli acknowledgement

Livello network

Scelta tra circuiti virtuali e datagrammi– Alcuni algoritmi per il controllo della congestione funzionano solo con le

sottoreti acircuito virtuale

Criterio di servizio e accodamento dei pacchetti riguarda il numero di code presenti sui router

Criterio di scarto: regola che stabilisce quale pacchetto scartare quando non c’èpiù spazio

Algoritmo di routing: sparpargliare il traffico sui router vicini

Tempo di vita dei pacchetti– Vita lunga i pacchetti possono intasare la rete per molto tempo

Controllo della congestione nelle sottoreti a circuito virtuale

Controllo di ammissione: se la congestione è stata segnalata nessun circuito virtuale viene più impostato fino a quando il

problema non scompare

Oppure..

Creazione di nuovi circuiti virtuali ma servono per aggirare le aree congestionate

Controllo della congestione nelle sottoreti a circuito virtuale

Negoziare un accordo tra l’host e la sottorete durante l’impostazione del circuito virtuale– Specifiche dell’accordo, per

esempio:

Volume e forma del traffico

QoS richiesta

Tutte le risorse necessarie sono garantite e disponibili

Controllo della congestione nelle sottoreti a datagrammi

Ogni router può tenere sotto controllo l’utilizzo delle linee di output

Variabile u:utilizzo recente di quella linea

Ogni volta che u si sposta sopra la soglia di guardia la linea di output entra in stato allarme; a quel punto il router esegue

un’azione correttiva

3.7) Elementi di sicurezza delle comunicazioni.

3.8) RETI DI SENSORI