Comunicazioni Elettriche II - M-G. Di Benedetto...

25
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018

Transcript of Comunicazioni Elettriche II - M-G. Di Benedetto...

Page 1: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Comunicazioni Elettriche II

Laurea Magistrale in Ingegneria Elettronica

Università di Roma La Sapienza

A.A. 2017-2018

Page 2: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Capacità del canale discreto

Page 3: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Teoria dell’informazione

Sorgente Codificatore di sorgente

Codificatore di canale DestinazioneCanale

Obiettivo del codificatore di sorgente: minimizzare il bit rate nel rappresentare la sorgente (compressione dati)

Obiettivo del codificatore di canale: massimizzare il bit rate all’ingresso del canale (velocità di trasmissione) affinché la trasmissione avvenga rispettando prestazioni specifiche

Page 4: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Teoria dell’informazione

La teoria dell’informazione consente di dare risposta a due problemi fondamentali

Sorgente Codificatore di sorgente

Codificatore di canale DestinazioneCanale

Qual’ è la minima velocità di trasmissione ottenibile nella compressione dei dati: l’entropia H

Qual’ è la massima velocità di trasmissione ottenibile nella trasmissione: la capacità di canale C

Page 5: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Limiti

Se l’entropia della sorgente è inferiore alla capacità di canale, è possibile ottenere, asintoticamente, comunicazioni prive di errore

La teoria dell’informazione studia tali limiti e suggerisce anche come raggiungerli, benché computazionalmentepossano rivelarsi impraticabili

ComunicazioniLimite sulla

compressione dati

Limite sulla velocità di

trasmissione

entropia capacità di canale!! min I X ,X!( ) !!max I X ,Y( )

Page 6: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Capacità di canale

L’analisi svolta finora ha considerato la sorgente

I dati generati e codificati sono tuttavia tipicamente trasmessi su un canale che può introdurre errori

Ci si chiede quindi: quanta informazione è possibile trasferire sul canale pur preservando una probabilità di errore piccola a piacere?

Questa quantità prende il nome di Capacità di canale

Page 7: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Il canale discreto

Codificatore DecodificatoreCanalep(y/x)

W

Messaggio

Xn Yn ŴStima del Messaggio

Si definisce “canale discreto” un sistema che consiste in un alfabeto di ingresso X , un alfabeto di uscita Y e una matrice di probabilità di transizione che esprime la probabilità di osservare un simbolo y in uscita dato un simbolo in ingresso x, p(y/x).

Il canale è senza memoria se la distribuzione delle uscite dipende solo dall’ingresso allo stesso momento ed è condizionatamente indipendente sia da ingressi che da uscite precedenti

Page 8: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Capacità del canale discreto senza memoria

La capacità del canale discreto senza memoria è

!!C =max

p(x )I(X ;Y )

dove il massimo è rispetto a tutte le possibili distribuzioni dell’ingresso p(x)

Codificatore DecodificatoreCanalep(y/x)

W

Messaggio

Xn Yn ŴStima del Messaggio

Page 9: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Esempio: il canale binario non rumoroso

Canale binario non rumoroso

In questo caso l’uscita Y è una riproduzione dell’ingresso X e in ogni trasmissione possiamo mandare 1 bit senza errori al ricevitore. La capacità di canale è quindi 1 bit, e la si ottiene con p(x)= (½, ½)

C =max I X ;Y( ) =1bit

1

0

1

0

Page 10: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Esempio: il canale rumoroso con uscite distinte

In questo caso l’uscita Y non è una riproduzione dell’ingresso X ma in effetti per ogni trasmissione possiamo mandare 1 bit senza commettere errori. La capacità di canale è quindi 1 bit, e la si ottiene con p(x)= (½, ½)

C =max I X ;Y( ) =1bit

0

1

1

2

3

4

X Y

1/2

1/2

1/3

2/3

Page 11: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Esempio: noisy typewriter

Canale rumoroso con 26 simboli

Ogni simbolo è ricevuto correttamente con probabilità ½ oppure come il simbolo successivo con probabilità ½

!!

C =max I X ;Y( ) =max(H(Y )−H(Y / X ))==maxH(Y )−1= log26−1= log13

A

B

Z

Se si usano tutti i simboli la trasmissione avviene con errore ma se si usano solo simboli alternati, per esempio A, C etc. la trasmissione è corretta e il canale si comporta come il canale privo di rumore sul quale si possono mandare 13 simboli per trasmissione senza commettere errore. La capacità è raggiunta usando una p(x) distribuita uniformemente su tutti gli ingressi:

A

B

Z

C C

Page 12: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Il canale binario simmetrico BSC

Canale binario simmetrico

Questo è il modello più semplice di canale rumoroso

1

0

1

01-p

1-p

pp

Tuttavia rappresenta molto bene anche aspetti complessi del problema più generale

Nota: tutti i bit ricevuti sono inaffidabili!

Page 13: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Il canale binario simmetrico BSC

!!

I(X ;Y )=H(Y )−H(Y / X )==H(Y )− p(x)H(Y / X = x)=∑=H(Y )− p(x)H(p)=∑=H(Y )−H(p)=≤1−H(p)

dove l’uguaglianza vale se p(x) è uniforme

Quindi la capacità del canale binario simmetrico con parametro p è

!!C =1−H(p) bit

1

0

1

01-p

1-p

pp

Page 14: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Il canale binario con cancellazione

Il canale con cancellazione è un canale binario nel quale una frazione α di bit è cancellata anziché corrotta. Il ricevitore sa quali bit sono stati cancellati.

1

0

1

01-α

1-α

αα e

C =maxp(X )

I(X ;Y )=maxp(X )

(H(Y )−H(Y / X ))=maxp(X )

H(Y )−H(α )

Intuitivamente il massimo di H(Y) sarebbe log3 ma in effetti dipende da p(x)

Sia Pr{X=1}=π

H(Y )=H((1−π )(1−α ),α ,π(1−α ))=H(α )+(1−α )H(π )

Page 15: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Il canale con cancellazione

Si ha quindi

raggiunta se π=1/2

C =maxp(x )

H(Y )−H(α )=maxπ(1−α )H(π )+H(α )−H(α )=

=maxπ(1−α )H(π )=1−α

Se il canale è dotato di feedback è chiaro cosa si debba fare: se un bit è perso bisogna ritrasmetterlo fino a corretta ricezione. Siccome i bit arrivano correttamente con probabilità 1-α, il rate effettivo di trasmissione è 1-α. In questo modo si raggiunge la capacità di 1-α con feedback

Il feedback quindi non consente di aumentare la capacità?..Risultato generale: il feedback non aumenta la capacità dei canali discreti senza memoria

1

0

1

01-α

1-α

αα e

Page 16: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

In generale, se i campioni sono indipendenti sappiamo chel’informazione media associata a ciascun campione è H(X)Per n campioni è quindi pari a nH(X)

Ma quanta di questa informazione passa attraverso il canale, cioèquanto vale l’informazione (o incertezza) su X una volta osservato y?Si ha che l’incertezza residua su X é:

H X | y( ) = E − log p X | y( )( )⎡⎣ ⎤⎦ = − p x | y( )x∑ log p x | y( )( )

Capacità del canale discreto

Page 17: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

che mediata su tutti possibili valori di Y vale:

H X /Y( ) = H X / y( )y∑ = − p x / y( )log p x / y( ) p y( )

x∑

y∑ =

= − p x, y( )log p x / y( )x∑

y∑

ENTROPIA CONDIZIONATA o EQUIVOCAZIONE

In media, l’informazione che passa sul canale è quindi:

I X;Y( ) = H X( )− H X /Y( ) == H (Y )− H (Y / X)INFORMAZIONE MUTUA

Capacità del canale discreto

Page 18: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

I X;Y( ) = H X( )− H X /Y( ) == − p x( )log p x( )

x∑ + p x, y( )log p x / y( )

x∑

y∑ =

= − p x( )log p x( )x∑ + p y / x( ) p x( )log p x / y( )

x∑

y∑ =

= p x( ) p y / x( )log p x / y( )p x( )y

∑x∑ =

= p x( ) p y / x( )log p y / x( ) p x( )p x( ) p y / x( ) p x( )

x∑y

∑x∑ =

P A / B( )P B( ) = P B / A( )P A( )

Capacità del canale discreto

Page 19: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

I X;Y( ) = p x( ) p y / x( )log p y / x( )p y / x( ) p x( )

x∑y

∑x∑

Si ha quindi

Espressione di I(X,Y) in funzione di:➤ Probabilità di transizione del canale➤ Probabilità dei simboli di sorgente, dipendenti dal codificatore

di trasmissione

Capacità del canale discreto

Page 20: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Capacità di canale

CS = maxp x( )I X;Y( )

Si definisce la capacità per simbolo

Se il canale è utilizzato s volte in un secondo, si ottiene la capacità dicanale in bit/s:

C = sCS

Capacità di canale sul simbolo espressa in bit/simbolo, dove ogni simbolo è una

realizzazione di X

Capacità di canale in bit/s

Page 21: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Proprietà della capacità di canale

C ≤ log X datoche C = max I(X;Y ) ≤maxH (X) = log X

C ≥ 0 datoche I(X;Y ) ≥ 0

C ≤ log Y idem

I(X;Y ) èuna funzionecontinuadi p(x)

I(X;Y ) èuna funzioneconcavadi p(x)

Page 22: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Definizioni

CodiceUn codice (M,n) per un canale (X, p(x/y, Y) consiste in:1. Un insieme di indici {1,2,…,M}2. Una funzione di codifica Xn: {1,2,…,M}à Xn, che

produce le parole di codice xn(1), xn(2),…,xn(M). L’insieme delle parole di codice è detto codebook

3. Una funzione di decodifica g: Ynà{1,2,…,M}, deterministica, che a ogni vettore ricevuto un’ipotesi su quanto trasmesso

Massima probabilità di errore per un codice

!!λ(n) = max

i∈ 1,2,...,M{ }λi = max

i∈ 1,2,...,M{ }Pr g(Y n)≠ i / Xn = xn(i){ }

Page 23: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Teorema sulla capacità di canale

Il teorema fornisce un limite : anche se R<C, non è detto che si riesca aindividuare il codice che consente di arrivare prossimi a C:

➤ Complessità computazionale➤ Tempo di elaborazione

Per un canale discreto senza memoria tutti i rate inferiorialla capacità sono raggiungibili, ovvero per ogni rate R<Cesiste una sequenza di codici (2nR,n) con massimaprobabilità di errore che tende a zero !!λ(n)→0

Page 24: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Interpretazione

Xn Yn

Per ogni sequenza tipica di ingresso vi sono 2nH(Y/X) possibili sequenze in Y tutte con stessa probabilitàVorremmo che due sequenze di ingresso non producano la stessa sequenza in uscita

Page 25: Comunicazioni Elettriche II - M-G. Di Benedetto homepageacts.ing.uniroma1.it/.../20171018_comel_II_lezione_5.pdf · dato un simbolo in ingresso x, p(y/x). Il canale è senza memoria

Interpretazione

Xn Yn

Questi insiemi devono essere disgiunti

Dato il numero totale di possibili sequenze Y !!≈2nH(Y )

Possiamo dividere questo insieme in tante parti di dimensione !!2nH(Y/X )

Corrispondenti alle diverse sequenze di ingresso X

Il numero totale di insiemi disgiunti è inferiore o uguale a !!2nH(Y )2nH(Y/X ) =2

n(H(X )−H(Y/X )) =2nI(X ;Y )

!!2n(H(X )−H(Y/X ))!!2n(H(X )−H(Y/X ))

Quindi è possibile trasferire un numero di sequenze distinguibili pari al più a !!≈2nI(X ;Y )