I codici di Huffman

13
I codici di Huffman Studenti: Borrelli Antonio 50/445 Chierchia Eduardo 50/223 Università di Napoli “Federico II” - Corso di laurea in Informatica Corso di METODI PER IL TRATTAMENTO NUMERICO DI DATI MULTIMEDIALI a.a.2003/04 seminario n.1

description

Università di Napoli “Federico II” - Corso di laurea in Informatica Corso di METODI PER IL TRATTAMENTO NUMERICO DI DATI MULTIMEDIALI a.a.2003/04 seminario n.1. I codici di Huffman. Studenti : Borrelli Antonio 50/445 Chierchia Eduardo 50/223. Introduzione. - PowerPoint PPT Presentation

Transcript of I codici di Huffman

Page 1: I codici di Huffman

I codici di Huffman

Studenti:

Borrelli Antonio 50/445Chierchia Eduardo 50/223

Università di Napoli “Federico II” - Corso di laurea in Informatica

Corso di

METODI PER IL TRATTAMENTO NUMERICO DI DATI MULTIMEDIALI

a.a.2003/04 seminario n.1

Page 2: I codici di Huffman

Borrelli A. – Chierchia E. 2

David A. Huffman(1925-1999) è stato uno dei pionieri nel campo della Computer Science

Introduzione

Fornì significativi contributi in diversi ambiti di applicazione nella neonata e inesplorata Scienza degli elaboratori (macchine a stati finiti, switching circuit, signal models, compressione, …)

Egli sviluppò il metodo che porta il suo nome quando era ancora studente al MIT e lo pubblicò nel 1952 in un articolo intitolato “A Method for the Construction of Minimum-Redundancy Codes” Tale articolo iniziava con il seguente sommario, nel quale sono chiaramente dichiarate le esigenze che il metodo si propone di soddisfare e le sue caratteristiche salienti :

“An optimum method of coding an ensamble of messages consisting of a finite number of members is developed. A minimum-redundancy code is one constructed in such a way that the average number of coding digits per message is minimized.”

Page 3: I codici di Huffman

Borrelli A. – Chierchia E. 3

Un algoritmo di codifica è un algoritmo attraverso il quale si rappresenta l’informazione originale per mezzo di un nuovo alfabeto di simboli

Nozioni preliminari (1/3)

Un algoritmo di codifica deve essere sempre accompagnato da uno di decodifica affinché si possa ripristinare l’informazione originale a partire dall’alfabeto dei codici

Un algoritmo di codifica si dice di tipo lossless se non comporta nessuna perdita dell’informazione originale

Un algoritmo di codifica associato ad un simmetrico algoritmo di decodifica costituiscono un processo di codifica (codec)

I processi di codifica devono essere tali da soddisfare differenti requisiti a seconda del contesto nel quale sono inseriti , ad esempio:

Basso costo computazionale del processo di codifica Basso costo computazionale del processo di decodifica Protezione dell’informazione Integrazione al canale di comunicazione

Page 4: I codici di Huffman

Borrelli A. – Chierchia E. 4

Nozioni preliminari (2/3)

La codifica di Huffman viene utilizzata principalmente, ma non solo, come tipologia di algoritmo associata ad una riduzione della quantità di informazione da rappresentare, potenzialmente illimitata (compressione) in presenza di un canale di comunicazione con ovvi limiti fisici.

La codifica di Huffman appartiene alla classe delle codifiche dette entropiche essendo di tipo statistico, cioè basandosi sulla considerazione che le occorrenze di caratteri o gruppi di caratteri non sono sempre uguali. Si codificano i simboli più frequenti con parole codice più corte.

Page 5: I codici di Huffman

Borrelli A. – Chierchia E. 5

Nozioni preliminari (3/3)

Altre caratteristiche notevoli della Codifica di Huffman sono le seguenti :

Ottimalità del codice

Univoca decodificabilità

La lunghezza media delle parole codice prodotte è la più bassa rispetto ad ogni altra tecnica statistica di codifica. Ciò vuol dire che :Sia H(K) la lunghezza media delle parole codice prodotte dall’algoritmo di Huffman, non esiste nessun altro algoritmo in grado di produrre un codice L tale che

L(K)< H(K)

Il processo di decodifica è unico ed immediato. Il codice prodotto è prefisso ovvero nessuna parola del codice è il prefisso di un’altra parola del codice stesso, es.:

• Codice Prefisso A := {a,ba,bb}• Codice Non Prefisso A’:= {a,ab,bba}

Page 6: I codici di Huffman

Borrelli A. – Chierchia E. 6

Attualmente i codici di Huffmann vengono adoperati come back-end di altre tecniche di compressione più evolute e complesse quali ad esempio JPEG

La codifca di Huffman

Data la sua natura statistica, risulta evidente che tale tecnica di codifica risulterà tanto più efficiente quanto meno è uniforme la distribuzione delle frequenze dei simboli nell’alfabeto sorgente

La tecnica opera attraverso la creazione di alberi n-ari pesati sui simboli in ingresso producendo in output un unico albero n-ario di codifica. L’ arietàarietà dell’albero è la cardinalità dell’ alfabeto di codice considerato

Un albero n-ario pesato è un albero nel quale : Ad ogni nodo è associato un peso Ogni nodo interno ha esattamente n figli

Questo particolare albero n-ario è tale che: Ogni nodo ha peso uguale alla somma dei pesi degli n figli Quindi la radice ha come peso la somma dei pesi delle foglie (1 se alla foglia si associa come peso la probabilità di occorrenza del simbolo corrispondente)

Page 7: I codici di Huffman

Borrelli A. – Chierchia E. 7

A partire dalla precedente descrizione di albero pesato n-ario analizziamo i passi dell’algoritmo considerando alfabeti di codice (quindi alberi) binari:

L’ algoritmo (costruzione del codice)

Algoritmo :Algoritmo : Si ordinano i simboli dell’alfabeto in ordine non crescente di probabilità (o crescente di frequenza): si ottengono così n alberi pesati

Finché non si è ottenuto un unico albero allora Si selezionano sempre i due alberi A1 e A2 con peso più basso Si genera un nuovo albero la cui radice ha peso pari alla somma di A1 + A2

Si assegna 0 ad ogni arco sottendente un figlio sinistro, 1 altrimenti ( non cambia nulla se si agisce inversamente )

Output :Output :Codice Huffman H degli m simboli dell’alfabeto A in ingresso

Input :Input : Alfabeto sorgente A di m simboli Frequenza di ogni simbolo dell’alfabeto A considerato

Page 8: I codici di Huffman

Borrelli A. – Chierchia E. 8

Si itera finché non si è ottenuto un unico albero

Si ordinano i simboli dell’alfabeto in ordine crescente di frequenza: si ottengono così n alberi pesati

Consideriamo un semplice esempio per comprendere al meglio l’algoritmo precedentemente esposto

I codici di Huffman : 1° esempio di esecuzione

Supponiamo, per semplicità, di costruire sia l’alfabeto di simboli che le probabilità di occorrenza sul seguente testo :

Testo:= “Ballo Bello” Alfabeto di input :

B a l o e}{Σ:= , , , ,

F(i)i

2/10

1/10

4/10

2/10

1/10a1

e1

B2

o2

l4

2

4

6

100

0

0

1

1

1

1

0000 0001 001 01 1Codice

00100001101 00100011101codifica B a ll o B e ll o

B

a

l

o

e

0

Si selezionano i duealberi a ed e con peso più basso : nuovo nodo radice con peso pari alla somma di a + e

Si assegna 0 ad ogni arco sottendente un figlio sinistro, 1 altrimenti

Page 9: I codici di Huffman

Borrelli A. – Chierchia E. 9

1° esempio di esecuzione : Tabella di Huffman

Alfabeto di input Codice

B 001

a 0000

l 1

o 01

e 0001

Page 10: I codici di Huffman

Borrelli A. – Chierchia E. 10

Un altro esempio interessante si può costruire quando la distribuzione delle occorrenze dei simboli è abbastanza unfiorme : in tal caso i simboli avranno quasi tutti la stessa lunghezza, dunque l’efficienza intesa come dimensione dell’ informazione codificata da trasmettere ne risente

I codici di Huffman : 2° esempio di esecuzione

Testo:= “Oggi studio” Alfabeto di input :

O g i s t }{Σ:= , , , ,

F(i)i

2/10

2/10

2/10

1/10

1/10

S1

t1

u1

d1

o2

2

4

10

0

0

0

1

1

1

000 001 010 011 100

u, d

O

g

i

s

t

ud

1/10

1/10

g2

i2

2 4

6

01

0 1 0 1

101 11

Codice

10010110111codifica

00000101001111100 O g g i S t u d i o

Page 11: I codici di Huffman

Borrelli A. – Chierchia E. 11

2° esempio di esecuzione : Tabella di Huffman

Alfabeto di input Codice

o 100

g 101

i 11

s 000

t 001

u 010

d 011

Page 12: I codici di Huffman

Borrelli A. – Chierchia E. 12

I codici di Huffman : confronto tra i due esempi

1. Esempio :

- 5 elementi codice generati : [001,0000,1,01,0001]

- totale = 14 bits

- Lunghezza media = 14 / 5 = 2,8 bits

2. Esempio : - 7 elementi codice generati:[100,101,11,000,001,010,011]

- totale = 20 bits

- Lunghezza media = 20 / 7 = 2,86 bits

L’esempio illustra il fatto che la lunghezza media dei simboli nell’alfabeto codice è maggiore per un alfabeto sorgente avente distribuzione uniforme delle occorrenze e minore per un alfabeto sorgente avente distribuzione non Uniforme.

“Ballo Bello” = 00100001101 00100011101

“Oggi studio” = 10010110111 0000010100111110

Page 13: I codici di Huffman

Borrelli A. – Chierchia E. 13

“Elements of Information Theory”,cap. 5,pp.92-101.

Thomas M.Cover, Joy A. Thomas

A Wiley – Interscience Publication,John Wiley & Sons,Inc

Bibliografia

A method for the construction of minimum redundancy codes

Huffman D.A.

In proceedings IRE,vol 40,1952, pp 1098-1101.