Tecniche Video

118
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Fri, 06 Nov 2009 12:17:36 UTC Tecniche di Video Digitale

Transcript of Tecniche Video

Page 1: Tecniche Video

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].PDF generated at: Fri, 06 Nov 2009 12:17:36 UTC

Tecniche di Video Digitale

Page 2: Tecniche Video

IndiceVociIntroduzione - Luce e colore 1

Luce 1Colore 6Spazio dei colori 11Temperatura di colore 15RGB 16CMYK 18Hue Saturation Brightness 20

Grafica Digitale 21

Grafica raster 21Pixel 23Risoluzione (grafica) 26Risoluzioni standard 27Immagine digitale 33Compressione dei dati 35Compressione dati lossy 36Compressione dati lossless 37Joint Photographic Experts Group 41Portable Network Graphics 44

Formati del video digitale 46

Video 46Video digitale 55Compressione video digitale 58Sottocampionamento della crominanza 61Video a componenti 67Video composito 68Formato contenitore 71Velocità di trasmissione 72Codec video 74Contenitore multimediale 75Audio Video Interleave 75

Page 3: Tecniche Video

Matroska 77MPEG- 4 79MOV (formato di file) 81Ogg 83Theora 86

Audio Digitale 88

Compressione audio digitale 88MP3 90

Diffusione del Video Digitale 96

HDTV 96DVD 105

NoteFonti e autori delle voci 111Fonti, licenze e autori delle immagini 113

Licenze della voceLicenza 115

Page 4: Tecniche Video

1

Introduzione - Luce e colore

Luce

Un prisma scompone la luce

Il termine luce (dal latino, lux, lucis) siriferisce alla porzione dello spettroelettromagnetico visibile dall'occhio umano,ed è approssimativamente compresa tra 400e 700 nanometri di lunghezza d'onda,ovvero tra 750 e 428 THz di frequenza.Questo intervallo coincide con la regione dimassima emissione da parte del sole. I limitidello spettro visibile all'occhio umano nonsono uguali per tutte le persone, ma varianosoggettivamente e possono raggiungere i730 nanometri, avvicinandosi agli infrarossi, e i 380 nanometri avvicinandosi agli ultravioletti. La presenzacontemporanea di raggi di tutte le lunghezze d'onda visibili forma la luce bianca.

La luce, come tutte le onde elettromagnetiche, interagisce con la materia. I fenomeni più comuni osservabili sono:l'assorbimento, la trasmissione, la riflessione, la rifrazione e la diffrazione.Sebbene nell'elettromagnetismo classico la luce sia descritta come un'onda, l'avvento della meccanica quantistica agliinizi del XX secolo ha permesso di capire che questa possiede anche proprietà tipiche delle particelle e di spiegarefenomeni come l'effetto Compton. Nella fisica moderna la luce (e tutta la radiazione elettromagnetica) viene descrittacome composta da quanti del campo elettromagnetico chiamati fotoni.

Fasci di luce solare che filtrano tra le nubi

Teorie sulla luce

Molteplici sono state le teorie formulate, nelcorso del tempo, per spiegare il fenomenoluminoso ed i comportamenti della luce.

Teoria corpuscolare

Formulata da Isaac Newton nel XVII secolo.La luce veniva vista come composta dapiccole particelle di materia (corpuscoli)emesse in tutte le direzioni. Oltre che esserematematicamente molto più semplice dellateoria ondulatoria, questa teoria spiegavamolto facilmente alcune caratteristiche dellapropagazione della luce che erano ben noteall'epoca di Newton.

Page 5: Tecniche Video

Luce 2

Innanzitutto la meccanica galileiana prevede,correttamente, che le particelle (inclusi i corpuscoli diluce) si propaghino in linea retta ed il fatto che questifossero previsti essere molto leggeri era coerente conuna velocità della luce alta ma non infinita. Anche ilfenomeno della riflessione poteva essere spiegato inmaniera semplice tramite l'urto elastico della particelladi luce sulla superficie riflettente.

La spiegazione della rifrazione era leggermente piùcomplicata ma tutt'altro che impossibile: bastava infattipensare che le particelle incidenti sul materialerifrangente subissero, ad opera di questo, delle forzeperpendicolari alla superficie che ne cambiassero latraiettoria.

I colori dell'arcobaleno venivano spiegati tramitel'introduzione di un gran numero di corpuscoli di lucediversi (uno per ogni colore) ed il bianco era pensato come formato da tante di queste particelle. La separazione deicolori ad opera, ad esempio, di un prisma poneva qualche problema teorico in più perché le particelle di lucedovrebbero avere proprietà identiche nel vuoto ma diverse all'interno della materia.

Una conseguenza della teoria corpuscolare della luce è che questa, per via dell'accelerazione gravitazionale, aumentila sua velocità quando si propaga all'interno di un mezzo.

Teoria ondulatoriaFormulata da Christiaan Huygens nel 1678 ma pubblicata solo nel 1690 nel Traité de la Lumière. La luce venivavista come un'onda che si propaga (in maniera del tutto simile alle onde del mare o a quelle acustiche) in un mezzo,chiamato etere, che si supponeva pervadere tutto l'universo ed essere formato da microscopiche particelle elastiche.La teoria ondulatoria della luce permetteva di spiegare (anche se in maniera matematicamente complessa) un grannumero di fenomeni: oltre alla riflessione ed alla rifrazione, Huygens riuscì infatti a spiegare anche il fenomeno dellabirifrangenza nei cristalli di calcite.Nel 1801 Thomas Young dimostrò come i fenomeni della diffrazione (osservato per la prima volta Francesco MariaGrimaldi nel 1665) e dell'interferenza fossero interamente spiegabili dalla teoria ondulatoria e non lo fossero dallateoria corpuscolare. Agli stessi risultati arrivò Augustin-Jean Fresnel nel 1815. Nel 1814 Joseph von Fraunhofer fu ilprimo ad investigare seriamente sulle righe di assorbimento nello spettro del Sole, che vennero esaurientementespiegate da Kirchhoff e da Bunsen nel 1859, con l'invenzione dello spettroscopio. Le righe sono ancora oggichiamate linee di Fraunhofer in suo onore.Un problema della teoria ondulatoria era tuttavia la propagazione rettilinea della luce. Infatti era ben noto che le ondesono capaci di aggirare gli ostacoli mentre è esperienza comune che la luce si propaghi in linea retta (questaproprietà era già stata notata da Euclide nel suo Optica). Questa apparente incongruenza può però essere spiegataassumendo che la luce abbia una lunghezza d'onda microscopica.Al contrario della teoria corpuscolare, quella ondulatoria prevede che la luce si propaghi più lentamente all'interno diun mezzo che nel vuoto; restano ambiguità.

Page 6: Tecniche Video

Luce 3

Teoria elettromagneticaPer la grandissima maggioranza delle applicazioni questa teoria è ancora utilizzata al giorno d'oggi. Proposta daJames Clerk Maxwell alla fine del XIX secolo, sostiene che le onde luminose sono elettromagnetiche e nonnecessitano di un mezzo per la trasmissione, mostra che la luce visibile è una parte dello spettro elettromagnetico.Con la formulazione delle equazioni di Maxwell vennero completamente unificati i fenomeni elettrici, magnetici edottici.

Teoria quantisticaPer risolvere alcuni problemi sulla trattazione del corpo nero nel 1900 Max Planck ideò un artificio matematico,pensò che l'energia associata ad una onda elettromagnetica non fosse proporzionale al quadrato della sua ampiezza(come nel caso delle onde elastiche in meccanica classica), ma direttamente proporzionale alla frequenza e che la suacostante di proporzionalità fosse discreta e non continua.L'interpretazione successiva che Albert Einstein diede dell'effetto fotoelettrico incanalò il pensiero dei suoicontemporanei verso una nuova strada. Si cominciò a pensare che quanto fatto da Planck non fosse un mero artificiomatematico, ma piuttosto l'interpretazione di una nuova struttura fisica, cioè che la natura della luce potesse avere unqualche rapporto con una forma discreta di alcune sue proprietà. Si cominciò a parlare di pacchetti discreti dienergia, battezzati fotoni. Con l'avvento delle teorie quantistiche dei campi (ed in particolare dell'elettrodinamicaquantistica) il concetto di fotone venne formalizzato ed oggi sta alla base dell'ottica quantistica.

La velocità della luceLa luce si propaga a una velocità finita. Anche gli osservatori in movimento misurano sempre lo stesso valore di c, lavelocità della luce nel vuoto, dove c = 299 792 458 m/s. Nell'uso comune, questo valore viene arrotondato a 300 000km/s.La velocità della luce è stata misurata molte volte da numerosi fisici. Il primo tentativo di misura venne compiuto daGalileo Galilei con l'ausilio di lampade oscurabili ma la rudimentalità dei mezzi disponibili non permise di ottenerealcun valore. La migliore tra le prime misurazioni venne eseguita da Olaus Roemer (un fisico danese), nel 1676. Eglisviluppò un metodo di misurazione, osservando Giove e una delle sue lune con un telescopio. Grazie al fatto che laluna veniva eclissata da Giove a intervalli regolari, calcolò il periodo di rivoluzione della luna in 42,5 ore, quando laTerra era vicina a Giove. Il fatto che il periodo di rivoluzione si allungasse quando la distanza tra Giove e Terraaumentava, poteva essere spiegato assumendo che la luce impiegava più tempo a coprire la distanza Terra-Giove,ipotizzando quindi, una velocità finita per essa. La velocità della luce venne calcolata analizzando la distanza tra idue pianeti in tempi differenti. Roemer calcolò una velocità di 227 326 km/s.Albert A. Michelson migliorò il lavoro di Roemer nel 1926. Usando uno specchio rotante, misurò il tempo impiegatodalla luce per percorrere il viaggio di andata e ritorno dal monte Wilson al monte San Antonio in California. Lamisura precisa portò a una velocità di 299 796 km/s.Questo esperimento in realtà misurò la velocità della luce nell'aria. Infatti, quando la luce passa attraverso unasostanza trasparente, come l'aria, l'acqua o il vetro, la sua velocità c si riduce a v=c/n (dove n è il valore dell'indice dirifrazione del mezzo) ed è sottoposta a rifrazione. In altre parole, n = 1 nel vuoto e n > 1 nella materia. L'indice dirifrazione dell'aria di fatto è molto vicino a 1, e in effetti la misura di Michelson è un'ottima approssimazione di c.

Page 7: Tecniche Video

Luce 4

OtticaLo studio della luce e dell'interazione tra luce e materia è detto ottica. L'osservazione e lo studio dei fenomeni ottici,come ad esempio l'arcobaleno offre molti indizi sulla natura della luce.

Colori e lunghezze d'ondaLe differenti lunghezze d'onda vengono interpretate dal cervello come colori, che vanno dal rosso delle lunghezzed'onda più ampie (minore frequenza), al violetto delle lunghezze d'onda più brevi (maggiore frequenza). Ci preme,tuttavia sottolineare, che non a tutti i colori possiamo associare una lunghezza d'onda. Spesso questo aspetto nonviene sottolineato e si diffonde l'errata convinzione, inconsapevolmente foraggiata anche da immagini come quellepresenti in codesta pagina, che ci sia una relazione biettiva tra un colore e una lunghezza d'onda. In realtà, è vero chead ogni lunghezza d'onda è associabile un → colore, ma non è vero il contrario. Quei colori a cui non sono associatelunghezze d'onda, sono invece generati dal meccanismo di funzionamento del nostro apparato visivo(cervello+occhio). In particolare i coni, cellule della retina responsabili della visione del colore, si differenziano intre tipi perché sensibili a tre diverse regioni spettrali della luce. Quando, ad esempio, due diverse ondemonocromatiche, appartenenti a due regioni diverse di cui prima, sollecitano contemporaneamente l'occhio, il nostrocervello interpreta la sollecitazione come un nuovo colore, "somma" dei due originari.Le frequenze immediatamente al di fuori dello spettro percettibile dall'occhio umano vengono chiamate ultravioletto(UV), per le alte frequenze, e infrarosso (IR) per le basse. Anche se gli esseri umani non possono vedere l'infrarosso,esso viene percepito dai recettori della pelle come calore. Telecamere in grado di captare i raggi infrarossi econvertirli in luce visibile, vengono chiamati visori notturni. La radiazione ultravioletta non viene percepita dagliesseri umani, se non in maniera molto indiretta, in quanto la sovraesposizione della pelle ai raggi UV causascottature. Alcuni animali, come le api, riescono a vedere gli ultravioletti; altri invece riescono a vedere gliinfrarossi.

Lunghezze d'onda della luce visibile

La luce visibile è una porzione dello spettro elettromagnetico compresa approssimativamente tra i 400 e i 700nanometri (nm) (nell'aria). La luce è anche caratterizzata dalla sua frequenza. Frequenza e lunghezza d'ondaobbediscono alla seguente relazione: l=v/f (dove l è la lunghezza d'onda, v è la velocità nel mezzo considerato - nelvuoto in genere si indica con c - , f è la frequenza della radiazione).

Page 8: Tecniche Video

Luce 5

Grandezze misurabiliDi seguito sono riportate quantità o unità di misura legate a fenomeni luminosi:• Tonalità (o → temperatura)• luminosità• illuminamento (unità SI: lux)• flusso luminoso (unità SI: lumen)• intensità luminosa (unità SI: candela)

Sorgenti di luce• Radiazione termica

• Lampade ad incandescenza• Luce solare• fuoco• Qualsiasi corpo ad di sopra di una certa temperatura (cioè incandescente, ad es. metallo fuso)

• Emissione spettrale atomica (la fonte di emissione può essere stimolata o spontanea)• Laser e Maser (emissione stimolata)• LED (light emitting diode)• lampade a scarica di gas (insegne al neon, lampade al mercurio, etc)• Fiamme dei gas

• Accelerazione di una particella dotata di carica (solitamente un elettrone)• Radiazione ciclotronica• Bremsstrahlung• Effetto Čerenkov• luce di sincrotrone

• chemioluminescenza• fluorescenza• fosforescenza

• tubo catodico• bioluminescenza• sonoluminescenza• triboluminescenza• radioattività• annichilazione particella-antiparticella

Altri progetti

• Wikimedia Commons contiene file multimediali su luce• Wikiquote contiene citazioni riguardanti la luce• Wikizionario contiene la voce di dizionario «luce»

Spettro elettromagnetico(Ordinato in base alla frequenza, ordine crescente)

Onde radio | Microonde | Radiazione terahertz | Infrarosso | Luce visibile | Ultravioletto | Raggi X | Raggi gamma

Page 9: Tecniche Video

Luce 6

Spettro delle onde radio

ELF SLF ULF VLF LF MF HF VHF UHF SHF EHF

3 Hz 30 Hz 300Hz

3 kHz 30 kHz 300kHz

3 MHz 30 MHz 300MHz

3 GHz 30 GHz

30Hz

300Hz

3 kHz 30kHz

300kHz

3 MHz 30MHz

300MHz

3 GHz 30GHz

300GHz

Spettro visibile: Rosso | Arancione | Giallo | Verde | Ciano | Blu | Violetto

ckb:کشیت mwl:Lhuç

Colore

Matite colorate, rappresentano alcuni colori

Il colore è la percezione visiva generata daisegnali nervosi che i fotorecettori dellaretina mandano al cervello quandoassorbono radiazioni elettromagnetiche dideterminate lunghezze d'onda e intensità.

Percezione del colore

Spettro ottico (progettato per monitor con gamma 1.5).

Page 10: Tecniche Video

Colore 7

I colori dello spettro di luce visibile

colore intervallo di lunghezzad'onda

intervallo di frequenza

rosso ~ 700–630 nm ~ 430–480 THz

arancione ~ 630–590 nm ~ 480–510 THz

giallo ~ 590–560 nm ~ 510–540 THz

verde ~ 560–490 nm ~ 540–610 THz

blu ~ 490–450 nm ~ 610–670 THz

viola ~ 450–400 nm ~ 670–750 THz

La formazione della percezione del colore avviene in tre fasi:1. Nella prima fase un gruppo di fotoni (stimolo visivo) arriva all’occhio, attraversa cornea, umore acqueo, pupilla,

cristallino, umore vitreo e raggiunge i fotorecettori della retina (bastoncelli e coni), dai quali viene assorbito.Come risultato dell’assorbimento, i fotorecettori generano (in un processo detto trasduzione) tre segnali nervosi,che sono segnali elettrici in modulazione di ampiezza.

2. La seconda fase avviene ancora a livello retinico e consiste nella elaborazione e compressione dei tre segnalinervosi, e termina con la creazione dei segnali opponenti, segnali elettrici in modulazione di frequenza, e la lorotrasmissione al cervello lungo il nervo ottico.

3. La terza fase consiste nell’interpretazione dei segnali opponenti da parte del cervello e nella percezione delcolore.

Prima faseNella prima fase una sorgente luminosa emette un flusso di fotoni di diversa frequenza. Questo flusso di fotoni può:1. arrivare direttamente all'occhio:2. essere riflesso da un corpo che ne assorbe alcuni e ne riflette altri:3. essere trasmesso da un corpo trasparente che ne assorbe alcuni e riflette altri.In ogni caso i fotoni che giungono all'occhio costituiscono lo stimolo di colore. Ogni singolo fotone attraversa lacornea, l'umore acqueo, la pupilla, il cristallino, l'umore vitreo e raggiunge uno dei fotorecettori della retina (unbastoncello, oppure un cono L, un cono M o un cono S) dal quale può essere o non essere assorbito. La probabilitàche un tipo di fotorecettore assorba un fotone dipende dal tipo di fotorecettore e dalla frequenza del fotone.Come risultato dell'assorbimento ogni fotorecettore genera un segnale elettrico in modulazione di ampiezza,proporzionale al numeri di fotoni assorbiti. Gli esperimenti mostrano che i segnali generati dai tre coni L, M e S sonodirettamente collegati con la sensazione di colore, e sono detti segnali di tristimolo.

Page 11: Tecniche Video

Colore 8

Seconda faseNella seconda fase i segnali di tristimolo vengono elaborati e compressi con modalità non ancora completamentenote. Questa elaborazione avviene nella altre cellule della retina (cellule orizzontali, bipolari e gangliari) e terminacon la generazione di altri tre segnali elettrici, questa volta in modulazione di frequenza, che sono chiamati segnaliopponenti e vengono trasmessi al cervello lungo il nervo ottico.

Terza faseI segnali chimici opponenti che lungo i due nervi ottici (che sono costituiti dagli assoni delle cellule gangliari)raggiungono il cervello arrivano nei cosiddetti corpi genicolati laterali, che costituiscono una stazione intermedia peri segnali, che da qui vengono proiettati in apposite aree della corteccia visiva, dove nasce la percezione del colore.

Terminologia del Colore

Variopinto mercato a Karachi.

Berlin e Kay studiarono il numero di nomidedicati ai colori nelle diverse culturestabilendo che si può passare da un minimodi 2, chiaro e scuro ad un massimo di 11.Dimostrarono inoltre che man mano che siprocede con la definizione di più colori losviluppo è omogeneo in tutte le culture, adesempio dopo il chiaro e lo scuro si indicacome colore il rosso, poi il verde e il giallo ecosì via fino a giungere all'arancione che è ilcolore definito in meno culture. La teoria deidue antropologi era che il numero di coloridipendesse dalla complessità della cultura,ma questa teoria venne criticata in quantoessi non consideravano che alla percezionicolore erano legate delle sensazioni emotivee quindi la percezione del colore è legata alla cultura stessa. Al termine si lega quindi una connotazione, un alone disignificati a seconda del contesto. Inoltre alcuni colori non vengono definiti se non associandoli al colore di unelemento naturale (es. "verde" diviene "foglia") così come accade quando noi definiamo un rosso come "ruggine".Nella cultura orientale "i colori sono inebrianti, magnifici; ma le forme sono meschine e brutte, volutamentemeschine e brutte, e cattive". La cultura occidentale precristiana era invece molto attenta alla forma e all'uso, mapoverissima di colore: in greco antico e in latino le poche parole che definiscono un colore si riferiscono in realtà alsuo grado di opacità, oppure sono associate a un elemento naturale. Addirittura, le sculture e le pitture eranocompiute con colori eccessivamente sgargianti ai nostri occhi, ma sotto-percepiti come normali dagli antichi greci.Solo con l'avvento del vangelo avviene l'integrazione della forma e del colore; tuttavia, vi sono zone, quali l'Europasettentrionale, in cui il cristianesimo si diffonde solo in forma idealistica, che mantengono perciò un forte squilibrio afavore della forma, determinato dal substrato germanico.

Page 12: Tecniche Video

Colore 9

Contrasti cromaticiI contrasti cromatici si producono tramite l'accostamento di due o più colori diversi tra loro.

Contrasto tra colori puriIl contrasto tra colori puri si produce tramite l'accostamento di Colori primari.

Contrasto tra colori complementariIl contrasto tra colori complementari si ottiene tramite l'accostamento di un colore primario e del colore risultantedall'unione degli altri due primari rimasti, tali contrasti sono: giallo-viola, rosso-verde, blu-arancione.

Contrasto di quantitàOgni tinta presenta un diverso grado di luminosità, per cui se vogliamo creare un equilibrio percettivo è necessariostendere in modo molto proporzionale le varie zone di colore, ad esempio un colore molto luminoso dovrà occupareun'area minore rispetto a un colore con un minore grado di luminosità.

Studio del coloreDa quanto sopra si evince che lo studio del colore riguarda più discipline:• la fisica, in particolare l'ottica per tutto ciò che avviene all'esterno del sistema visivo• la fisiologia, per quanto riguarda il funzionamento dell'occhio e la generazione, elaborazione, codifica e

trasmissione dei segnali nervosi dalla retina al cervello• la psicologia per quanto riguarda l'interpretazione dei segnali nervosi e la percezione del colore. Se ne interessò in

particolare Kristian Birch-Reichenwald Aars filosofo e psicologo nervegese.ma coinvolge anche:• la psicofisica che studia la relazione tra lo stimolo e la risposta del sistema visivo (la colorimetria è una parte della

psicofisica)• la matematica necessaria per lo sviluppo di modelli rappresentativi della visione del colore

Voci correlate• Associazione Internazionale del Colore• Basic design• Colori primari• Colorimetria• → CMYK• Cromoforo• Cromoterapia• Lista dei colori• → Luce• Mescolanza additiva• Mescolanza sottrattiva• Metamerismo• Pantone• Rappresentazione dei colori• Sistema NCS• → Spazio dei colori

Page 13: Tecniche Video

Colore 10

• Stimolo di colore

Bibliografia• G. Wyszecki, W.S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae Wiley 1982

(II ed.)• C. Oleari (a cura di): Misurare il colore Hoepli 1998• R.W.G. Hunt: "Measuring Color" Fountain Press 1998 (III ed.)• G.A. Agoston: Color Theory and Its Application in Art and Design Springer 1987 (II ed.)• D.B. Judd, G. Wyszecki: Color in Business, Science, and Industry Wiley 1975 (III ed.)• M.D. Fairchild: Color Appearance Models Addison Wesley 1998• CIE: International Lighting Vocabulary 1970 (III ed.)• J.W. von Goethe: ''"La teoria dei colori. Lineamenti di una teoria dei colori", a cura di Renato Troncon, Il

Saggiatore 1981

Altri progetti

• Wikimedia Commons contiene file multimediali su colore• Wikizionario contiene la voce di dizionario «colore»• Wikiquote contiene citazioni sul colore

Collegamenti esterni• La psicologia dei colori [1]

• Un dizionario dei sinonimi dei colori [2]

• I principali schemi di colori [3]

Note[1] http:/ / www. lucacoladarci. it/ colori. htm[2] http:/ / www. communities. hp. com/ online/ blogs/ mostly_color/ archive/ 2008/ 07/ 30/ un-dizionario-dei-sinonimi-dei-colori. aspx[3] http:/ / computer-acquisti. com/ blog/ gli-schemi-di-colori-cosa-sono-e-come-usarli/

Page 14: Tecniche Video

Spazio dei colori 11

Spazio dei coloriUno spazio dei colori è la combinazione di un modello di colore e diuna appropriata funzione di mappatura di questo modello.

Un modello di colore, infatti, è un modello matematico astratto chedescrive un modo per rappresentare i colori come combinazioni dinumeri, tipicamente come tre o quattro valori detti componenti colore.Tuttavia questo modello è una rappresentazione astratta, per questo viene perfezionato da specifiche regole adatteall'utilizzo che se ne andrà a fare, creando uno spazio dei colori.

Così, ad esempio, spazi di colore come Adobe RGB e sRGB sono diversi, pur basandosi entrambi sullo stessomodello di colore → RGB.

Lo spazio dei colori dell'Osservatore standardNel 1931 la Commission Internationale de l'Eclairage (Commissione Internazionale per l'Illuminazione) definì unospazio di colore che comprendeva tutte le tinte visibili dall'occhio umano, a prescindere dalla luminanza. Infattiqualunque colore all'interno di questo spazio bidimensionale può avere una luminanza che varia dal bianco al nero ese si tiene conto anche di questo fattore (la luminanza) lo spazio così definito diviene tridimensionale e rappresentatomediante coordinate XYZ. Il modello CIE 1931 si basa, come altre codifiche note, sull'utilizzo di tre → coloriprimari che, opportunamente miscelati tra loro in sintesi additiva, permettevano di ottenere tutti i colori che l'occhioumano può percepire. La commissione CIE ha comunque definito diversi modelli matematici di percezione delcolore indicati come spazi di colore e rappresentati da sigle come XYZ (è il modello CIE 1931), xyY, Lab, Luv.A differenza, però, dei metodi → RGB o → CMYK (usati rispettivamente in sintesi additiva e in sottrattiva), ildiagramma di cromaticità proposto dalla CIE non dipendeva dal comportamento di questo o quel dispositivo divisualizzazione o stampa in quanto basato sul concetto di Osservatore Standard.Quest'ultimo è definito a partire dalle proprietà del sistema visivo dell'uomo e si basa su analisi sistematicheeffettuate su un vasto campione di osservatori umani. E in base a numerosi studi effettuati nel primo dopoguerra funotata l'impossibilità di riuscire a riprodurre per sintesi additiva tutti i colori comunque si scegliesse la terna diprimari reali da miscelare.Poiché può rappresentare tutte le tinte percepibili, lo spazio di colore del CIE è preso come riferimento per tutti glialtri, tuttavia nella pratica non viene molto usato a causa della sua complessità.

Page 15: Tecniche Video

Spazio dei colori 12

Primari immaginari

Esempio di uno spazio dei colori

Solo aggiungendo un colore primario alla tinta da codificare erapossibile individuare una terna cromatica che la riproducessefedelmente: fu ipotizzato così che la risposta dei fotorecettori retiniciumani (i coni) avesse un andamento negativo per alcune frequenzedello spettro visibile.

I primari scelti dalla CIE per generare tutti i colori visibili sono tinteipersature: colori (in realtà, non essendo visibili, non dovrebbero essereindicati come tali) più saturi di quanto i nostri fotorecettori retinicisiano in grado di decifrare.I tre "primari immaginari", con notevole sforzo di fantasia, sono statidenominati X, Y, e Z. X corrisponde a un rosso violaceo ipersaturocontraddistinto da due picchi nello spettro cromatico rispettivamenteintorno ai 450 nm e ai 600 nm (quest'ultimo molto superiore al primo),Y e Z corrispondono a tinte spettrali - sempre irrealisticamente ipersature - con lunghezza d'onda dominanterispettivamente di 520 e 477 nanometri.

Inoltre la tinta Y (quella corrispondente al "verde ipersaturo") ha un andamento proporzionale alla nostra sensibilitàalla luminosità delle tinte. Scelti i tre primari tramite i quali è possibile ottenere, per sintesi additiva, qualsiasi tintareale è possibile a questo punto utilizzare uno spazio tridimensionale, avente per assi i tre primari utilizzati, percatalogarle tutte.Per non ricorrere ad un diagramma tridimensionale è possibile normalizzare le tinte facendo in modo che la lorosomma sia sempre pari ad uno. Se X, Y, e Z sono i tre valori che identificano un colore, X+Y+Z la loro somma, e noiponiamo:x = X/(X+Y+Z)y = Y/(X+Y+Z)z = Z/(X+Y+Z)risulta, con semplici passaggi algebrici e stando attenti a minuscole e maiuscole, che x+y+z è sempre uguale ad 1 perqualsiasi valore originario di X, Y e Z. Da questo si ricava tra l'altro che:z = 1-x-yed è dunque possibile utilizzare due sole coordinate cromatiche (x e y, ad esempio) per identificare un colore essendola terza (z, in questo caso) ricavabile sottraendo all'unità le altre due. Il vantaggio è evidente: normalizzando i coloricol meccanismo della somma costante (uguale a 1) è possibile utilizzare un grafico bidimensionale per catalogarequalitativamente (e non quantitativamente) tutte le tinte reali.Ovvero si tracciano tutti i colori possibili ed immaginabili la cui intensità totale è costante e pari ad uno: tutte le altretinte sono ottenute semplicemente indicando, oltre ai valori x e y (il valore z si ottiene, come detto, dagli altri due) ilsuo grado di luminosità espresso, volendo, in forma percentuale.

Page 16: Tecniche Video

Spazio dei colori 13

Colori reali e irreali

Lo spazio dei colori CIE 1931

Tutti i colori (reali e irreali) generabilicon i primari x e y giacciono su untriangolo rettangolo avente comevertici l'origine (0,0) il punto massimodi x e minimo di y (1,0) e il puntomassimo di y e minimo di x (0,1).All'interno di questo triangolorettangolo è tracciato il diagrammaCIE dei colori reali: una campana cheracchiude tutte le tinte possibili. Al difuori della campana (ma sempreall'interno del triangolo) ci sono tutti icolori non visibili o non distinguibilida quelli presenti lungo il perimetroesterno. Il diagramma CIE gode,proprio per il modo in cui è statogenerato, di alcune importanticaratteristiche che andiamo ora adillustrare maggiormente in dettaglio.

Più o meno al centro del diagrammaCIE è presente un punto (un colore),come si vedrà tra breve, di importanza strategica, indicato con la lettera "C". È il cosiddetto "Illuminante CIE",assunto come riferimento e corrispondente alla radiazione emessa da una superficie bianca illuminata da luce diurnamedia. Lungo il perimetro curvo della campana si trovano tutte le tinte spettrali alla loro massima saturazione. Nellaparte alta del diagramma vivono le famiglie dei verdi; in basso a sinistra i blu, in basso a destra i rossi.

Sul segmento rettilineo che congiunge i due vertici inferiori della campana si trovano i colori non spettrali (oporpore) alla loro massima saturazione. Tutti i colori non spettrali, dalla saturazione via via decrescente, sono situatinel triangolo delimitato in basso dal segmento delle porpore e avente come vertice il punto C.

Colori spettraliLo stesso vale per i colori spettrali, situati nella rimanente parte del diagramma: man mano che ci si avvicinaall'illuminante C i colori sono sempre meno saturi. Per come è costruito il diagramma, prendendo due tinte qualsiasi,il segmento che le unisce rappresenta tutte le possibili mescolanze additive dei due colori prescelti. Non solo: laposizione relativa lungo il segmento di congiunzione rappresenta la percentuale di mescolanza delle tinte.Così nel baricentro del segmento è possibile trovare la tinta esattamente formata dal 50% del primo colore e dal 50%del secondo colore. Spostandosi ad esempio ai "tre quarti" del segmento, la tinta individuata corrisponde alla sommadel 75% del primo colore e del 25% del secondo colore e così via.Lo stesso discorso vale per la sintesi additiva di tre o più componenti cromatiche: le tinte ottenibili dalla loromescolanza sono tutte quelle delimitate dal poligono convesso che ha come vertici i punti del diagramma checorrispondono ai colori utilizzati. Tornando al caso di due sole tinte, se il segmento che le unisce passa per il punto Ci colori presi in considerazione sono tra loro complementari. Se il punto C "cade" nel baricentro del segmento, le duetinte hanno la medesima saturazione (è uguale la loro distanza dall'illuminante CIE) e sommandole tra di loro siottiene il colore bianco.

Page 17: Tecniche Video

Spazio dei colori 14

Mescolanze sottrattiveIl diagramma di cromaticità CIE può essere utilizzato, prendendo le dovute precauzioni, anche per le mescolanzesottrattive (come avviene per la stampa). I colori ottenuti dalla mescolanza sottrattiva di due tinte non giacciono sulsegmento rettilineo che li unisce ma lungo un segmento curvilineo del quale non è nota a priori la forma esatta. Pertracciare la curva (il luogo dei punti corrispondenti ai colori ottenibili dalla sintesi sottrattiva dei due colori) ènecessario "campionare" alcune mescolanze tipiche (ad esempio 10%-90%, 20%-80%, 30%-70%, ecc. ecc.) edinterpolare così l'andamento complessivo.Da segnalare due cose interessanti. Innanzitutto, proprio per la forma a campana di quest'ultimo, comunquescegliamo i tre primari all'interno dei colori reali non riusciremo mai a riprodurre con essi tutte le tinte ma neescluderemo sempre una certa quantità. Dunque si può dire che non esistono monitor RGB in grado di riprodurretutto il riproducibile o scanner a colori altrettanto sensibili. La seconda considerazione riguarda lo spazio cromaticodella stampa a colori, ridotto rispetto allo spazio RGB ma leggermente più accurato per quel che riguarda la stampadelle tinte azzurro ciano.Se un colore appartiene al perimetro esterno è, come già detto, al suo massimo grado di purezza, se cade all'internodel diagramma ha come saturazione la distanza relativa la tinta e il punto C, misurata lungo il segmento passante peril colore e congiungente il bianco col bordo esterno. Il punto in cui il prolungamento del segmento incontra ilperimetro identifica la lunghezza d'onda dominante della tinta considerata.

Altri spazi di colore• Basati sul modello → RGB:

• Adobe RGB• sRGB• ISO RGB e Extended ISO RGB• Apple RGB

• Studiati per la televisione• Y'UV, utilizzato per PAL e recentemente per NTSC• YIQ, storicamente utilizzato per NTSC• YDbDr, utilizzato per il SECAM

• Studiato per la stampa• → CMYK

• HSV• HSL

Voci correlate• ColorSync• Colorimetria

Page 18: Tecniche Video

Temperatura di colore 15

Temperatura di coloreTemperatura di → colore è un termine usato in illuminotecnica per quantificare la tonalità della → luce, che simisura in kelvin.

DefinizioneIl termine deriva dal fatto che lo spettro luminoso emesso da un corpo nero presenta un picco di emissionedeterminato in base alla legge di Wien esclusivamente dalla sua temperatura. Una sorgente reale differisce da uncorpo nero ideale ma l'analogia rimane valida.Una temperatura bassa (sempre però nell'incandescenza, intorno ai 2000 K) corrisponde ad un colore giallo-arancio.Scendendo si passa al rosso ed all'infrarosso, non più visibile, mentre salendo di temperatura la luce si fa dapprimapiù bianca, quindi azzurra, violetta ed ultravioletta. Quando comunemente si dice che una luce è calda, in realtàquesta corrisponde ad una temperatura di colore bassa, viceversa un temperatura maggiore produce una luce definitacomunemente fredda.

Si noti che ha senso parlare di temperatura di colore solo se la sorgente di luce emette uno spettro di energiacontinuo. Questo non si verifica però per tutte le sorgenti luminose.

DeterminazioneUn corpo solido riscaldato all'incandescenza emette prevalentemente nella gamma della luce visibile, ma lalunghezza d'onda del picco di emissione varia al variare della temperatura. Nelle normali lampade ad incandescenzala lunghezza d'onda è spostata verso valori maggiori e la luce prodotta, intorno ad un valore di 2800 K presenta unacomponente gialla. Nelle lampade alogene si riesce ad aumentare la temperatura del filamento ottenendo una lucepiù bianca, intorno ad un valore di 3200 K.Nelle lampade a scarica il colore è determinato dallo spettro di emissione del gas alla pressione a cui si trova. Nellelampade fluorescenti , che sono anch'esse lampade a scarica ma che producono luce attraverso un procedimentoelettrochimico diverso, dove cioè la vera e propria scarica elettrica provoca l'eccitazione, e perciò la luminescenza,delle polveri fluorescenti depositate uniformemente all'interno della lampada stessa, la tonalità della luce dipendedalla scelta del materiale fluorescente utilizzato (per questo si possono avere lampade a fluorescenza di coloridifferenti. Si noti che il fenomeno della fluorescenza differisce da quello della fosforescenza, in quanto nel primocaso, al cessare dell'eccitazione causante la luminescenza, l'emissione di luce è pressoché istantanea, nel secondocaso può durare a lungo. Ricordiamo, inoltre, che le lampade appartenenti alla categoria delle fluorescenti non hanulla a che fare con le lampade al neon, usate in prevalenza per le insegne commerciali .Spesso sono riportate le temperature di → colore del bianco dei monitor per PC, siano essi di tipo CRT, LCD o alplasma, ma questa temperatura, in realtà, non avrebbe senso, in quanto tale bianco è prodotto per metamerismo dallasomma dei colori fondamentali (Red, Green e Blue) prodotti dai diversi fosfori.

Page 19: Tecniche Video

Temperatura di colore 16

EsempiQui di seguito sono riportate le temperature di colore di alcune sorgenti di luce comuni:• Luce solare a mezzogiorno: 5 400 K• Luce del cielo: da 10 000 a 18 000 K• Lampada Photoflood da 500 W per uso fotografico: 3 400 K• Lampada da 100 W per uso generale: 2 900 K• Lampada da 40 W per uso generale: 2 650 K

Voci correlate• Metamerismo

RGB

Miscelazione additiva

RGB è il nome di un modello di colori le cui specifiche sono state descrittenel 1931 dalla CIE (Commission internationale de l'éclairage). Tale modellodi colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) eblu (Blue), da cui appunto il nome RGB, da non confondere con i coloriprimari sottrattivi giallo, ciano e magenta (popolarmente chiamati anchegiallo, rosso e blu). Un'immagine può infatti essere scomposta, attraversofiltri o altre tecniche, in questi colori base che, miscelati tra loro, danno quasitutto lo spettro dei colori visibili, con l'eccezione delle porpore.

Più specificamente i 3 colori principali corrispondo a forme d'onda(radiazioni luminose) di periodo fissato. A una lunghezza d'onda di 700 nmcorrisponde il rosso, a 546.1 nm il verde, a 455.8 nm il blu.L'RGB è un modello additivo: unendo i tre colori con la loro intensità massima si ottiene il bianco (tutta la luce vieneriflessa). La combinazione delle coppie di colori dà il cìano, il magenta e il giallo.

Tricromia additiva RGB di un'immagine reale

Per poter trasferire un'immagine videoè necessario inviare anche un segnaledi sincronismo che fornisca leinformazioni su quando iniziaun'immagine (sincronismo verticale)e su quando inizia una rigadell'immagine (sincronismoorizzontale). Questi due sincronismi possono essere combinati in un unico sincronismo (sincronismo composito)

Page 20: Tecniche Video

RGB 17

Principi fisici per la scelta del rosso, verde e bluLa scelta dei colori primari è correlata alla fisiologia dell'occhio umano; buoni primari sono stimoli chemassimizzano la differenza tra le risposte delle cellule cono della retina alle differenze di lunghezza d'onda dellaluce, cioè hanno un triangolo di colore esteso.[1]

I tre tipi normali di cellule fotorecettive sensibili alla luce nell'occhio umano (le cellule cono) rispondono più allaluce gialla (lunghezza d'onda lunga), verde (media), e viola (corta), con picchi vicini ai 570 nm, 540 nm e 440 nm,rispettivamente[1] . La differenza nei segnali ricevuti dai tre tipi permette al cervello di differenziare un largo gamutdi colori diversi, essendo più sensibile soprattutto alla luce verde-giallognola e alle differenze di tonalità nellaregione verde-arancione.L'uso dei tre colori primari non è sufficiente a riprodurre tutti i colori; solo i colori entro il triangolo dei coloridefinito dalla cromaticità dei primari può essere riprodotto tramite sintesi additiva di quantità non negative di talicolori.[1]

RGsBQuando su un'interfaccia video si trasmette il colore RGB con tre canali solamente il sincronismo composito vieneposto sul verde (G). Questa modalità si chiama RGsB.

RGBSQuando su un'interfaccia video si trasmette il colore RGB con quattro canali, il quarto è utilizzato per il sincronismocomposito. Questa modalità si chiama RGBS utilizzata ad esempio su un'interfaccia SCART.

RGBHVQuando su un'interfaccia video si trasmette il colore RGB con cinque canali, il quarto è utilizzato per il sincronismoorizzontale (H) e il quinto per il sincronismo verticale (V). Questa modalità si chiama RGBHV utilizzata ad esempiosu un'interfaccia Video Graphics Array o Digital Visual Interface.

Voci correlate• Colorimetria• → CMYK• Sintesi additiva• Sintesi sottrattiva• YUV• RGBA

Page 21: Tecniche Video

RGB 18

Collegamenti esterni• [2] (pagina che consente di sperimentare l'effetto della sovrapposizione dei colori base, visualizzando l'effetto

della sintesi additiva e della sintesi sottrattiva)

Note[1] R. W. G. Hunt, The Reproduction of Colour, 6th ed., Chichester UK, Wiley – IS&T Series in Imaging Science and Technology, 2004. ISBN

0-470-02425-9[2] http:/ / ww2. unime. it/ dipart/ i_fismed/ wbt/ ita/ colors/ colors_ita. htm

CMYK

Quadricromia CMYK

CMYK è l'acronimo per Cyan, Magenta, Yellow, BlacK; èun modello di colore detto anche di quattricromia oquadricromia. La scelta della lettera K per il nero, anzichéla lettera B iniziale nella traduzione inglese, è stata fatta perevitare confusioni con l'iniziale del colore Blue ed è dovuta alfatto che, nella stampa, si usa un procedimento di separazionedei colori per produrre tante diverse immagini quanti sono gliinchiostri usati. Nella quadricromia CMYK l'immaginecorrispondente al nero è quella che contiene più dettagli e lalastra di stampa corrispondente è quindi normalmenteconsiderata la lastra chiave, in inglese key plate. Da qui l'usodi K, con riferimento a tale lastra, per indicare il nero.

Page 22: Tecniche Video

CMYK 19

Miscelazione sottrattiva

I colori ottenibili con la quadricromia (sintesi sottrattiva) sono unsottoinsieme della gamma visibile, quindi non tutti i colori chevediamo possono essere realizzati con la quadricromia, così comenon tutti i colori realizzati con l'insieme → RGB (RED GREENBLUE) cioè quelli che vediamo sui nostri monitor (sintesiadditiva) hanno un corrispondente nell'insieme CMYK.

Quando sono sovrapposti nelle diverse percentuali, i primi trepossono dare origine quasi a qualunque altro → colore. Il 100% ditutte e tre le componenti (CMYK 100,100,100,0) non generasolitamente il nero, bensì il bistro, colore simile a una tonalità dimarrone molto scura, tuttavia alcune stampanti inkjet fotografiche(es.: Hp Photosmart) lavorano esclusivamente in tricromia (Cyan,Magenta, Giallo) anche per l'ottenimento del nero. Perciò neiprocessi di stampa si è aggiunto l'inchiostro di un quarto colore per

avere il nero pieno (CMYK 0,0,0,100) risparmiando sulle componenti degli altri tre inchiostri (v. Gray ComponentReplacement (GCR) e Under Color Removal (UCR))

Voci correlate• Colorimetria• → RGB• Sintesi additiva• Sintesi sottrattiva• Oleografia• Stampa offset

Page 23: Tecniche Video

Hue Saturation Brightness 20

Hue Saturation Brightness

Descrizione grafica dello spazio colore HSV.

HSL visto come un doppio cono.

HSB, è l'acronimo di Hue Saturation Brightness (tonalità,saturazione e luminosità) e indica sia un metodo additivo dicomposizione dei → colori che un modo per rappresentarli in unsistema digitale. Viene anche chiamato HSV, Hue SaturationValue (tonalità, saturazione e valore), o HSI, Hue SaturationIntensity (tonalità, saturazione ed intesità).

Per saturazione si intende l'intensità e la purezza del colore, mentrela luminosità (valore) è un'indicazione della sua brillantezza.Ovviamente la tonalità indica il colore stesso.Il modello HSB è particolarmente orientato alla prospettivaumana, essendo basato sulla percezione che si ha di un colore intermini di tinta, sfumatura e tono. Il sistema di coordinate ècilindrico e il modello HSB è definito come un cono distortoall'interno del cilindro.La tonalità H viene misurata da un angolo intorno all'asseverticale, con il rosso a 0 gradi, il verde a 120 e il blu a 240.L'altezza del cono rappresenta la luminosità (B) con lo zero cherappresenta il nero e l'uno il bianco. La saturazione (S) invece vada zero, sull'asse del cono, a uno sulla superficie del cono.

Voci correlate

• Hue Saturation Lightness• saturazione• tonalità• luminosità

Collegamenti esterni• Implementazione in C dell'algoritmo per convertire i colori da HSV a RGB e viceversa. [1]

Note[1] http:/ / mamo139. altervista. org/ index. php?tipo=c& id=0

Page 24: Tecniche Video

21

Grafica Digitale

Grafica rasterLa grafica bitmap, o grafica raster (in inglese bitmap graphics,raster graphics), è una tecnica utilizzata in computer grafica perdescrivere un'→ immagine. Un'immagine descritta con questo tipo digrafica è chiamata immagine bitmap o immagine raster.

La grafica bitmap si contrappone alla grafica vettoriale.

Significato del termine

Il termine raster (= trama, reticolo, griglia) trae origine dallatecnologia televisiva analogica, ovvero dal termine che indica le righeorizzontali (dette anche scan line) dei televisori o dei monitor[1]). Incomputer grafica, indica la griglia ortogonale di punti che costituisceun'immagine raster. Nella → grafica raster l'immagine viene vistacome una scacchiera e ad ogni elemento della scacchiera, chiamato →pixel, viene associato uno specifico colore. Il colore può essere definito con due tecniche:

• se l'immagine contiene pochi colori (massimo 256) si crea un elenco dei colori da utilizzare e nella scacchieraviene inserito l'indice che punta allo specifico colore del pixel;

• nel caso si vogliano utilizzare molti più colori il singolo pixel non definisce più l'indice a una tavolozza di colorima definisce il colore direttamente.

Il colore viene definito come un'unione delle componenti blu, rossa e verde. Questo non è l'unico modo di definireun colore, esistono molti modi che vengono chiamati → spazi di colore ma nel caso delle immagini generate alcomputer il sistema → RGB (RED Rosso, GREEN verde BLUE Blu) è il più diffuso dato che le schede grafiche loutilizzano nativamente per generare il segnale da visualizzare con il monitor.

Proprietà della grafica rasterLa bitmap è caratterizzata da due proprietà:• risoluzione;• profondità di colore.La prima è determinata dal numero di pixel contenuti nell'unità di misura considerata (in genere il pollice inglese,che misura 2,54 cm) ed è ottenuta moltiplicando il numero di pixel orizzontali per quello dei pixel verticali; si misurain PPI (Points Per Inch). La seconda è definita dalla memoria che si dedica ad ogni pixel, ovvero dal numero di bitdedicati ad ogni pixel per descrivere il colore, e si misura in BPP (Bit Per Pixel); maggiore è il numero di bit,maggiore è il numero di colori che è possibile descrivere.La grafica bitmap non è vantaggiosa se l'utente necessita di apportare modifiche all'immagine, perché nel caso adesempio di uno zoom, la risoluzione diventa bassissima e quindi la qualità dell'immagine peggiora notevolmente. Isoftware grafici, per ridurre il problema, sono in grado di ripristinare la risoluzione inserendo nuovi pixel chevengono calcolati facendo una interpolazione di punti, il processo inserisce, perciò, deliberatamente una quantità diinformazioni presunte.

Page 25: Tecniche Video

Grafica raster 22

La grafica bitmap è invece ideale per rappresentare immagini della realtà, per modificare contrasti e luminosità diqueste, per applicare filtri di colore.

Formati di immagini rasterI dati raster possono essere memorizzati attraverso tipologie di file che sfruttando algoritmi di compressione diversi,gravando in modo differente sul supporto di memorizzazione. I formati raster più comuni sono i seguenti:

Non compressiQuesti formati di file hanno richieste di elaborazione minima, non essendo necessari algoritmi di compressione (infase di scrittura) e decompressione (in fase di lettura), tuttavia, mancando di compressione, risultano particolarmentevoluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione), rispetto agli altri formati:• raw• bmp (in alcuni casi i file bmp sono compressi con un algoritmo RLE)

Con compressione losslessLe immagini salvate con un algoritmo di → compressione dati lossless occupano meno spazio nei dispositivi dimemorizzazione, mantenendo inalterata tutta l'informazione originale:• → png (certe applicazioni permettono anche la scrittura di file png non compressi)• tga• tiff (sebbene questo sia l'uso più comune, questo formato permette diversi tipi di compressione)• gif (per immagini fino a 256 colori)

Con compressione lossyLe immagini memorizzate con un algoritmo di compressione → lossy, subiscono una perdita di informazione;pertanto questa tecnica non è adatta per salvare le immagini che vengono rielaborate coi programmi di fotoritocco(le continue modifiche comporterebbero un progressivo degrado dell'immagine ad ogni salvataggio e riapertura);invece, in virtù delle ridotte dimensioni del file, sono particolarmente indicate per la trasmissione di immagini o perridurre le dimensioni di un'applicazione o di un prodotto da distribuire.• → jpeg• gif (per immagini con più di 256 colori si ottiene una compressione lossy poiché vengono eliminate la maggior

parte delle sfumature di colore)

Altre applicazioniNel campo dei Sistemi informativi territoriali o GIS, il termine raster è usato per indicare la tipologia di datoimpiegata nella rappresentazione cartografica digitale. Con i dati raster il territorio viene riprodotto attraverso unamatrice di pixel di forma quadrata o rettangolare. A ciascun pixel è associato un attributo che definisce lecaratteristiche dell'elemento rappresentato. Ad esempio in un modello digitale di elevazione a ciascun pixel èassociato il valore della quota sul livello del mare in quel punto. La dimensione dei pixel è inversamenteproporzionale alla precisione della carta. I dati raster possono essere implementati in un sistema GIS medianteacquisizione diretta con apparecchiature a lettura ottica quali ad esempio scanner d'immagini o attraversol'elaborazione di dati, raster o vettoriali, già acquisiti.

Page 26: Tecniche Video

Grafica raster 23

Voci correlate• Grafica vettoriale• → Immagine digitale• Rasterizzazione

Note[1] http:/ / www. answers. com/ topic/ raster

Pixel

Ingrandimento di una versione precedente dellogo di Wikipedia in cui sono evidenti i pixel che

compongono l'immagine

In computer grafica, con il termine pixel (contrazione della locuzioneinglese picture element) si indica ciascuno degli elementi puntiformiche compongono la rappresentazione di una → immagine raster nellamemoria di un computer.

Solitamente i punti sono così piccoli e numerosi da non esseredistinguibili ad occhio nudo, apparendo fusi in un'unica immaginequando vengono stampati su carta o visualizzati su un monitor.Ciascun pixel, che rappresenta il più piccolo elemento autonomodell'immagine, è caratterizzato dalla propria posizione e da valori quali→ colore e intensità, variabili in funzione del sistema dirappresentazione adottato.

L'esempio qui a destra mostra un logo in grafica raster ingrandito in modo da evidenziare i singoli pixel. Si noti chein questo caso l'illusione di una immagine uniforme è resa più realistica mediante l'uso di sfumature di grigio sulbordo dei caratteri, evitando bruschi passaggi di colore (tale processo è detto di antialiasing).

Aspetti tecniciIl numero di pixel in un'immagine (talvolta impropriamente detto "risoluzione" dell'immagine) determina la quantitàdi dettagli fini che possono essere rappresentati. Sebbene il concetto di pixel si applichi in tutti i contesti con ilmedesimo significato, per l'indicazione del numero di pixel da cui è costituita una immagine sono in uso diverseconvenzioni per diverse tecnologie specifiche. Per esempio, il numero di pixel di cui è costituita l'immagine prodottada una fotocamera digitale viene espresso come un singolo valore, in megapixel (milioni di pixel), mentre il numerodi pixel di un display viene in genere espresso come un prodotto (pixel in altezza per pixel in larghezza), per esempio640 × 480.I punti colorati che formano un'immagine digitale (come una → JPEG) vengono chiamati anch'essi pixel. Possononon essere in corrispondenza uno-a-uno con i pixel dello schermo. Nei casi in cui questa distinzione è importante, ipunti del file possono essere chiamati texel.In informatica, un'immagine composta da pixel è conosciuta come immagine bitmap o → immagine raster. La parolaraster trae origine dalla tecnologia della televisione analogica. Le immagini bitmap sono usate per codificare il →video digitale e per produrre arte generata da computer.Poiché la → risoluzione del monitor può essere regolata dal sistema operativo del computer, un pixel è una misura relativa. I moderni schermi per computer sono progettati con una risoluzione nativa, che si riferisce al perfetto accoppiamento tra pixel e triadi. La risoluzione nativa darà origine all'immagine più netta tra quelle che lo schermo è in grado di produrre. Comunque, l'utente può aggiustare la risoluzione, il che si ottiene disegnando ogni pixel usando più di una triade. Questo processo normalmente dà origine a una immagine sfuocata. Ad esempio, uno schermo con

Page 27: Tecniche Video

Pixel 24

risoluzione nativa di 1280×1024 produrrà le migliori immagini se impostato a quella risoluzione, mostrerà larisoluzione a 800×600 in modo adeguato, disegnando ogni pixel con più di una triade, e non sarà in grado dimostrare immagini a 1600×1200 a causa della mancanza di un numero sufficiente di triadi.Normalmente, una risoluzione non nativa viene mostrata meglio su uno schermo CRT che su un LCD.I pixel possono essere sia quadrati che rettangolari. Un valore chiamato pixel aspect ratio, descrive le proporzioni diun pixel per la sua corretta visualizzazione. Ad esempio, un pixel aspect ratio di 1,25:1, significa che ogni pixeldev'essere visualizzato 1,25 volte più largo che alto perché quanto rappresentato sia proporzionato. I pixel suglischermi dei computer sono in genere quadrati, ma i pixel utilizzati nel → video digitale hanno forma non quadrata,come nel D1 aspect ratio.Ogni pixel di un'immagine monocroma ha la sua luminosità. Un valore pari a zero di norma rappresenta il nero,mentre il valore massimo rappresenta il bianco. Ad esempio, in un'immagine a otto bit, il massimo valore senzasegno che può essere immagazzinato è 255, così questo è il valore usato per il bianco.Nelle immagini a colori, ogni pixel ha la sua luminosità e colore, tipicamente rappresentate da una tripletta diintensità di rosso, verde e blu (vedi → RGB). I monitor a colori usano pixel composti da 3 sotto-pixel. Nelleimmagini in scale di grigio i valori di accensione dei 3 subpixels è sempre uguale (ad esempio R=71, G=71, B=71).Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP).Valori comuni sono:• 8 bpp (256 colori)• 16 bpp (65.536 colori, noto come Highcolour)• 24 bpp (16.777.216 colori, noto come Truecolour).Immagini composte da 256 colori o meno, vengono normalmente immagazzinate nella memoria video del computer,in formato chunky o planar, dove un pixel in memoria è l'indice di una lista di colori chiamati palette (tavolozza).Queste modalità sono quindi chiamate modalità indicizzate. Mentre vengono mostrati solo 256 colori, questi sonopresi da una tavolozza molto più ampia, tipicamente di 16 milioni di colori. Cambiare i valori della tavolozzapermette una specie di effetto animato. Il logo animato di avvio di Windows 95 e Windows 98 è probabilmente il piùnoto esempio di questo tipo di animazione.Per profondità di colore più ampie di 8 bit, il numero è il totale dei tre componenti RGB (rosso, verde e blu). Unaprofondità di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha più bit perché l'occhioe più sensibile a quel colore). Una profondità di 24 bit permette 8 bit per componente. Su alcuni sistemi è disponibileuna profondità di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacità. Sui sistemi piùvecchi è comune il formato a 4 bpp (16 colori).Quando un file immagine viene mostrato a → video, il numero di bit per pixel viene espresso separatamente per ilfile raster e per lo schermo. Alcuni formati di file raster, hanno una grande profondità in bit rispetto ad altri. Ilformato GIF, ad esempio, ha una profondità massima di 8 bit, mentre il TIFF può gestire pixel a 48-bit. Non ci sonomonitor che possano rappresentare colori a 48 bit, e quindi questa profondità viene di solito usata per applicazioniprofessionali specializzate che lavorano con scanner d'immagini o stampanti. Questi file vengono "renderizzati" suschermo con 24-bit di profondità.Altri oggetti derivati dal pixel, come i voxel (elementi di volume), i texel (elementi di consistenza) e i surfel(elementi di superficie), sono stati creati per altri utilizzi della computer grafica.

Page 28: Tecniche Video

Pixel 25

Sotto-pixelSugli schermi a cristalli liquidi e su quelli a tubo catodico, ogni pixel è costruito da tre sotto-pixel, ognuno per i trecolori, posti a distanza ravvicinata. Ogni singolo sotto-pixel è illuminato in base a un determinato valore, e a causadella loro prossimità, creano l'illusione ottica di un singolo pixel di un colore particolare.Una tecnica recente per aumentare la risoluzione apparente di un monitor a colori, chiamata sub-pixel font rendering,usa la conoscenza della geometria dei pixel per manipolare separatamente i tre sotto-pixel, il che sembra essereparticolarmente efficace con gli schermi LCD impostati con risoluzione nativa. Questa è una forma di antialiasing, eviene usata principalmente per migliorare l'aspetto del testo. Il Cleartype di Microsoft, che è disponibile su WindowsXP, ne è un esempio. Un altro esempio è la tecnologia Quartz utilizzata dal Mac OS X per l'interfaccia grafica. Inquesto caso l'intera interfaccia grafica utilizza questa tecnologia. Ciò rende l'interfaccia grafica più gradevole marende le singole linee meno definite e questo in alcuni casi può disturbare l'utente.

MegapixelUn megapixel è 1 milione di pixel, e viene solitamente usato con riferimento alle macchine fotografiche digitali.Alcune macchine fotografiche digitali usano i CCD, che registrano i livelli di luminosità. Vecchie fotocameredigitali, che non usano i CCD Foveon X3 [1] hanno filtri colorati rossi, verdi e blu, in modo che ogni pixel possaregistrare la luminosità di un singolo colore primario. Quindi, i pixel delle fotocamere digitali che non usano i CCDFoveon X3, sono simili a sotto-pixel. La fotocamera interpola l'informazione di colore per creare l'immagine finale.Quindi, un'immagine a 'x'-megapixel, proveniente da una fotocamera con 1/4 della risoluzione di colore della stessaimmagine acquisita da uno scanner. La risoluzione dei dettagli non ne risente. Quindi, un'immagine di un oggetto bluo rosso (di solito ci sono più pixel verdi) tenderà ad apparire sfuocata, se confrontata con lo stesso oggetto in toni digrigio.È importante sapere che in numero di megapixel non è un diretto indice di qualità delle macchine fotografiche; èvero che un numero più elevato di pixel permette, in linea teorica, un maggior potere risolutivo, ma questo è spessolimitato dal sistema ottico utilizzato per convogliare l'immagine sul sensore. Se il potere risolutivo del complesso dilenti è inferiore al potere risolutivo della matrice di pixel allora non si avrà alcun guadagno nell'aumentare in numerodi pixel, anzi si avrà un peggioramento delle prestazioni del sistema a causa del maggiore rumore elettronicointrodotto.

GigapixelUn gigapixel corrisponde a 1 miliardo di pixel, e viene solitamente usato con riferimento alle schede grafiche (PixelFillrate).

PelPel è un termine che viene usato di solito come abbreviazione di pixel, ma può anche riferirsi ai sub-pixels.

Voci correlate• Dot pitch• Grafica vettoriale• Pixel art

Page 29: Tecniche Video

Pixel 26

Altri progetti• Wikizionario contiene la voce di dizionario «pixel»

Note[1] http:/ / www. foveon. com/ X3_tech. html

Risoluzione (grafica)La risoluzione indica il grado di qualità di un'immagine. Generalmente si usa questo termine riguardo immaginidigitali, ma anche una qualunque fotografia ha una certa risoluzione.Nelle immagini su computer, la risoluzione indica la densità dei → pixel, ovvero la quantità dei puntini elementariche formano l'immagine rapportata ad una dimensione lineare (ad esempio pixel/cm o pixel/pollice). Lo schermo diun computer non può mostrare linee o disegni, ma soltanto punti; se questi sono sufficientemente piccoli, tali daessere più piccoli della risoluzione percepita dall'occhio umano, l'osservatore ha l'impressione di vedere lineeanziché punti allineati, e disegni anziché ammassi di puntini distinti.

Misura della risoluzioneLa risoluzione, quindi, essendo una misura della densità dei pixel, si misura in punti per unità di lunghezza, di solitopollici (ppi, pixel per inch o dpi, dot per inch). Per alcuni dispositivi, la densità dei pixel è diversa nelle duedimensioni, come per gli scansionatori d'immagine, quindi occorre indicare sia la risoluzione orizzontale che quellaverticale. Uno schermo per computer ha valori di risoluzione intorno ai 72 dpi. Le attuali stampanti casalinghepermettono di stampare immagini con risoluzioni di alcune centinaia di dpi. La risoluzione equivalente di unanormale pellicola fotografica è di 3-4.000 dpi.

Bassa risoluzioneLa distinzione tra alta risoluzione e bassa risoluzione ha assunto anche rilevanza giuridica perché la legge 9 gennaio2008, n. 2, integrando l'articolo 70 della legge n. 633/41 sul diritto d'autore, ha previsto per i siti non lucrativi, lapossibilità di riprodurre immagini per fini didattici o scientifici. Manca tuttavia una più esatta definizione di che cosadebba intendersi per bassa risoluzione, che evidentemente deve essere ricavata da norme di buona tecnica.

Modifica della risoluzioneLa risoluzione con la quale è stata digitalizzata un'immagine si può modificare anche a posteriori con un processo diinterpolazione, ma questo non comporta un miglioramento della qualità dell'immagine stessa; quindi, al momentodell'acquisizione, occorre prestare attenzione ad avere un'immagine con risoluzione sufficiente per lo scopodell'immagine stessa.

Voci correlate• Telescopio

Page 30: Tecniche Video

Risoluzioni standard 27

Risoluzioni standard

Comparazione delle risoluzioni standard. La colorazione blu, rossa, gialla verde e violaindica il display aspect ratio (DAR)

Le risoluzioni standard o modalitàvideo sono combinazioni di parametriutilizzate dall'industria elettronica perdefinire l'interfaccia video di uncomputer. Tali parametri di solito sonola risoluzione dei display (specificatadalla larghezza e altezza in → pixel), laprofondità di colore (espressa in bit) ela velocità di refresh (refresh rate,espressa in hertz).

Storia

Le risoluzioni standard utilizzate neiPC in questi anni (fine del XX secolo einizi XXI secolo) si sono evolutemoltissimo: si va dai semplici framebuffer dei primi anni, caratterizzatisolo da risoluzione video e refresh rate,fino ai moderni sistemi dotati di un insieme molto più ampio di comandi e funzioni pilotabili via software.

L'evoluzione dell'informatica e dell'elettronica ha modificato nel tempo l'interfaccia di interazione tra computer edoperatore. Se fino alla metà negli anni '70, era la normalità l'uso delle schede perforate e di pannelli a spie luminoseper leggere i risultati dei calcoli, divenne poi possibile interagire con gli elaboratori attraverso videoterminali acarattere. L'evoluzione successiva ha portato alla nascita di numerosi standard grafici che introdussero linee e curve esuccessivamente i colori.La continua evoluzione dell'elettronica e della tecnologia di visualizzazione aumenta sempre più la definizione, lasuperficie visualizzabile e le dimensioni stesse degli schermi.Fino al 2003, la maggior parte dei monitor aveva un Aspect ratio di 4:3 e qualcuno di 5:4. Dal 2003 al 2006 si sonoresi disponibili vari monitor con un rapporto di risoluzione di 16:10, inizialmente sui laptop e successivamente suimonitor per PC. Questo cambiamento è dovuto sia al fatto che con questo rapporto si vedono meglio film e giochima soprattutto le attività di videoscrittura ne hanno tratto beneficio potendo visualizzare due pagine A4 affiancate,così come anche il CAD che ha potuto sfruttare lo spazio in più per la visualizzazione dei menù a fianco del disegnografico. La Video Electronics Standards Association (VESA) ha definito diversi standard video mentre quelliergonomici sono definiti dal TCO.

Page 31: Tecniche Video

Risoluzioni standard 28

Principali risoluzioni utilizzate in informaticaNella tabella, qui sotto riportata, troviamo le risoluzioni video più comuni nei PC che si sono evoluti dall'originaleIBM PC, più alcune che sono supportate da altri tipi di computer come ad esempio gli Apple Macintosh. La VideoElectronics Standards Association (VESA) ha curato le specifiche di molti di questi standard.

Tabella delle risoluzioni standard dei display

StandardVideo

Nome completo Descrizione risoluzionedel display(→ pixel)

Aspectratio

profonditàdel colore

(bpp)

Interfacciavideo

MDA MonochromeDisplay Adapter

Lo standard originale sugli IBM PC e IBM PC XT con4 KB di video RAM. Introdotto nel 1981 dall'IBM.Supporta unicamente la modalità testuale.

720×350(text)

72:35 1 bpp MDA

CGA Color GraphicsAdapter

Introdotto nel 1981 by IBM è il primo standard video acolori per gli IBM PC. Le schede grafiche CGA eranodotate di 16 KB video RAM.

640×200(128k)320×200(64k)160×200(32k)

16:516:104:5

1 bpp2 bpp4 bpp

CGA

Hercules Una modalità video monocromatica con un'ottimavisualizzazione del testo e della grafica per l'epoca incui fu introdotta (1982). Divenne molto popolareabbinata al software di foglio elettronico Lotus 1-2-3che è stato una delle prime killer application.

720×348(250.5k)

60:29 1 bpp MDA

EGA EnhancedGraphics Adapter

Introdotta da IBM nel 1984 con una risoluzione di 640× 350 pixel su 16 colori (4 bit per pixel, o bpp),selezionabili fra 64 colori di base (palette) (2 bit perciascuna componente rossa-verde-blu).

640×350(224k)

64:35 4 bpp EGA

ProfessionalGraphics

Controller

Introdotta nel 1984 per il PC-bus ISA a 8 bit, aveva abordo un acceleratore hardware 2D e 3D ed era statapensata per applicazioni CAD

640×480(307k)

4:3 8 bpp PGC

MCGA Multi-ColorGraphics Array

Introdotta nel 1987 per gli IBM Personal System/2(PS/2) con un costo ridotto rispetta alla VGA. MCGAha una risoluzione di 320x200 pixel con 256 color (dauna palette di 262,144 colori, e una risoluzione di640x480 unicamente in bianco e nero in quanto lavideo ram era di soli 64k mentre quella della VGA eradi 256k.

320×200(64k)640×480(307k)

16:104:3

8 bpp1 bpp

VGAStandard

8514 Modalità video di IBM introdotta nel 1987praticamente assieme alla VGA. Era caratterizzatadalla risoluzione 1024x768 (precursore di XGA) maaveva un video interlacciato a 43.5 Hz.

1024×768(786k)

4:3 8 bpp VGAInterlacciato

VGA Video GraphicsArray

Introdotta nel 1987 da IBM. Oggi per VGA si intendela risoluzione 640x480 a 16 colori ma VGA è uninsieme di risoluzioni che comprendono anche320x200 a 256 colori e 720x400 in modalità testo. Idisplay VGA e le schede video VGA sonogeneralmente in grado di operare in modalità graficaMode X, una modalità non documentata per aumentarele prestazioni, utilizzata in, particolare, dai giochi.

640×480(307k)640×350(224k)320×200(64k)720×400(text)

4:364:3516:109:5

4 bpp4 bpp4/8 bpp4 bpp

VGAStandard

SVGA Super VGA Uno standard video introdotto nel 1989 dalla VideoElectronics Standards Association (VESA) per ilmercato dei PC IBM compatibili.

800×600(480k)

4:3 4 bpp VESA VGA

Page 32: Tecniche Video

Risoluzioni standard 29

XGA ExtendedGraphics Array

Introdotto da IBM nel 1990. XGA-2 ha poi aggiuntoun supporto per più colori e ad un maggiore refreshrate e il supporto della risoluzione 1360 × 1024 a 16colori (4 bit per pixel).

1024×768(786k)640×480(307k)

4:34:3

8 bpp16 bpp

VESA VGA

XGA+ ExtendedGraphics ArrayPlus

Nome non ufficiale per riferirsi alla risoluzione di 1152x 864, che è la risoluzione 4:3 più ampia sotto ilmilione di pixel. Apple Computer ha impiegato unavariante di questa risoluzione a 1152x870 e SunMicrosystems a 1152x900.

1152×864(786k)640×480(307k)

4:34:3

8 bpp16 bpp

VESA VGA

QVGA Quarter VGA Un quarto della risoluzione VGA 320×240(75k)

4:3 Non definita

WQVGA Wide QuarterVGA

Risoluzione orizzontalmente ampia come la VGA macon circa la metà delle linee

480×272(126k)

16:9 Non definita

HQVGA Half QVGA Un ottavo della risoluzione VGA 240×160(38k)

3:2 Non definita

QQVGA Quarter QVGA Un sedicesimo della risoluzione VGA 160×120(19k)

4:3 Non definita

WXGA WidescreenExtendedGraphics Array

Una variante dello standard XGA con un Aspect ratio16:9 o 16:10 che si è molto diffuso sui notebook piùrecenti (2008).

1280×720(922k)1280×800(1024k)1440×900(1296k)

16:9 or16:10

32 bpp VESA VGA

SXGA Super XGA Una modalità de facto ampiamente utilizzata con 32 bitTruecolor, con un particolare aspect ratio di 5:4 invecedel più comune 4:3 che comporta una leggeradistorsione delle immagini in formato 4:3. Questamodalità è utilizzata sulla maggior parte dei displayLCD da 17".

• Alcuni produttori hanno chiamato questa modalitàExtended Video Graphics Array or XVGA inconsiderazione che VGA è la risoluzione standard.

1280×1024(1310k)

5:4 32 bpp VESA VGA

WXGA+ WidescreenExtendedGraphics ArrayPLUS

Variante del formato WXGA molto utilizzata sugliultimi (2008) portatili e sui monitor 19" caratterizzateda un rapporto di risoluzione 16:10.

1440×900(1296k)

16:10 32 bpp VESA VGA

SXGA+ Super ExtendedGraphics ArrayPlus

Molto frequente su laptop con display da 14" e 15" e suvideoproiettori DLP.

1400×1050(1470k)

4:3 32 bpp VESA VGA

WSXGA+ Widescreen SuperExtendedGraphics ArrayPlus

molto frequente su Monitor Widescreen da 19" 21" e22" e su laptop con display 15.4" e 17.

1680×1050(1764k)

16:10 32 bpp VESA VGA

UXGA Ultra XGA Una risoluzione standard de facto Truecolor. 1600×1200(1920k)

4:3 32 bpp VESA VGA

WUXGA Widescreen UltraExtendedGraphics Array

Una versione wide di UXGA molto utilizzato neinotebook di fascia alta con display da 15,4" o 17"

1920×1200(2304k)

16:10 32 bpp DVI SingleLink

QXGA Quad ExtendedGraphics Array

Quattro volte la risoluzione XGA 2048×1536(3146k)

4:3 32 bpp DVI DualLink

Page 33: Tecniche Video

Risoluzioni standard 30

WQXGA Widescreen QuadExtendedGraphics Array

Modalità video apparsa per la prima volta su AppleCinema 30" e divenuta standard su monitor da 30",richiede connessioni DVI o HDMI dual link.

2560×1600(4096k)

16:10 32 bpp DVI DualLink

QSXGA Quad SuperExtendedGraphics Array

2560×2048(5243k)

5:4 32 bpp DisplayPort1.1 4-Lane

WQSXGA Wide Quad SuperExtendedGraphics Array

3200×2048(6554k)

25:16 32 bpp Non ancorasupportata

QUXGA Quad UltraExtendedGraphics Array

Quattro volte la risoluzione UXGA. Richiede piùconnessioni DVI (4 single link o 2 dual link). In futurosarà supportata da una singola connessioneDisplayPort.

3200×2400(7680k)

4:3 32 bpp Non ancorasupportata

WQUXGA Wide Quad UltraExtendedGraphics Array

Utilizzata dai monitor IBM T220/T221 LCD non piùdisponibili sul mercato.

3840×2400(9216k)

16:10 32 bpp Non ancorasupportata

HXGA HexadecatupleExtendedGraphics Array

4096×3072(12583k)

4:3 32 bpp Non ancorasupportata

WHXGA WideHexadecatupleExtendedGraphics Array

5120×3200(16384k)

16:10 32 bpp Non ancorasupportata

HSXGA HexadecatupleSuper ExtendedGraphics Array

5120×4096(20972k)

5:4 32 bpp Non ancorasupportata

WHSXGA WideHexadecatupleSuper ExtendedGraphics Array

6400×4096(26214k)

25:16 32 bpp Non ancorasupportata

HUXGA HexadecatupleUltra ExtendedGraphics Array

6400×4800(30720k)

4:3 32 bpp Non ancorasupportata

WHUXGA WideHexadecatupleUltra ExtendedGraphics Array

7680×4800(36864k)

16:10 32 bpp Non ancorasupportata

Significato prefissi nella nomenclatura delle risoluzioniSebbene i prefissi comuni super 'S e ultra U non indicano una specifica variazione alla risoluzione standard, moltiprefissi hanno, invece, uno specifico significato:Quarter (Q)

Un quarto della risoluzione di base. Es. QVGA indica una risoluzione di 320×240 che è la metà dellalarghezza e la metà dell'altezza, ossia un quarto del totale dei → pixel, della risoluzione VGA di 640×480.Nelle alte risoluzioni Q significa "Quad" ossi quattro volte.

Wide (W)

Risoluzione più ampia di quella base, di cui mantiene il numero di righe, che permette un Aspect ratio di 16:9o 16:10.

Quad(ruple) (Q)

Page 34: Tecniche Video

Risoluzioni standard 31

Quattro volte i → pixel della risoluzione di base ossia due volte in orizzontale e due volte in verticale ilnumero di → pixel.

Hexadecatuple (H)

Sedici volte i → pixel della risoluzione di base ossia quattro volte in orizzontale e quattro volte in verticale ilnumero di → pixel.

Ultra (U)

eXtended (X)

Questi prefissi possono anche combinarsi come, ad esempio in WQXGA o WHUXGA.

Tipi di interfacce video per PCNella colonna interfaccia video della tabella precedente è riportata il tipo di interfaccia video che permette dicollegare un monitor ad un PC e visualizzare la risoluzione indicata secondo le seguenti specifiche:• MDA - Interfaccia dedicata digitale Monochrome Display Adapter.• CGA - Interfaccia dedicata digitale Color Graphics Adapter.• EGA - Interfaccia dedicata digitale Enhanced Graphics Adapter.• PGC - Interfaccia dedicata analogica Professional Graphics Controller.• VGA standard - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VGA originale

o superiore (VESA VGA, DVI Sigle Link ecc.).• VGA interlacciato - L'interfaccia è uguale alla VGA originale ma richiede un monitor in grado di visualizzate un

segnale video interlacciato.• VESA VGA - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VESA VGA o

superiore (Digital Visual Interface Single Link, Digital Visual Interface Dual Link o DsplayPort 1.1).• Non definita - Queste non sono risoluzione adottate dai monitor per PC ma solo ad un formato video.• DVI Single Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale Digital Visual

Interface Single Link, Dual Link o DisplayPort.• DVI Dual Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale Digital Visual

Interface Dual Link o DisplayPort.• DisplayPort 1.1 4-Lane - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale

DisplayPort 1.1 4-Lane o superiore.• Non ancora supportata - Attualmente non esiste un'interfaccia video singola che permetta questa risoluzione

anche se, in futuro, ci saranno delle specifiche DisplayPort che permetteranno di andare oltre alla risoluzione.N.B. Queste sono indicazioni generali per un corretto funzionamento. In realtà, ad esempio, si potrebbe ancheutilizzare una connessione VESA VGA per visualizzare in risoluzione WUXGA anche se questo non è consigliato.Per aumentare la risoluzione si possono aumentare anche i collegamenti video, utilizzando ad esempio 2 o 4collegamenti DVI, o diminuire la velocità di refresh.

Page 35: Tecniche Video

Risoluzioni standard 32

Principali risoluzioni utilizzate in TV e VideoproiettoriNella tabella qui sotto riportata troviamo le risoluzioni video più comuni nei TV e nei videoproiettori. Nella tabellaseguente 60Hz o 60 FPS sono un'approssimazione. Il valore preciso è ossia circa 59,94.

Tabella delle risoluzioni standard di TV e Videoproiettori

StandardVideo

Descrizione risoluzione deldisplay (→ pixel)

Aspectratio

profondità delcolore (bpp)

frame persecondo

480i Video a risoluzione standard NTSC a 60Hz interlacciato 720×480 (337.5k) 3:2 (1,5) 24 bpp 30

480p Video a risoluzione standard NTSC a 30Hz progressivo. 720×480 (337.5k) 3:2 (1,5) 24 bpp 30

576i Video a risoluzione standard PAL a 50Hz interlacciato 720×576 (405k) 4:3 (1,33) 24 bpp 25

576p Video a risoluzione standard PAL a 25Hz progressivo. 720×576 (405k) 4:3 (1,33) 24 bpp 25

720p Formato video → HDTV 1280 x 720 a 60Hz progressivo.Esistono anche le varianti a 24,25,30 e 50 Hz

1280×720 (900k) 16:9(1,78)

24 bpp 50-60

1080i Formato video → HDTV 1920 x 1080 a 60Hz interlacciato.Esiste anche la variante a 50 Hz

1920×1080 (2000k) 16:9(1,78)

24 bpp 25-30

1080p Formato video → HDTV 1920 x 1080 a 60Hz progressivo.Esistono anche le varianti a 24,25,30 e 50 Hz

1920×1080 (2000k) 16:9(1,78)

24 bpp 50-60

2K Proiezione di film digitali in sale cinematografiche DLP 2048×1080 (2212k) 1,89 48 bpp 24

4K Proiezione di film digitali in sale cinematografiche DLP 4096×1716 (7029k) 2,39 48 bpp 24

Voci correlate• Informatica• Scheda video• Risoluzione del display

Collegamenti esterni• (EN) Aspect Ratios [1] - Dal sito Widescreen.org

Note[1] http:/ / www. widescreen. org/ aspect_ratios. shtml

Page 36: Tecniche Video

Immagine digitale 33

Immagine digitaleUn'immagine digitale è la rappresentazione di un'immagine bi-dimensionale tramite una serie di valori numerici,che la descrivono a seconda della tecnica utilizzata.

Tecniche di rappresentazioneLe immagini digitali sono fondalmentalmente di due tipi: una matrice di punti (o pixel) nelle immagini bitmap o,nelle immagini vettoriali, un insieme di punti (o nodi) uniti in linee o altre primitive grafiche che compongonol'immagine, insieme ad eventuali colori e sfumature.

Immagini bitmapIn questo tipo di immagini, i valori memorizzati indicano le caratteristiche di ogni punto dell'immagine darappresentare (→ pixel):• nelle immagini a colori, viene memorizzato solitamente il livello di intensità dei colori fondamentali (nel modello

di colore → RGB, uno dei più usati, sono tre: rosso, verde e blu. Un altro esempio è → CMYK, usato per lastampa, basato su quattro colori fondamentali: ciano, magenta, giallo e nero.)

• nelle immagini monocromatiche in scala di grigio (dette impropriamente bianco e nero) il valore indica l'intensitàdel grigio, che varia dal nero al bianco.

Il numero (detto anche "profondità") di colori o di livelli di grigio possibili dipende dal massimo numero dicombinazioni permesse dalla quantità di bit utilizzata per ognuno di questi dati: un'immagine con 1 bit per pixel avràal massimo due combinazioni possibili (0 e 1) e quindi potrà rappresentare solo due colori o solo bianco e nero; nelleimmagini a 4 bit per pixel, si possono rappresentare al massimo 16 colori o 16 livelli di grigio; un'immagine a 8 bitper pixel, 256 e così via.Oltre a questi dati, è solitamente presente un header, che contiene diverse informazioni sull'immagine, a partire dalnumero di righe e colonne di pixel: le dimensioni sono necessarie per poter dividere e disporre la sequenza di pixelin linee, in modo da formare una griglia rettangolare di punti, simile ad un mosaico, in cui ogni riga è formata da unnumero preciso (indicato appunto dal valore larghezza) di tessere.La tecnica utilizzata per queste immagini, rappresentate da una matrice NxM, dove N è il numero delle righe di pixeldell'immagine e M delle colonne, è detta raster.Le immagini bitmap possono venire memorizzate in diversi formati, spesso basati su un algoritmo di compressione,che può essere → lossy (in cui c'è perdita di informazione), come nelle immagini JPEG, oppure → lossless (senzaperdita), come nel caso dei file d'immagine GIF o PNG.Questo tipo di immagini può venire generato da una grande varietà di dispositivi d'acquisizione: scanner efotocamere digitali (contenenti dei sensori CCD o CMOS), ma anche da radar e microscopi elettronici; inoltrepossono venire sintetizzate anche a partire da dati arbitrari, come funzioni matematiche bidimensionali o modelligeometrici tridimensionali.Il campo dell'elaborazione digitale delle immagini studia gli algoritmi per modificare tali immagini.

Page 37: Tecniche Video

Immagine digitale 34

Immagini vettorialiLe immagini vettoriali sono un tipo di immagine facilmente scalabile e ruotabile, ottenuto dall'unione di un certonumero di punti o nodi, che formano linee e poligoni, a loro volta uniti in strutture più complesse, fino a formarel'immagine voluta.Questo tipo di immagine è utilizzato nel disegno tecnico per la progettazione architettonica ed industriale, nellarappresentazione di certi font, nella grafica per la creazione di loghi e marchi o altri oggetti, eccetera.

Voci correlate• Elaborazione digitale delle immagini• → Grafica raster• Grafica vettoriale

Collegamenti esterni• Introduzione al libro "VETTOR, dal bitmap al vettoriale" [1], con la definizione di immagini digitali, distinte in

bitmap (o raster) e vettoriali.• Bitmap o vettoriale? I due tipi di immagini digitali [2]

• Differenze tra grafica bitmap e vettoriale [3]

Note[1] http:/ / www. edilio. it/ libreriaspecializzata/ schedalibro. asp?cod=5736[2] http:/ / venus. unive. it/ pmlett/ autoapprendimento/ grafica/ iduetipi. htm[3] http:/ / www. stampasubito. it/ store/ stampasubito_guide_grafica_vettoriale_grafica_bitmap. asp

Page 38: Tecniche Video

Compressione dei dati 35

Compressione dei datiLa compressione dati è una tecnica utilizzata in ambito informatico per la riduzione della quantità di bit necessarialla rappresentazione in forma digitale di un'informazione.La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la suamemorizzazione e l'occupazione di banda necessaria per la sua trasmissione, sia per ridurre l'occupazione di bandanecessaria in una generica trasmissione dati come ad esempio una trasmissione televisiva in diretta.Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una partedell'informazione originale, al fine di ottenere una rappresentazione dell'informazione più compatta quindicomportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione datinecessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se talioperazioni devono essere eseguite in tempo reale.

Tipologie di compressione datiLe tecniche di compressione dati si dividono in due grandi categorie:• → compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione che sfrutta le

ridondanze nell'utilizzo dei dati;• → compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione che sfrutta le

ridondanze nella codifica del dato.Le tecniche senza perdita di informazione come dice il nome si preoccupano di preservare il messaggio originalequando effettuano la compressione. Un loro esempio è il formato ZIP per i file o il GIF per le immagini. A partire daun file in uno di questi formati, è sempre possibile ricostruire esattamente il file d'origine.Le tecniche con perdita di informazione ottengono delle compressioni molto spinte dei file a scapito dell'integrità delfile stesso. Il file prima della compressione e il file dopo la decompressione sono simili ma non identici.Normalmente viene utilizzata per comprimere i file multimediali. I file multimediali in origine sono troppo grandiper essere agevolmente trasmessi o memorizzati quindi si preferisce avere una piccola riduzione della qualità ma nelcontempo file molto più leggeri, un esempio sono le immagini in formato → JPEG (per compressione di immagini) oin formato MPEG (per compressione di dati video e/o audio).

Bibliografia• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria

gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN88-371-1561-X

Page 39: Tecniche Video

Compressione dati lossy 36

Compressione dati lossyLa compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi dicompressione dati che porta alla perdita di parte dell'informazione originale durante la fase dicompressione/decompressione dei dati che la rappresentano.Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello diprecisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita diinformazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in generetendono a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo unbrano audio secondo la codifica dell'→ MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre ledimensioni dei file senza compromettere in modo sostanziale la qualità dell'informazione.La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,nell'ambito dello streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali,ecc.Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una suaapertura e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore nonpermetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe farperdere ulteriori informazioni, ma ingrandendo le dimensioni del file.

EsempiEsempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità:

Qualità 100% - 87,7 kB Qualità 90% - 30,2 kB Qualità 50% - 6,7 kB Qualità 10% - 3,2 kB

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamenteosservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.

Compressione dati

Audio• ADPCM

Musica e suoni

• AAC• MPC o Musepack• → MP3• → Ogg Vorbis (non ristretto da brevetti)• VQF• WMA• AC3

Page 40: Tecniche Video

Compressione dati lossy 37

Voce

• GSM 06.10• → Ogg Speex (non ristretto da brevetti)

Foto (immagini ferme)• JPEG• JPEG 2000

Video (immagini in movimento)• MPEG-1• MPEG-2• → MPEG-4• → Ogg → Theora (non ristretto da brevetti)• DivX• XviD• 3GPP• WMV

Voci correlate• → Compressione dati lossless• Compressione dati• Codec

Compressione dati losslessLa compressione dati lossless (compressione dati senza perdita), è una classe di algoritmi di compressione datiche non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/decompressionedei dati stessi.Un esempio di questo tipo di compressione è dato dai formati Zip, Gzip, Bzip2, Rar, 7z. I file per cui non èaccettabile una perdita di informazione, come i testi o i programmi, utilizzano questo metodo. Per le immaginifotografiche generalmente non si usano algoritmi lossless in quanto sarebbero veramente poco efficienti, ma per leimmagini che contengano ampie aree con colori puri spesso la compressione lossless non solo è applicabile, maanche conveniente (GIF, PNG, MNG, TIFF con compressione LZW, ZIP o RLE).

Problemi della compressione losslessGli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input diminuisca didimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che non diminuiranno didimensione quando elaborati dall'algoritmo. Questo è facilmente verificabile con della matematica elementare:• Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.• Si supponga (per assurdo), che esista un algoritmo di compressione che trasformi ogni file in un file più corto

distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.)• Si considerino l'insieme dei file con lunghezza massima di N bit. Questo set ha 1 + 2 + 4 + ... + 2N = 2N+1-1

elementi, se si include il file di lunghezza zero.

Page 41: Tecniche Video

Compressione dati lossless 38

• Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono,sempre considerando anche il file di lunghezza zero.

• Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di uninsieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione).

• Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file piùpiccoli) sia errata.

Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file didimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori(2N) dell'insieme dei file compressi.Una dimostrazione anche più semplice (ma equivalente) è come segue:1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza

maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può esserereversibile senza perdita di dati.)

3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F)4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha:

L(F)=N>L(C(F)) > L(C2(F)) > ...

e quindi:

L(C(F))<= N-1

L(C2(F))<= N-2

L(Ck(F))<= N-k

Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza dialmeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi cheesisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso,quindi l'ipotesi è falsa.Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file piùgrandi o lasciarli di lunghezza invariata.Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior partedei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misurala distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenutinel file, che, per un teorema di Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmoteoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune).In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati lacui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non vaprocessato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette dievitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione.

Page 42: Tecniche Video

Compressione dati lossless 39

Qualità della compressione e velocitàIn generale, non vi è un rapporto di proporzionalità indiretta tra qualità della compressione ottenibile da un algoritmoe la sua velocità di esecuzione.Prendiamo ad esempio la seguente stringa di dati:

005555550055555500555555005555550055555500555555

La stringa richiede 48 caratteri, ma è immediatamente disponibile all'utilizzo. Un algoritmo di compressione losslesspotrebbe essere "cifra-numero di ripetizioni". La stringa, utilizzando questo algoritmo, diviene quindi:

025602560256025602560256

È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio(decompressione).Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione moltialgoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quellorichiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo.

Tecniche di compressioneEsistono diversi algoritmi di compressione. Tra i più noti:• Huffman• Codifica aritmetica (o "compressione aritmetica")• Lempel-Ziv-Welch (LZW)• LZ77• LZ78• LZMA• DEFLATE - tecnica mista: LZ77 e Huffman• Prediction by Partial Matching (PPM)• Trasformata di Burrows-Wheeler - (BWT)

Programmi generici per la compressioneTra i tanti programmi di compressione molti usano un algoritmo tra quelli elencati sopra, mentre alcuni ne hanno unoproprio:• Arj - algoritmo proprio• Gzip - usa DEFLATE• PKZIP - usa DEFLATE• WinZip - usa DEFLATE• WinRar - algoritmo proprio• Bzip2 - usa la trasformata di Burrows-Wheeler• 7-Zip - usa LZMA

Page 43: Tecniche Video

Compressione dati lossless 40

Formati ed algoritmi

Audio• Apple Lossless - ALAC (Apple Lossless Audio Codec)• Direct Stream Transfer - DST• FLAC - Free Lossless Audio Codec• Meridian Lossless Packing - MLP• APE Monkey's Audio• RealPlayer - RealAudio Lossless• Shorten - SHN• TTA - True Audio Lossless• WavPack - WavPack lossless• WMA - comprende anche una variante lossless

Immagini• ABO - Adaptive Binary Optimization• GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori• Portable_Network_Graphics Portable Network Graphics - usa una variante di DEFLATE• HD Photo - Contempla un metodo di compressione lossless• OptiPNG - Metodo di compressione lossless in formato PNG• JPEG - comprende una variante lossless JPEG-LS[1] (poco utilizzata)• JPEG 2000 - comprende un metodo di compressione lossless• JBIG2 - comprende una compressione lossless di immagini in bianco e nero• TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o

lossy (JPEG)• WMPhoto - Contempla un meodo di compressione lossless• Qbit Lossless Codec - Dedicato alla compressione intra-frame• RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF• FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF

Video• Huffyuv [2]• CorePNG [3]• MSU Lossless Video Codec [4]• Sheervideo [5]• LCL [6]• Qbit Lossless Codec [7]• Animation codec [8]• Lagarith [9]• H.264/MPEG-4 AVC• Motion JPEG2000 comprende anche una variante lossless

Page 44: Tecniche Video

Compressione dati lossless 41

Voci correlate• → Compressione dati lossy• Compressione dati

Note[1] http:/ / en. wikipedia. org/ wiki/ Lossless_JPEG[2] http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html[3] http:/ / corepng. corecodec. org/[4] http:/ / compression. ru/ video/ ls-codec/ index_en. html[5] http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php[6] http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm&

langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools[7] http:/ / www. qbit. com[8] http:/ / en. wikipedia. org/ wiki/ Animation_codec[9] http:/ / lags. leetcode. net/ codec. html

Joint Photographic Experts Group

Sviluppatore Joint Photographic Experts Group

Tipo Compressione dell'immagine

→ Lossy / → Lossless lossy (solitamente) e lossless

Licenza Royality free

Sito web http:/ / www. jpeg. org

|+ style="text-align: center; font-size: larger; margin-left: inherit;" | Joint Photographic Experts Group (JPEG)JPEG è l'acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standardinternazionale di compressione per → immagini a tono continuo, sia a livelli di grigio che a → colori. È un formatogratuito e open-source.Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni piùcomuni per questo formato sono .jpeg, .jpg, .jfif, .JPG, .JPE, anche se il più comune in tutte le piattaforme è .jpg.JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questopuò essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File InterchangeFormat), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione sucomputer di uno stream JPEG. Nell'uso comune, quando qualcuno parla di "file JPEG" generalmente intende un fileJFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempioJNG.

Page 45: Tecniche Video

Joint Photographic Experts Group 42

Da Raster Image a JPEGEssenzialmente il JPEG opera in 3 passi fondamentali per trasformare un'immagine raster in una JPEG e viceversa.Tali passi sono:• Rappresentazione in ambito frequenziale tramite DCT (trasformata discreta del coseno) se opera in modalità →

lossy, uso dei predittori in modalità → lossless.• Quantizzazione effettuata tramite opportune matrici, che solitamente, pesano i coefficienti di ordine più basso

(rappresentano le basse frequenza spaziali) in maniera più decisa, in quanto, per le proprietà della DCT, sono piùimportanti ai fini della sintesi dell'immagine. Questo perché il sistema visivo umano percepisce maggiormente lebasse frequenze spaziali rispetto alle alte frequenze, risulta quindi necessario dare maggior importanza alle bassefrequenze spaziali.

• Codifica entropica ed eliminazione delle ridondanze di tipo statistico tramite codifica RLE e codici di Huffman;la componente continua della DCT invece è codificata in DPCM.

Il fattore di compressione che si può raggiungere è determinato essenzialmente da un parametro di scalature per lematrici di quantizzazione, tanto più piccolo è questo parametro, tanto peggiore è la qualità. Si può ottenere un fattoredi compressione 15:1 senza alterare visibilmente la qualità dell'immagine.

CompressioneLo standard JPEG definisce due metodi di compressione di base, uno basato sull'uso della trasformata discreta delcoseno (DCT) con compressione di tipo "→ lossy" cioè con perdita di informazione, l'altro sull'uso di un metodopredittivo con compressione di tipo "→ lossless" cioè senza perdita di informazione. L'algoritmo base dello JPEG ditipo "lossy" viene detto "baseline", inoltre sono state definite delle estensioni opzionali del metodo "lossy" per lacompressione di tipo gerarchico e progressivo.Esempio di immagine compressa con l'algoritmo standard a diverse qualità:

JPEG qualità 10% - 3,2 Kb JPEG qualità 50% - 6,7 Kb

JPEG qualità 90% - 30,2 Kb JPEG qualità 100% - 87,7 Kb

Page 46: Tecniche Video

Joint Photographic Experts Group 43

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamenteosservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.Tra questi il più tipico per il formato JPEG (come per tutti i formati che si basano sulla DCT) è la quadrettatura o"blocking"; oltre ad esso si verificano fenomeni di "ringing" (fenomeno di Gibbs) e "blurring" o "blur" (sfocatura).

UtilizzoJPEG/JFIF è il formato più utilizzato per la memorizzazione di fotografie. È inoltre il formato più comune su WorldWide Web.Non è invece adatto per disegni geometrici, testo o icone, per cui sono utilizzati comunemente i formati → PNG eGIF.

Altri formati di compressione "lossy"Nuovi metodi lossy, in particolare basati sulle DWT (Discrete Wavelet Transform), garantiscono migliori risultati inalcuni casi.Il comitato JPEG ha creato un nuovo standard basato su wavelet, JPEG2000, con la prospettiva di sostituire neltempo lo standard JPEG.

Voci correlate• → Immagine digitale• Elaborazione digitale delle immagini• Trasformata discreta del coseno

Collegamenti esterni• (EN) Sito ufficiale JPEG [1]

• (EN) Formato file JFIF [2]

Note[1] http:/ / www. jpeg. org/[2] http:/ / www. w3. org/ Graphics/ JPEG/ jfif3. pdf

Page 47: Tecniche Video

Portable Network Graphics 44

Portable Network Graphics

Portable Network Graphics (PNG)

Estensione .png

Sviluppatore Thomas Boutell (ideatore originario)

Tipo Compressione dell'immagine

Licenza BSD-Like/GPL

Sito Web http:/ / www. libpng. org

Confronto tra immagine JPEG (a sinistra) e PNG (adestra)

In informatica, il Portable Network Graphics (abbreviato PNG)è un formato di file per memorizzare immagini.

Storia

Il PNG è stato creato nel 1995 da un gruppo di autori indipendentie approvato il 1º ottobre 1996 dal World Wide Web Consortium(W3C), terminando il suo iter nel gennaio 1997 come oggetto delRequest for Comments (RFC) 2083.

L'ideazione del PNG avvenne in seguito all'introduzione delpagamento di royalties dell'allora popolarissimo e usatissimoformato GIF. Infatti nel 1994 i detentori del brevetto deciseroimprovvisamente di chiedere un pagamento per ogni programmache utilizzasse il loro formato. La prima reazione della comunitàinformatica a tale improvviso cambiamento fu la sorpresa, a cui

seguì la scelta di indirizzarsi verso lo sviluppo di un'alternativa.

Il formato PNG è superficialmente simile al GIF, in quanto è capace di immagazzinare immagini in modo →lossless, ossia senza perdere alcuna informazione, ed è più efficiente con immagini non fotorealistiche (checontengono troppi dettagli per essere compresse in poco spazio).Essendo stato sviluppato molto tempo dopo, non ha molte delle limitazioni tecniche del formato GIF: puòmemorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per latrasparenza (canale alfa). Esiste inoltre un formato derivato, Multiple-image Network Graphics o MNG, che è simileal GIF animato.

CaratteristicheIl formato PNG supporta:

Immagine PNGOpaca a sinistratrasparente a destra

• gestione dei colori classica tipo bitmap oppure indicizzata;

Page 48: Tecniche Video

Portable Network Graphics 45

• possibilità di trasmettere l'immagine lungo un canale di comunicazione seriale (serializzazione dell'immagine);• visualizzazione progressiva dell'immagine, grazie all'interlacciamento della medesima;• supporto alla trasparenza mediante un canale alfa dedicato, ampliando le caratteristiche già presenti nel tipo

GIF89a;• informazioni ausiliare di qualsiasi natura accluse al file;• completa indipendenza dall'hardware e dalla piattaforma in uso;• compressione dei dati di tipo lossless;• immagini truecolor fino a 48 bpp;• immagini in scala di grigio sino a 16 bpp;• filtro dei dati prima della (eventuale) compressione;• correzione della gamma dei colori presenti nell'immagine, per riprodurre esattamente quanto visualizzato all'atto

della creazione dell'immagine;• (debole) verifica dell'integrità dei file;• rapida presentazione iniziale dell'immagine grazie alla visualizzazione progressiva.

ApplicazioneL'utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere oleggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG,che trovò così più largo utilizzo.Nel giugno 2003, il brevetto originale sul formato GIF è scaduto, ma solo negli USA. Nel resto del mondo è scadutodurante il 2004.Nonostante questo, nulla lascia sospettare che l'utilizzo del PNG diminuirà come conseguenza.

Voci correlate• → Immagine digitale

Page 49: Tecniche Video

46

Formati del video digitale

VideoIl video (dal latino "vidēre") è l'informazione elettronica[1] rappresentante un'immagine che può variare nel tempo,quindi sia la cosiddetta immagine fissa (immagine che non varia nel tempo) che le cosiddette immagini inmovimento (immagine che varia nel tempo). In particolare il video è un flusso informativo in quanto sia l'immaginefissa che le immagini in movimento presentano sempre una dimensione temporale.[2] Flusso informativo che scorreall'interno di apparecchiature elettroniche sotto forma di corrente elettrica per essere manipolato, viaggia nello spaziosotto forma di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o→ luce, per essere trasmesso a distanza, viene memorizzato sotto varie forme su vari tipi di supporti per essereconservato.

Ambiti di impiego del videoIl concetto di video nasce con l'invenzione della televisione, negli anni venti del Novecento. La televisione infatti èun'informazione elettronica rappresentante immagini in movimento e suono, nonostante non vada dimenticato che lascansione e la riproduzione delle immagini erano in un primo momento meccaniche e non elettriche.Il secondo impiego del termine video appare con i primi display a tubo a raggi catodici (CRT) come strumento diinterazione tra computer ed essere umano, attraverso l'utilizzo delle prime interfacce a linea di comando (CLI). Ilprimo computer dotato di display CRT è stato il Whirlwind I, progettato presso il Massachusetts Institute ofTechnology e divenuto operativo nel 1950. Prima gli strumenti di interazione tra computer e uomo furono la schedaperforata, la telescrivente elettromeccanica e la lampadina. Tutt'oggi il video è impiegato per visualizzare le moderneinterfacce grafiche (GUI) sui vari tipi di display.Il terzo impiego del video è stato nella ripresa di immagini in movimento per uso privato sia in ambito aziendale cheamatoriale. In particolare in ambito amatoriale a partire dal 1982, anno in cui sono state introdotte sul mercato leprime videocamere portatili amatoriali. La videoregistrazione, cioè la registrazione di immagini in movimento informa elettronica, ha infatti sostituito col passare degli anni ormai completamente, per quanto riguarda la ripresa diimmagini in movimento per uso privato, l'unica altra tecnica di registrazione di immagini in movimento esistenteideata nel 1895 dai fratelli Lumière e basata sulla pellicola cinematografica.Il quarto impiego del video è stato l'home video, cioè il settore commerciale della distribuzione in ambito domesticodi contenuti audiovisivi in forma elettronica. Prima della nascita dell'home video per la distribuzione di contenutiaudiovisivi in ambito domestico veniva utilizzata la pellicola cinematografica.Da pochi anni si è infine iniziato ad impiegare il video anche nel cinema, non solo per la realizzazione di effettispeciali in computer grafica, come era stato in precedenza, ma anche in sostituzione della pellicola cinematografica. Ifilm vengono distribuiti alle sale cinematografiche in forma elettronica invece che su pellicola cinematografica eproiettati con appositi videoproiettori. Spesso sono girati in pellicola e poi trasformati in informazione elettronicasolo per la distribuzione nelle sale, ma sono anche girati direttamente in forma elettronica con apposite videocamere.I film d'animazione realizzati con la computer animation sono invece già in forma elettronica.In ordine di tempo, l'ultimo campo di applicazione del video si ha con la fotografia digitale.

Page 50: Tecniche Video

Video 47

Video analogico e video digitaleL'informazione elettronica può essere rappresentata in due forme diverse: analogica o digitale. Il video analogico è ilvideo in cui l'informazione elettronica è rappresentata in forma analogica, il → video digitale è il video in cuil'informazione elettronica è rappresentata in forma digitale.La rappresentazione analogica dell'informazione elettronica è propria dell'elettronica analogica, mentre larappresentazione digitale dell'informazione elettronica è propria dell'elettronica digitale.L'elettronica nasce come elettronica analogica, il primo modo di rappresentare l'informazione elettronica è quindiquello analogico. Nella rappresentazione analogica dell'informazione elettronica l'informazione elettronica varia conanalogia all'informazione che si vuole rappresentare, varia quindi in modo continuo e può assumere un numero moltoalto di valori.Con la realizzazione dell'Atanasoff-Berry Computer nel 1941 nasce l'elettronica digitale. L'Atanasoff-BerryComputer è il primo computer elettronico digitale, il primo computer elettronico quindi in cui l'informazioneelettronica è in forma digitale. Nella rappresentazione digitale dell'informazione elettronica l'informazione che sivuole rappresentare viene codificata in una sequenza di numeri, l'informazione elettronica varia quindi in mododiscreto e assume un numero limitato di valori corrispondente al numero di cifre utilizzate dal sistema numericoscelto. L'Atanasoff-Berry Computer utilizza la numerazione binaria quindi l'informazione elettronica assume solodue valori. L'elettronica digitale basata sulla numerazione binaria diventerà in seguito la tecnologia consueta per larealizzazione dei computer, e il computer, nato come strumento per eseguire calcoli matematici, quindi per trattarenumeri, col passare dei decenni verrà usato per un numero sempre maggiore di scopi, di pari passo con l'aumentodelle capacità di memorizzazione e di calcolo: si inizierà con l'elaborazione di files che rappresentano testi eimmagini statiche, per arrivare a file multimediali, che contengono suoni, musica, video in movimento (film).

Il problema della qualitàPer rappresentare l'informazione, l'elettronica analogica e l'elettronica digitale gestiscono il segnale elettrico in modopraticamente opposto: nella prima il segnale è continuo e gli viene fatto assumere il maggior numero possibile divalori, nella seconda al contrario, al segnale viene fatto assumere il minimo numero di valori con cui è possibilecreare un sistema di rappresentazione dell'informazione, ossia 2, che a livello software equivalgono a "0" e "1" evengono chiamati "bit", e a livello hardware equivalgono ad "assenza di corrente" e a "passaggio di corrente".Per ottenere una rappresentazione di qualità dell'informazione con l'elettronica analogica è necessariaun'implementazione circuitale molto sofisticata in quanto questo tipo di informazione, assumendo un numero moltoalto di valori e variando in modo continuo, è molto difficile da gestire senza farle subire alterazioni, e un'alterazioneequivale ad una diminuzione della corrispondenza tra il segnale elettrico e il valore che esso vuole rappresentare.Con l'elettronica digitale il problema della qualità assume un significato completamente diverso, dovendo venirconsiderati solo due valori. Con questi due valori vengono formati blocchi di uguale lunghezza e se ne ricavano tuttele combinazioni possibili: ad ognuna di esse viene quindi associato un diverso valore dell'informazione che si vuolerappresentare, il che significa che la codifica dell'informazione stessa produrrà una lunga sequenza di 0 e 1. Come sipuò intuire, qualunque alterazione di intensità che il segnale potrebbe subire non può più intaccare larappresentazione in sé (dovrebbe piuttosto venir provocata una sostituzione casuale degli 0 con gli 1 e viceversa).Con questo sistema di codifica, la qualità arriva a dipendere invece dalla quantità di valori dell'informazione realeche vengono codificati: più valori vengono codificati, più l'informazione digitale sarà ricca di sfumature e dettagli.Lo svantaggio sta però nel fatto che la sequenza di 0 e 1 da dover gestire (cioè elaborare, memorizzare, trasmettere)sarà tanto più lunga quanto maggiore è il numero di dettagli che si vogliono riprodurre. Di conseguenza un contenutodigitale di alta qualità richiede elevate potenze di calcolo e supporti di memorizzazione molto capienti. Un metodoper limitare quest'ultimo problema è quello della → compressione dei dati.

Page 51: Tecniche Video

Video 48

L'inarrestabile aumento della potenza di calcolo dei processori e della capacità delle memorie, unito al paralleloabbattimento dei costi, nel corso degli anni ha fatto diventare le tecnologie digitali la scelta privilegiata, visti i suoiindubbi vantaggi. Per questo è in atto ormai da vari decenni un progressivo passaggio al digitale, anche in ambiti incui l'elettronica non è mai stata usata, come ad esempio nel cinema, dove la pellicola cinematografica è sempre statapreferibile.Il vantaggio di sostituire la pellicola con l'elettronica digitale sta principalmente nel fatto che con quest'ultima ilmateriale girato è memorizzabile su supporti come i dischi ottici, che hanno una lunghissima durata nel tempo ed èsempre possibile effettuare copie identiche dell'originale. La pellicola cinematografica al contrario subisce uninevitabile degrado nel corso del tempo, anche se conservata in ambienti climaticamente controllati (temperatura,umidità, illuminazione, ecc...). La duplicazione stessa della pellicola non risolve il problema in quanto il processo diduplicazione, anche se restituisce un supporto nuovo, produce un degrado dell'informazione allo stesso modo diquanto avviene con la tecnologia analogica.La pellicola cinematografica presenta, per contro, il vantaggio di una completa e ben consolidata standardizzazione,il che la rende comunque molto adatta per materiale da conservare per molto tempo, considerando la rapidaobsolescenza di gran parte dei formati e dei supporti di registrazione impiegati per il video.

Vantaggi del video digitaleI vantaggi del video digitale sono:• è possibile e relativamente facile ottenere una copia identica all'originale, anche se si tratta di una copia della

copia.Con il video analogico invece il degrado della qualità è inevitabile, anche quando la duplicazione è effettuatacon le apparecchiature professionali più sofisticate, e va inoltre a sommarsi tutte le volte che si esegue unacopia della copia.

• è possibile e relativamente facile la trasmissione senza errori in un sistema di telecomunicazioni.Trasmettere informazione elettronica digitale senza errori è possibile e relativamente facile. L'informazioneelettronica analogica invece subisce sempre un certo degrado durante la trasmissione.

• possibilità illimitate di manipolazione.Attraverso appositi software, si va da operazioni di montaggio, all'alterazione delle immagini, come adesempio per la realizzazione di effetti speciali, fino alla realizzazione di filmati completamente artificiali conla computer animation.

Caratteristiche principali del videoLe immagini in movimento, nel video, sono ottenute da immagini fisse visualizzate in rapida sequenza, similmente aquanto avviene nella tecnica cinematografica basata sulla pellicola cinematografica. Le immagini fisse vengonovisualizzate ad una frequenza sufficientemente alta da essere percepite come immagini in movimento e non più comeuna sequenza di immagini fisse. Questo avviene per il fenomeno della persistenza della visione che contrariamente aquanto molti pensano non è dovuto ad un fenomeno di persistenza delle immagini sulla retina ma ad un"assemblaggio" che il cervello esegue secondo meccanismi non ancora del tutto chiariti.Le caratteristiche principali del video sono:• risoluzione video• frequenza delle immagini• tipo di scansione delle immagini• rapporto d'aspetto

Page 52: Tecniche Video

Video 49

Risoluzione video

Confronto di risoluzioni televisive

In ambito elettronico le immagini sono visualizzate come unagriglia ortogonale di aree uniformi. Tale griglia ortogonale diaree uniformi è chiamata raster e, esclusivamente in ambitodigitale, tali aree uniformi sono chiamate → pixel.

La risoluzione video è la risoluzione dell'immagine video. Piùspecificatamente è il numero di aree uniformi checompongono in senso orizzontale e in senso verticale il raster.

In ambito digitale, dove le aree uniformi del raster sonochiamate pixel, la risoluzione video è espressa in pixel. Inambito analogico invece la risoluzione video è espressa inlinee, in rifermento al metodo di visualizzazione di un'immagine elettronica utilizzato in ambito analogico (in ambitoanalogico un'immagine elettronica viene visualizzata una linea orizzontale alla volta partendo dall'alto verso ilbasso).

Il numero di aree uniformi che compongono in senso orizzontale il raster di un'immagine video è chiamatorisoluzione orizzontale. Mentre il numero di aree uniformi che compongono in senso verticale il raster diun'immagine video è chiamato risoluzione verticale.Le aree uniformi che compongono il raster sono gli elementi base che compongono l'immagine video. Quindi più èalta la risoluzione video, più è alto il numero di elementi da cui è composta l'immagine video. E più è alto il numerodi elementi da cui è composta l'immagine video, maggiore è la qualità dell'immagine video.

Notazione della risoluzione video

La risoluzione di un segnale video analogico viene generalmente indicata con il numero di linee verticali. Un segnaleanalogico non ha un numero discreto di punti orizzontali, ma la sua risoluzione viene espressa in genere nel numerodi linee risolvibili (per esempio, 250 o 350), che dipende fortemente del mezzo utilizzato per la trasmissione o larisoluzione, oppure in MHz, intesi come larghezza di banda del segnale di luminanza, secondo la relazione:

80 linee = 1 MHzVa detto tuttavia che è di uso comune, anche se scorretto, riferirsi alla risoluzione in termini di pixel orizzontali perverticali, come si va con il video digitale, per maggiore semplicità. Inoltre, il sistema di codifica colore (NTSC, PAL,o SÉCAM) viene di solito usato come denominazione dello standard video completo: molto spesso anche su supportidigitali come il → DVD viene indicato che il video è in formato PAL anche se, naturalmente, non c'è nessun videosul DVD registrato in questo formato.La notazione che si usa per indicare la risoluzione video digitale è la seguente:

A×Bdove A e B sono il numero di aree uniformi che compongono rispettivamente in senso orizzontale e in sensoverticale il raster dell'immagine video.Ad esempio il video usato negli standard televisivi digitali adottati in Italia ha 768 e 576 aree uniformi checompongono rispettivamente in senso orizzontale e in verticale il raster. Tale risoluzione video viene indicata con lanotazione 768×576.

Page 53: Tecniche Video

Video 50

Frequenza delle immaginiLa frequenza delle immagini, anche chiamata frame rate, è il numero di immagini per unità di tempo che vengonovisualizzate. Varia da sei a otto immagini al secondo (fps) per le vecchie macchine da presa a 120 o più per le nuovevideocamere professionali. Gli standard PAL (Europa, Asia, Australia, etc.) e SECAM (Francia, Russia, partidell'Africa etc.) hanno 25 fps, mentre l'NTSC (USA, Canada, Giappone, etc.) ha 29.97 fps. La pellicola ha unaregistrazione ad un frame rate minore, 24fps. Per raggiungere l'illusione di un' immagine in movimento il frame rateminimo è di circa 10 fotogrammi al secondo.

Tipo di scansione delle immaginiLe immagini che compongono il video possono essere visualizzate secondo due metodologie diverse di scansione: lascansione interlacciata, anche chiamata interlacciamento (dall'inglese "interlace"), e la scansione progressiva(dall'inglese "progressive"). L'interlacciamento è stato creato come un metodo per ottenere una buona qualità divisualizzazione nelle limitazioni di una banda di segnale ristretta. Le linee di scansione orizzontali di ognifotogramma interlacciato sono numerate consecutivamente e divise in due field: i "field dispari" che consistono nellelinee di numeri dispari, e i field pari, caratterizzati invece dalle linee di numeri pari. PAL, NTSC e SECAM sono peresempio dei formati interlacciati. Le sigle indicanti le risoluzioni video includono una lettera "i" per indicare chesono formati che sfruttano l'interlacciamento. Per esempio il formato video PAL è specificato molto spesso come576i50. Il primo numero indica la risoluzione delle linee verticali, la lettera "i" indica l'interlacciamento, e il secondonumero indica 50 field (mezzi fotogrammi) al secondoNel sistema a scansione progressiva (tipica dei monitor per computer) si ha un aggiornamento continuo di tutte lelinee dello schermo, con il risultato di una maggiore risoluzione, e una mancanza di vari artefatti che possono far"vibrare" parzialmente un'immagine ferma o con particolari combinazioni di colori e linee in finissima successione(effetto moiré)La procedura della rimozione dell'interlacciamento (deinterlacing) viene usata per convertire segnali interlacciati(analogici, → DVD, o satellitari) in modo che possano essere utilizzati da apparecchi a scansione progressiva (cometelevisori a cristalli liquidi, videoproiettori o pannelli al plasma). L'eliminazione dell'interlacciamento non puòcomunque ottenere una qualità video uguale a quella che offrono gli apparecchi a scansione progressiva in quanto laquantità di dati che il segnale contiene è pressoché la metà.

Rapporto d'aspetto

Confronto di aspect ratio in cinematografia (blu e rosso) e televisione(verde)

Il rapporto d'aspetto, o Aspect ratio (immagine) oDisplay aspect ratio (DAR), del video è la proporzionetra la larghezza e l'altezza dell'immagine video quindidelle singole immagini che compongono il video.Solitamente l'aspect ratio di uno schermo televisivo è4:3 (o 1.33:1) (nota bene: dividendo la risoluzioneorizzontale di 768 per la risoluzione verticale di 576(PAL), si ottiene proprio 1,33). I televisori ad altadefinizione usano un'aspect ratio di 16:9 (circa 1.78:1).L'aspect ratio di un frame di pellicola da 35 mm concolonna sonora (nota come "Academy standard") è circa 2.37:1.

Page 54: Tecniche Video

Video 51

Altre caratteristiche del video

Pixel aspect ratioPare logico supporre che i singoli "punti" o pixel che compongono le immagini televisive siano quadrati, e invece siparla di "pixel rettangolari" proprio per definire quei formati che hanno un pixel aspect ratio diverso da uno. I duemaggiori standard televisivi hanno infatti pixel aspect ratio di 1,066 (PAL) e 0,9 (NTSC). I monitor per computerhanno invece pixel aspect ratio quadrato.L'aspect ratio dei pixel deve essere particolarmente preso in considerazione quando si vogliono trasferire disegnirealizzati con un programma grafico da PC in un video DV o PAL DVD.Infatti un video PAL ha una risoluzione di 768x576 pixel mentre in DV o in PAL DVD vengono memorizzati720x576 pixel; questo significa che in fase di visualizzazione in un TV i pixel verrano resi rettangolari (inorizzontale) per compensare i 48 pixel mancanti.Se si disegna un cerchio con un programma di grafica su di un frame da 720x576 e poi si importa in un programmadi montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà una ellisse.Invece se si disegna un cerchio con un programma di grafica su di un frame da 768x576 e poi si importa in unprogramma di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà correttamente un cerchio.Per lo stesso motivo se si lavora in 16:9 il cerchio deve essere disegnato su di un frame da 1024x576, quando vieneimportato il programma di montaggio provvede a comprimerlo in orizzontale (render PAL DVD 720x576 16:9anamorfico), in fase di visualizzazione l'apparecchio televisivo con schermo da 16:9 effettua uno zoom in orizzontaleriportando il cerchio al suo aspetto originale.

Storage aspect ratioAttraverso la combinazione delle proporzioni di come le immagini vengono mostrate (DAR) e di come vengonovisualizzati i singoli pixel (PAR) otteniamo la proporzione di memorizzazione fisica su file (SAR) secondo loformula PAR = DAR / SAR

Video 3DIl video 3d, video digitale in tre dimensioni, è nato alla fine del XX secolo e si crea usando sei o otto videocamerecapaci di misurare la profondità della scena e salvando le registrazioni in → MPEG-4 Part 16 Animation FrameworkeXtension (AFX).La risoluzione per i video in tre dimensioni è misurata in voxels (volume picture element, rappresentanti un valorenello spazio tridimensionale). Per esempio una risoluzione a 512×512×512 voxels, attualmente utilizzata per unsemplice video in tre dimensioni, può anche essere visualizzata in alcuni PDAs.

Page 55: Tecniche Video

Video 52

Descrizione

Standard video analogici: verde chiaro - NTSC, giallo - PAL, o in conversione alPAL, arancio - SECAM, oliva - nessuna informazione

Il termine video si riferisce generalmente aiformati di archiviazione delle immagini inmovimento: i formati video digitali, come→ DVD, QuickTime e → MPEG-4, evideocassette analogiche, come VHS eBetamax. I video possono essere registrati etrasmessi attraverso vari media fisici:pellicole di celluloide da macchine da presa,segnali elettrici PAL o NTSC se registrati davideocamere, o media digitali come →MPEG-4 o DV se registrati da videocameredigitali.

La qualità del video dipende essenzialmentedal metodi di registrazione e archiviazione.La televisione digitale (DTV) è un formato relativamente recente, con alta qualità ed è diventata lo standard per latelevisione.

Formati video

Standard dei display video Standard della connessione video

• Digitale:

• Super Hi-Vision (Televisione ad Altissima Definizione in fase di sperimentazione)• → HDTV (High Definition Television: Televisione ad Alta Definizione)• ATSC (USA, Canada, etc., Advanced Television Systems Committee)• DVB (Europa, Digital Video Broadcasting)• ISDB (Giappone, Integrated Services Digital Broadcasting)

• → Video composito (1 RCA o BNC)

• Analogico:

• MAC (Europa - Obsoleto)• MUSE (Giappone-analog HDTV)• NTSC (USA, Canada, Giappone, etc., National Television System(s) Committee)• PAL (Europa, Asia, Australia, etc., Phase-Alternating Line)

• PALplus (Estensione del PAL. Europa)• SECAM (Francia, ex-USSR, Africa centrale, Séquentiel Couleur Avec Mémoire:

Colore sequenziale con memoria)

• → Video a componenti (3 RCA o BNC)

• Connettore video D4 (nuovo per l'→ HDTV)

• S-Video (da Separated Video, 1 mini-DIN)• SCART (usato in Europa)• DVI (solo per video non compressi). HDCP

opzionale.• HDMI (video e audio non compressi). HDCP

obbligatorio.

Page 56: Tecniche Video

Video 53

• Connettore RF (da connettore coassiale RadioFrequency)

• Connettore BNC (Bayonet Niell-Concelman)• Connettore C (connettore Concelman)• Connettore GR (connettoreGeneral Radio)• Connettore F (usato per le TV domestiche negli

Stati Uniti)• IEC 169-2 (Connettore IEC, usato per lo più nel

Regno Unito)• Connettore N (connettore Niell)• TNC (Threaded Niell-Concelman)• Connettore UHF (es. PL-259/SO-239)• SDI e HD-SDI

• Connettore VGA connector (DB-9/15 o mini subD15)

• -VGA (usato per i computer portatili)

Supporti video analogici (vedi televisione analogica) Supporti video digitali (vedi → video digitale)

• VERA (formato sperimentale della BBC, ca. 1958) • D1 (Sony)• U-matic (Sony) • D2 (Sony)• Betamax (Sony) • D3• Betacam • D5 (standard di videoregistrazione)• Betacam SP • Digital Betacam (Sony)• 2 pollici Quadruplex (Ampex) • Betacam IMX (Sony)• 1 pollice standard C (Ampex e Sony) • High Definition Video• VCR, VCR-LP, SVR • ProHD (JVC)• VHS (Video Home System, JVC) • D-VHS (Digital - Video Home System, JVC)• S-VHS (Super - Video Home System, JVC) • DV (Digital Video)• VHS-C (Video Home System - Compact, JVC) • DVCAM (Sony)• S-VHS-C (Super- Video Home System - Compact, JVC) • MiniDV (Mini Digital Video)• Video 2000 (Philips) • MicroMV• Video8 e Hi8 (High Band 8) • Digital8 (Digital Video 8, Sony)

Supporti a disco ottico Supporti digitali

• → DVD (già Super Density Disc, DVD Forum) • CCIR 601 (ITU-T)• Laserdisc (vecchio, MCA e Philips) • M-JPEG (ISO)• Blu-ray (Sony) • MPEG-1 (ISO)• Versatile Multilayer Disc (New Media Enterprise inc.) • MPEG-2 (ISO)• Enhanced Versatile Disc (EVD, sostenuto dal governo cinese) • → MPEG-4 (ISO)• HD DVD (Hitachi e Toshiba) • H.261 (ITU-T)

• H.263 (ITU-T)• H.264/MPEG-4 AVC (ITU-T + ISO)• → Ogg-→ Theora

Page 57: Tecniche Video

Video 54

Voci correlate• Generalità

• Audio• Videoclip• Interfaccia video

• Formati video

• Televisione• Televisione digitale• Televisione satellitare• Interlacciamento• Scansione progressiva• Telecine• → Codec video• Timecode• → Spazio dei colori• → RGB• YUV• → Risoluzioni standard

• Caratteristiche

• Pixel aspect ratio (PAR)• Display aspect ratio (DAR)• Storage aspect ratio (SAR)• Aspect ratio (immagine)• Video anamorfico• Formati cinematografici• 24p

• Uso del video

• Videoarte• Televisione a circuito chiuso• Videoproiettore

Altri progetti

• Wikimedia Commons contiene file multimediali su Video• Wikizionario contiene la voce di dizionario «Video»

Note[1] "Informazione elettronica" non è intesa nel limitato senso di "informazione in forma elettronica", cioè di informazione che si presenta

esclusivamente in forma di corrente elettrica (quando è trasmessa diventando un segnale elettrico) o di tensione elettrica (quando èmemorizzata in un circuito elettronico), ma nel più ampio senso di "informazione manipolata da un'apparecchiatura elettronica", quindi diinformazione che può assumere una moltitudine di forme diverse (ad esempio la forma di magnetismo quando è memorizzata in unavideocassetta oppure la forma di luce all'interno di una fibra ottica quando è trasmessa a distanza).

[2] L'mmagine fissa, diversamente dalle immagini in movimento, non ha una natura temporale. Acquisisce una dimensione temporale quando èrappresentata in forma di video in quanto in tale forma è continuamente ridisegnata.

Page 58: Tecniche Video

Video digitale 55

Video digitalePer video digitale si intende un segnale video che utilizza una rappresentazione digitale, e non analogica, del segnalevideo. Questo termine generico non deve essere confuso con il nome DV, che indica uno specifico formato di videodigitale indirizzato alla grande distribuzione.

Trasporto del segnaleIn ambito professionale, il primo tipo di interfaccia utilizzata, secondo la raccomandazione ITU-R BT.656, è di tipoparallelo. I cavi erano costituiti da 11 doppini, 10 per ciascuno dei bit relativi all’informazione video più uno per ilclock a 27 MHz. La raccomandazione prevede l'uso di connettori D-Sub a 25 contatti.La lunghezza del cavo è un fattore limitante di questo tipo di connessione, potendo raggiungere solo 50 m senzaequalizzazione e 200 m con appropriata equalizzazione.Un tipo di interfaccia più evoluta, la SDI, spicificata dalla stessa ITU-R BT.656 prevede invece l'uso dagli stessicavi coassiali da 75Ω utilizzati in ambito analogico. Questo semplifica grandemente l'integrazione tra i due tipi disegnale e riduce di molto i costi di cablaggio, nonché lo spazio e il peso dei cavi stessi. Per distanze lunghe, è anchepossibile il trasporto su fibra otticaIn campo domestico e amatoriale, le interfacce più comuni per il video digitale sono la firewire e la più recenteHDMI, concepita in particolare per alimentare televisori e monitor ad alta definizione.

Tecniche di registrazioneIl video digitale è spesso registrato su cassetta e distribuito su dischi ottici, solitamente → DVD. Ci sono comunquedelle eccezioni, come le videocamere che registrano direttamente su DVD, videocamere Digital8 che codificanovideo digitale su cassette analogiche convenzionali, e alcune videocamere che registrano video digitale su hard disk.Il successo del video digitale è basato sulla disponibilità di algoritmi di → compressione video che si sono sviluppatifortemente a partire dagli anni '90.Il video digitale è alla base dello sviluppo della → televisione ad alta definizione che, sebbene sia nata alla fine deglianni ottanta come analogica, ha potuto diffondersi e divenire economicamente conveniente solo grazie alle tecnichedi registrazione e trasmissione digitali.

Cenni storiciIl video digitale è stato introdotto per la prima volta nel 1983 dal formato D-1 della Sony, che registrava un segnalevideo component non compresso a definizione standard in forma digitale anziché in forma analogica. A causa delcosto molto elevato, il D-1 fu utilizzato principalmente da grandi network televisivi, e solo limitatamente alavorazioni che richiedevano molte generazioni successive di copie. In seguito sarebbe stato sostituito da sistemi piùeconomici che utilizzavano dati compressi, come il famoso Digital Betacam della Sony, tuttora largamente usaticome formato di registrazione dai grandi produttori televisivi.Il video digitale di tipo amatoriale è apparso per la prima volta in forma di QuickTime, architettura della Apple Computer per formati di dati time-based e di streaming diffusasi in forma ancora grezza intorno al 1990. Inizialmente gli strumenti amatoriali di creazione dei contenuti erano grezzi e richiedevano la digitalizzazione di una sorgente video analogica in un formato che potesse essere elaborato dai computer. Il video digitale amatoriale migliorò rapidamente la sua bassa qualità iniziale, dapprima con l'introduzione di standard di riproduzione come il MPEG-1 e il MPEG-2 (adottati per l'utilizzo in trasmissioni televisive e video su → DVD), e in seguito con l'introduzione del formato di cassette DV. Quest'ultimo permise la registrazione diretta in digitale e semplificò il processo di montaggio, consentendo la diffusione di sistemi completi di non-linear video editing su computer

Page 59: Tecniche Video

Video digitale 56

desktop.

Panoramica tecnicaLe videocamere moderne possono lavorare in due differenti modalità di scansione: interlacciata e a scansioneprogressiva. In modalità interlacciata, le videocamere registrano l'immagine alternando insiemi di righe: vengonoscansionate prima le righe di numero dispari , poi le righe di numero pari, poi di nuovo quelle di numero dispari, ecosì via. Un set di righe pari o dispari è chiamato semiquadro o campoe una coppia di due campi consecutivi diparità opposta è chiamata quadro o fotogramma.Una videocamera a scansione progressiva, invece, registra ogni fotogramma singolarmente, mediante due campiidentici. Quindi, quando entrambi operano allo stesso numero di fotogrammi al secondo, il video interlacciato catturaun numero doppio di campi al secondo rispetto al video progressivo.La pellicola cinematografica standard come la 16mm e la 35mm riprende a una cadenza di 24 o 25 fotogrammi alsecondo. Per il video ci sono due frequenze standard: 30/1,001 (circa 29,97) fotogrammi al secondo e 25 fotogrammial secondo,a seconda che lo standard di partenza sia NTSC oppure PAL.Il video digitale può essere copiato senza perdita in qualità. Non importa per quanti passaggi una sorgente digitalevenga copiata poiché il video si mantiene sempre identico al materiale digitale originale.L'elaborazione e il montaggio del video digitale avviene tramite postazioni non-linear editing, dispositivi costruitiesclusivamente per montare video e audio. Queste macchine possono frequentemente importare materiale sia da unasorgente analogica che digitale. Il video digitale può inoltre essere montato su un personal computer dotato delsoftware e dell'hardware appropriato. Nel mercato degli editor non lineari professionali è molto conosciuto ilsoftware e l'hardware Avid, oltre a Final Cut Pro della Apple e Adobe Premiere Pro. Le sulozioni più usate in campoprofessionale usano computer di fascia alta assistito da hardware apposito.I software di montaggio richiedono generalmente ampio spazio su disco. Il video digitale a compressione standardDV/DVCPRO occupa circa 250 megabyte per minuto o 13 gigabyte per ora, ma l'occupazione aumenta man manoche che si sale con la qualità. In base alle sue caratteristiche però, il video digitale ha un costo significamente basso,considerando tutte le lavorazioni in cui può essere coinvolto. Come termine di paragone, si consideri che il costo diriprese cinematografiche in 35mm si aggira sui 1000€ al minuto, sviluppo e stampa inclusi.Il video digitale è usato largamente al di fuori della cinematografia. La Televisione digitale (incluso la → HDTV adaltà qualità) ha iniziato a diffondersi in molti paesi sviluppati nei primi anni 2000. Il video digitale è inoltre utilizzatonei moderni telefoni cellulari, nei sistemi di videoconferenza e nella distribuzione di media via Internet, come lostreaming video e la distribuzione peer-to-peer.Esistono molti tipi di → compressione video per la diffusione di video attraverso internet e media come i DVD.Alcuni dei codec più diffusi sono MPEG-2, → MPEG-4, Real Video, Windows Media Video e il più recente H.264.Probabilmente i formati più utilizzati per la diffusione di video attraverso internet sono → MPEG-4 e WMV, mentreMPEG-2 è usato quasi esclusivamente per i DVD.Al 2005, la risoluzione più alta realizzata con un video digitale è di 33 megapixel (7680 x 4320) a 60 fotogrammi alsecondo (nel formato UHDV), anche se soltanto in un test di laboratorio. La velocità più alta è ottenuta davideocamere ad alta velocità in ambito industriale e scientifico, le quali sono capaci di filmare video di risoluzione1024 x 1024 con un milione di fotogrammi al secondo per brevi periodi di registrazione.

Page 60: Tecniche Video

Video digitale 57

Interfacce/CaviPer soddisfare i requisiti di trasferimento dei video digitali non compressi (di circa 400 Mbit/s) sono state realizzateinterfacce specifiche:• Serial Digital Interface• FireWire• HDMI• Digital Visual Interface• DisplayPort

Formati di memorizzazione

CodificaTutti i formati correnti elencati di seguito sono basati su PCM.• CCIR 601 — usato per le stazioni di trasmissione• → MPEG-4 — diffuso nella distribuzione online e nella registrazione di video su memoria flash• MPEG-2 — diffuso per DVDs e Super-VCD e impiegato nella trasmissione video digitale DVB• MPEG-1 — diffuso per VCD• H.261• H.263• H.264 — conosciuto anche come MPEG-4 Part 10 o AVC Impiegato per HD DVD e Blu-ray Disc• → Theora — standardizzato ma ancora in sviluppo

Cassette• Betacam SX, Betacam IMX, Digital Betacam — sistemi video commerciali di Sony, orientati al mercato

professionale e broadcast. Il tipo di videocassetta deriva dal foramto domestico Betamax• D1, D2, D3, D5, D9 o Digital-S — vari standard per video digitali commerciali definiti dalla SMPTE• DV, MiniDV — diffusi nella maggior parte delle videocamere a cassette di larga distribuzione; progettato per

video ad alta qualità facile da montare; possono anche registrare dati in alta-definizione (HDV) in formatoMPEG-2

• DVCAM, DVCPRO — diffusi nelle operazioni di trasmissione professionali; simili al DV e compatibili con esso,offrono miglior trattamento dell'audio

• Digital8 — dati in formato DV registrati su cassette compatibili Hi8; formato diffuso nell'uso amatoriale• MicroMV — dati in formato MPEG-2 registrati su cassette di dimensioni molto ridotte; in disuso• D-VHS — dati in formato MPEG-2 registrati su cassette simili alla S-VHS

Dischi ottici• Video CD (VCD)• → DVD• HD DVD• Blu-ray Disc• Sony ProDATA• XDCAM

Page 61: Tecniche Video

Video digitale 58

Voci correlate• DV• Audio digitale• Cinema digitale• Digital Visual Interface• Serial Digital Interface• → DVD• Videocamera• Televisione• → Video• Video editing• Webcam

Bibliografia• Barbero, Shpuza, Interfacce video, Elettronica e Telecomunicazioni, n.3 Dicembre 2006

Compressione video digitaleUn segnale tv trasformato in formato digitale rappresenta una grande mole di dati da elaborare che va oltre allecapacità degli attuali sistemi di diffusione tra cui i transponder satellitari. Questa enorme quantità di dati per esseresfruttata nelle trasmissioni tv satellitari richiede un trattamento di "compressione" che si concretizza nellaapplicazione dello standard MPEG-2. Anche se il segnale non deve venire trasmesso, comunque, sono spessonecessarie tecniche di compressione per poterlo registrare o elaborare.La digitalizzazione del segnale video ha una storia meno recente di quella del sistema MPEG. Già dal 1982 il CCIR,organo consultivo internazionale che oggi è sostituito dalla sezione raccomandazioni dell'ITU denominata ITU-R,definì le specifiche CCIR 601 "Encoding Parameters of Digital Television for Studios" (vedi collegamenti esterni).Nell'ultima edizione del 1990, CCIR 601-2, ci sono le basi dell'odierno sistema televisivo digitale e tale specifica èoggi il punto di riferimento costante per chiunque operi nel campo della digitalizzazione video. Le CCIR 601 hannopermesso l'introduzione del video digitale negli studi di produzione televisiva, infatti nel broadcast già da lungotempo vengono impiegate macchine di registrazione video in formato digitale. Solo successivamente, con il DVB ela compressione video, le tecniche digitali sono state applicate alle trasmissioni televisive ed oggi rappresentanol'evoluzione del sistema televisivo in tutte le sue estensioni: via cavo, via satellite e via terrestre.

Linee TV, pixel e campioniUna immagine TV analogica viene normalmente descritta come il risultato di una scansione operata da sinistra versodestra e dall'alto verso il basso. Ogni scansione completa è costituita da 625 linee e, in base allo standard adottato inEuropa, viene ripetuta per 25 volte in un secondo così come in una proiezione cinematografica si hanno 24fotogrammi in un secondo.Le 625 linee tv non vengono impiegate totalmente per descrivere l'immagine. Infatti oltre alle informazioni sulcontenuto di luminanza e crominanza dell'immagine sono necessarie altre informazioni per la cui trasmissionenecessita un periodo di pausa pari al tempo di trasmissione di ben 49 linee. Le linee attive dell'immagine sono quindi576.Nel campo della TV digitale si utilizza invece un'altra modalità di descrizione dell'immagine suddividendola in →pixel. Per ogni linea tv si considerano quindi 720 pixel pertanto una intera immagine tv è formata da 720 x 576 pixel.

Page 62: Tecniche Video

Compressione video digitale 59

Ad ogni pixel sono associati i valori di informazione luminosa dell'immagine, la luminanza (Y), e i valori relativi alcolore, la crominanza (C). Ogni pixel è quindi costituito da campioni di luminanza e crominanza in numero variabilein funzione del livello qualitativo che si deve ottenere, descritto nella raccomandazione CCIR 601 (vedi anchetelevisore).

Dall'analogico al digitale 4.2.2Le specifiche CCIR 601-2 hanno avuto il grande ruolo di normalizzare le condizioni di digitalizzazione del segnalevideo al fine di facilitare l'intera operabilità tra le macchine e favorire lo scambio dei programmi televisivi. Una altraspecifica, la CCIR 656 ha invece fissato le condizioni di interfaccia tra i sistemi e le apparecchiature destinate altrattamento dei segnali video digitali.Secondo le CCIR 601-2 il segnale video digitale standardizzato è costituito dai dati relativi al campionamento di trecomponenti del segnale video: la componente di luminanza Y e due componenti di differenza colore Cb e Cr. Questetre componenti vengono campionate al fine di produrre un segnale digitale formato da 864 campioni di luminanza Ye 432 campioni di crominanza per ogni segnale differenza colore Cb e Cr. Questi valori si riferiscono ad unaimmagine televisiva completa con 625 linee e 50 semi-quadri. L'immagine reale, come abbiamo visto, invece lasciainutilizzate alcune aree pertanto i campioni realmente utilizzati sono di meno in quanto i pixel utili alla descrizionedell'immagine sono 720 in senso orizzontale e 576 in senso verticale.Il rapporto tra i campioni di luminanza e crominanza all'interno dell'immagine è determinato dallo schema di →sottocampionamento della crominanza. Gli schemi maggiormente usati sono tre: 4:2:2, 4:1:1 e 4:2:0.Lo schema 4:2:2 è indicato dalla specifica CCIR 601-2 come lo standard di fatto per l'interscambio dei programmi ela diffusione tv.Gli schemi 4:2:0 e 4:1:1 sono utilizzati da alcuni codec, come il Digital Video, per ridurre ultreriormente la bandaoccupata dal segnale. Questi due schemi richiedono la stessa larghezza di banda, ma l'ordine dei campioni èdifferente.In una immagine video trasmessa nel formato 4:2:2, in orizzontale per ogni linea si hanno due campioni dicrominanza Cb e Cr ogni quattro campioni di luminanza mentre in verticale si ha la successione di linee identiche.Ciò significa che in orizzontale si ha un sottocampionamento mentre in verticale no.

Ridurre la quantità di datiSe proviamo a calcolare il "bitrate" necessario alla trasmissione di un segnale video campionato in 4:2:2 a 8 bitavremo delle amare sorprese in quanto ci troveremo di fronte ad un bit rate necessario di 216 Mb/s, valore moltoelevato. Ovviamente se si escludono le parti non significative dell'immagine ovvero, gli intervalli di cancellazione dilinea e di quadro, si può avere un risparmio in termini di bit rate passando da 216 Mbit/s a 166 Mbit/s.Il "bitrate" è in stretta connessione con la larghezza di banda necessaria per eseguire la trasmissione via radio.Pertanto per poter trasmettere un segnale digitale è necessario adattare il bit rate alla larghezza del canale satellitare.Prendendo ad esempio un canale satellitare largo 33 MHz, questo supporta un Symbol Rate di 24,4 Ms/s cheequivale, in QPSK, ad un bit rate di 48,8 Mb/s (fuori dalla codifica Reed-Solomon e Convoluzionale). Attualmenteviene tollerato un certo degrado di qualità che mantiene il tasso di errori entro valori accettabili, pertanto vieneutilizzato frequentemente un Symbol Rate di 27,5 Ms/s il che equivale ad ottenere un bit rate massimo di 55 Mb/s.Tale bit rate viene ridotto impiegando la codifica convoluzionale e quindi si ottengono diversi valori convenienti dibit rate in funzione del FEC impiegato. Con un FEC di 1/2 si ottiene un bit rate di 25,43 Mb/s mentre con un FEC di7/8 si ottiene un bit rate di 44,35 Mb/s. Attualmente viene largamente impiegato un FEC di 3/4 con il quale si ottieneun bit rate di 38 Mb/s per un canale come quello utilizzato su Hot Bird largo 33 MHz e con un Symbol rate di 27,5Ms/s. I valori ottenuti sono più favorevoli di quelli indicati dalla norma ETS 300 421 "Digital Broadcasting sistemsfor television, sound and data services" e riportati nella tabella 1.

Page 63: Tecniche Video

Compressione video digitale 60

Nonostante le possibilità del sistema di trasmissione, 38 Mb/s sono ancora pochi per supportare la trasmissione di unsegnale video digitale. Per questo motivo entra in gioco il sistema di compressione MPEG-2 adottato dal DVB.Utilizzando la compressione si ottiene una forte riduzione della quantità di dati da trasmettere permettendo così disfruttare un unico canale satellitare per la trasmissione di più programmi televisivi.Basti pensare al fatto che attualmente la migliore qualità di trasmissioni dirette agli utenti richiede un bit rate di circa8 Mbit/s per ogni programma tv. Pertanto ciò lascia intuire che unendo l'MPEG-2 alle tecniche di multiplazionedigitale si possano trasmettere grandi quantità di dati. Ciò è infatti quello che accade con le attuali trasmissionidigitali dove su un solo transponder da 33 MHz può trovare spazio la combinazione di programmi aventi anche traloro un diverso bit rate. Alla base di questo principio sta una importante applicazione, relativa alle tecniche dicompressione, attualmente sperimentata dalle trasmissioni RAI. Tali trasmissioni infatti utilizzano la tecnica di"compressione dinamica" per mezzo della quale il bit rate dei singoli programmi che condividono lo stesso bouquetnon è fisso ma può variare dipendentemente dalle esigenze istantanee di qualità e quindi di bit rate delle singoleimmagini. Ad esempio: un programma sportivo con immagini in forte movimento può avere a disposizione un bitrate istantaneo elevatissimo sfruttando una maggiore compressione degli altri programmi presenti nello stessobouquet.

MPEG-2, indispensabile per il DVBLa televisione digitale DVB (Digital Video Broadcasting) adotta la compressione video chiamata MPEG-2. La siglaMPEG deriva dal nome di un gruppo di lavoro chiamato Motion Pictures Expert Group che riunisce espertiinternazionali del settore con lo scopo di standardizzare le procedure di compressione per servizi televisivi emultimediali. Si tratta in realtà di un gruppo di lavoro ISO/IEC con la complicata sigla identificativaJTC1/SC29/WG11, che opera congiuntamente al gruppo 15, della sezione telecomunicazioni della ITU, che invece sioccupa di codifica video ATM. Il gruppo MPEG collabora anche con la sezione raccomandazioni della ITU, SMPTEe la comunità americana che si occupa di → HDTV.MPEG-2 raggruppa le specifiche divenute standard a tutti gli effetti e fissate al 29º meeting ISO/IEC di Singaporenel novembre 1994. Tali specifiche sono raccolte nel fascicolo ISO/IEC 13813 in tre parti: 13183-1 per il sistema;13183-2 per il video e 13183-3 per l'audio.Esistono altre specifiche MPEG ovvero: MPEG-1, MPEG-3 e → MPEG-4; la prima non è diversa concettualmenteda MPEG-2 ma ha caratteristiche inferiori, mentre MPEG-3 era uno standard per applicazioni con immagini ad altadefinizione → HDTV in seguito abbandonato. L'MPEG-4 è una somma degli standard precedenti, è molto flessibilee supporta molte modalità di compressione con bit rate che possono essere estremamente ridotti o molto ampi.

Collegamenti esterni• Encoding Parameters of Digital Television for Studios [1]

Note[1] http:/ / www-inst. eecs. berkeley. edu/ ~cs150/ fa04/ Documents. htm#Video

Page 64: Tecniche Video

Sottocampionamento della crominanza 61

Sottocampionamento della crominanzaIl sottocampionamento della crominanza è una tecnica che consiste nel codificare immagini riservando maggiorerisoluzione al segnale di luminanza piuttosto che all'informazione di crominanza. È una tecnica utilizzata in moltimodelli di compressione per segnali sia analogici che digitali, ed è usata anche dalla compressione JPEG e MPEG.

Aspetti tecniciUn segnale video, soprattutto se a → componenti, ha una larghezza di banda molto ampia, comportando tutta unaserie di problemi per essere registrato o trasmesso. Di conseguenza, sono spesso usate tecniche di compressione permigliorare la gestione del segnale, aumentare la durata delle registrazione oppure aumentare il numero di canali ditrasmissione. Dal momento che la visione umana è molto più sensibile alle variazioni di livello luminoso piuttostoche ai cambiamenti di colore[1] , si può sfruttare questo principio per ottimizzare la compressione, dedicando piùbanda alla luminanza (Y) e meno alla differenza delle componenti cromatiche (Cb e Cr). Lo schema disottocampionatura 4:2:2 Y'CbCr, per esempio, richiede solo due terzi della banda del (4:4:4) → R'G'B'. Questariduzione è pressoché impercettibile all'occhio umano.

Come funziona il sottocampionamentoIl sottocampionamento della crominanza differisce dalla teoria scientifica nel fatto che le componenti di luminanza ecrominanza sono formate come somma pesata di componenti tristimolo R'G'B' dopo una correzione di gamma,invece che da componenti RGB tristimolo lineari. Come risultato, la luminanza e i dettagli di colore non sono deltutto indipendenti l'una dagli altri, ma avviene una sorta di "miscelazione" tra i due componenti. L'errore è maggiorenei colori molto saturi e si nota nel verde e nel magenta delle barre colore. Invertendo l'ordine delle operazione tra lacorrezione di gamma e la somma pesata dei segnali, il sottocampionamento può essere meglio applicata.

Originale senza sottocampionatura. Ingrandimento 200%.

Immaginedopo la sottocampionatura (compressa con codec DV di Sony Vegas.)

Page 65: Tecniche Video

Sottocampionamento della crominanza 62

Sistemi di campionaturaLo schema di sottocampionatura è normalmente indicato con una notazione a tre cifre (es. 4:2:2) o talvolta a quattrocifre (es. 4:2:2:4). Il significato dei numeri è il seguente:• Riferimento di campionatura orizzontale della Luminanza (in origine, come multiplo della sottoportante a 3.579

MHz in NTSC o di 4.43 MHz in PAL).• Fattore orizzontale Cr (relativo alla prima cifra).• Fattore orizzontale Cb (relativo alla prima cifra), a meno che non sia posto a zero. In questo caso, lo zero indica

che il fattore orizzontale Cb è identico alla seconda cifra e, in aggiunta, sia il Cr che il Cb sono sottocampionati2:1 in senso verticale. Lo zero è scelto affinché la formula di calcolo della larghezza di banda rimanga corretta.

• Fattore orizzontale Alfa (relativo alla prima cifra). Può essere omesso se non è presente un canale alfa.Per calcolare la larghezza di banda necessaria rispetto a un segnale 4:4:4 (o 4:4:4:4), si sommano tutti i fattori e sidivide il risultato per 12 (o per 16 se c'è un canale alfa).

Gli esempi qui sopra sono esclusivamente teorici e a scopo dimostrativo. Si osservi anche che i diagrammi nonindicano nessun filtraggio della crominanza, che dovrebbe essere applicato per evitare l'aliasing.

Tipi di sottocampionamento

8:4:4 Y'CbCrOgnuno dei due componenti di crominanza, Cb e Cr, è campionato alla stessa risoluzione, e il luma al doppio diquesta. Questo schema è usato in telecinema, scanner per pellicole di alta gamma e correttori di colori. Il luma ha ildoppio di larghezza di banda di uno schema 4:4:4, e una tale banda richiede due connessioni per essere trasmessa,chiamate link A e link B, ognuno dei quali trasporta un segnale 4:2:2.

4:4:4 Y'CbCrOgnuno dei tre componenti Y'CbCr è campionato alla stessa risoluzione. Questo schema si usa negli scanner di altagamma e nella post produzione cinematografica. Anche in questo case servono due connessioni: il link A trasportaun segnale 4:2:2, il link B uno 0:2:2.

Page 66: Tecniche Video

Sottocampionamento della crominanza 63

4:4:4 R'G'B' (senza sottocampionamento)La notazione "4:4:4" può riferirsi anche allo spazio colore → R'G'B', che implicitamente non ha nessunasottocampionamento della crominanza. Questo segnale può essere registrato da un videoregistratore HDCAM SR setrasmesso da una connessione dual link.

4:2:2I due campioni di crominanza sono campionati alla metà della risoluzione della luminanza, dimezzando larisoluzione cromatica. Questo riduce la banda del segnale video di un terzo senza quasi perdite percettibili.Molti formato video di alta gamma usano questo schema:• Digital Betacam• DVCPRO50 and DVCPRO HD• DigitalS• CCIR 601 / Serial Digital Interface / D1• ProRes 422

4:2:1Questo schema è definito tecnicamente, ma pochissimi codec lo usano. La risoluzione orizzontale Cb è la metà diquella Cr (e un quarto di quella Y). Questo schema sfrutta il principio che l'occhio umano è più sensibile al rosso cheal blu.

4:1:1Nella sottocampionatura 4:1:1, la risoluzione orizzontale cromatica è ridotta a un quarto. La larghezza di bandarisulta dimezzata rispetto a uno schema non sottocampionato. In alcuni ambienti professionali, lo schema 4:1:1 delcodec DV non era considerato di classe broadcast all'epoca della sua introduzione, e accettabile solo per applicazioninon professionali.[2] [3] Con il tempo, i formati basati su questo codec sono usati invece in ambienti professionali perl'acquisizione di immagini e l'uso nei server video, e, in maniera sporadica, il codec DV è stato usato anche nellacinematografia digitale a basso costo.I formati che usano questo schema includono:• DVCPRO (NTSC e PAL)• DV e DVCAM (NTSC)

4:2:0Questo schema è utilizzato in:• Tutte le versioni di codec MPEG, incluse le implementazioni MPEG-2 come il → DVD (alcuni profili di →

MPEG-4 possono usare schemi di qualità più elevata, come il 4:4:4)• DV e DVCAM (PAL)• HDV• Implementazioni comuni JPEG/JFIF, H.261, e MJPEG• VC-1I componenti Cb Cr sono sottocampionati di un fattore 2 sia verticalmente che orizzontalmente, e centrati a metàdelle linee di scansione verticali.Esistono tre varianti degli schemi 4:2:0, che differiscono per il posizionamento verticale e orizzontale.• In MPEG-2, Cb e Cr coincidono orizzontalmente.

Page 67: Tecniche Video

Sottocampionamento della crominanza 64

• In JPEG/JFIF, H.261, e MPEG-1, Cb e Cr sono posizionati a metà strada, tra i campioni di luminanza (Y)alternati.

• In DV 4:2:0, Cb e Cr sono alternati riga per riga.Gli schemi colore PAL e SECAM sono particolarmente adatti a questo tipo di compressione. La maggior parte deiformati video digitali corrispondenti al PAL usano il sottocampionamento di crominanza 4:2:0, con l'eccezione delDVCPRO25, che usa lo schema 4:1:1. La larghezza di banda necessaria è dimezzata rispetto al segnale pieno perentrambi gli schemi.Con il materiale interlacciato, il sottocampionamento 4:2:0 può creare artefatti sulle immagini in movimento, se ilsottocampionamento viene applicato nello stesso modo del materiale progressivo. I campioni di luminanza, infatti,provengono da semiquadri diversi mentre quelli di crominanza provengono da entrambi i semiquadri. La differenzafra i campioni genera gli artefatti. Lo standard MPEG-2 prevede l'uso di uno schema alternativo per evitare ilproblema, dove la schema 4:2:0 è applicato a ogni semiquadro ma non ad entrambi i semiquadricontemporaneamente.

Originale. *Questa immagine mostra un singolo semiquadro. Il testo in movimento ha subito una sfuocatura.

Campionamento 4:2:0 progressivo applicato a materiale in movimento interlacciato. Si noti che la crominanzaprecede e segue il testo. *Questa immagine mostra un singolo semiquadro.

Campionamento 4:2:0 interlacciato applicato a materiale in movimento interlacciato. *Questa immagine mostra unsingolo semiquadro.Nello schema 4:2:0 interlacciato,ad ogni modo, la risoluzione verticale della crominanza è pressapoco dimezzata dalmomento che i campioni comprendono un'area di 4x2 campioni invece di 2x2. Allo stesso modo, il dislocamentotemporale tra i due semiquadri può portare ad artefatti sui colori.

Immagine fissa originale.

Campionamento 4:2:0 progressivo applicato a un'immagine fissa. Sono mostrati entrambi i campi.

Page 68: Tecniche Video

Sottocampionamento della crominanza 65

Campionamento 4:2:0 interlacciato applicato a un'immagine fissa. Sono mostrati entrambi i campi.Se il materiale interlacciato deve essere deinterlacciato, gli artefatti sulla crominanza (derivati dal campionamento4:2:0 interlacciato) possono essere rimossi sfumando la crominanza verticalmente.[4][5]

4:1:0Questo schema è possibile (alcuni codec lo supportano), ma non molto usato. Prevede metà della risoluzioneverticale e un quarto di quella orizzontale, con solo un ottavo della larghezza di banda originale. Il video noncompresso, in questo formato, con quantizzazione a 8 bit, usa 10 byte per ogni macropixel (4 pixer x 2). La bandadella crominanza è equivalente a quella di un segnale PAL I decodificato con linea di ritardo, e ancora moltosuperiore a un segnale NTSC.• Alcuni codec video posso funzionare con schemi 4:1:0.5 o 4:1:0.25, come opzione, con una qualità superiore a un

nastro VHS e una larghezza di banda simile.

3:1:1Usato dalla SONY per i registratori HDCAM (ma non sugli HDCAM SR), questo schema prevede ilcampionamento orizzontale della luminaza a tre quarti della frequenza di un segnale ad alta definizione, cioè 1440campioni per riga invece di 1920. La crominanza è campionata a 480 campioni per riga, un terzo del campionamentodella luminanza.In senso verticale, entrambi i segnali sono campionati sull'intera banda del segnale (1080 righe).

TerminologiaIl termine Y'UV si riferisce a uno schema analogico di codifica mentre Y'CbCr si riferisce a uno schema digitale.Una differenza tra i due schemi è che i fattori di scala dei componenti di crominanza (U, V, Cb, and Cr) sonodifferenti. Comunque, il termine YUV è spesso erroneamente usato per riferirsi alla codifica Y'CbCr. Comeconseguenza, notazioni come "4:2:2 YUV" si riferiscono sempre allo schema 4:2:2 Y'CbCr dal momento che nonesiste un sottocampionamento 4:x:x nella codifica analogica (come è lo YUV).In maniera simile, il termine luminanza e il simbolo Y sono spesso usata per riferirsi al luma, indicato con il simboloY'. Si noti che il il luma (Y') della tecnologia video differisce dalla luminanza luminance (Y) usata come terminescientifico (definito dalla CIE). Il Luma è dato dalla somma pesata dei componenti tristimolo RGB dopo lacorrezione di gamma, mentre la luminanza è data dalla somma pesata dei componenti tristimolo RGB lineari.In pratica, il simbolo Y della CIE spesso indica erroneamente il luma. Nel 1993, la SMPTE stabili le EngineeringGuideline EG 28, chiarendo i due termini. Il simbolo primo ′ si usa per indicare la correzione di gamma.I termini croma/crominanza differiscono in maniera simile dalla crominanza intesa in ambito scientifico. lacrominanza della tecnologia video è formata dai componenti tristimolo corretti e non lineari. In questo ambito, itermini croma, crominanza, e saturazione sono di spesso riferiti allo stesso concetto.

Page 69: Tecniche Video

Sottocampionamento della crominanza 66

Si veda anche• Spazio colore• SMPTE - Society of Motion Picture and Television Engineers• DV• Alta definizione• YCbCr• YPbPr• CCIR 601 4:2:2 SDTV• YUV• → Colore• Vista

• Bastoncelli• Coni

Bibliografia• Poynton, Charles. "YUV and luminance considered harmful: A plea for precise terminology in video" [6]• Poynton, Charles. "Digital Video and HDTV: Algorithms and Interfaces." USA: Morgan Kaufmann Publishers,

2003.• Carlo Solarino, Video produzione digitale, Vertical 1999

Note[1] Margaret Livingstone, The First Stages of Processing Color and Luminance: Where and What in Vision and Art: The Biology of Seeing, New

York, Harry N. Abrams2002, pp. 46-67[2] http:/ / www. dvcentral. org/ DV-Beta. html[3] http:/ / www. adamwilt. com/ DV-FAQ-tech. html[4] http:/ / www. dv. com/ news/ news_item. jhtml;?LookupId=/ xml/ feature/ 2003/ wilt0603[5] http:/ / www. hometheaterhifi. com/ volume_8_2/ dvd-benchmark-special-report-chroma-bug-4-2001. html[6] http:/ / www. poynton. com/ papers/ YUV_and_luminance_harmful. html

Page 70: Tecniche Video

Video a componenti 67

Video a componenti

Tre cavi, ognuno con connessione RCA adentrambi i capi, sono spesso usati per trasmettere

segnale video analogico

Il video a componenti, anche noto come component, è una tipologiadi formato → video analogico che si contrappone al → videocomposito.

Il video a componenti si contraddistingue dal video composito per ilfatto di avere le informazioni video distinte in più componenti separate,diversamente dal video composito che invece le miscela in un unicoflusso informativo.Attualmente negli impianti domestici i cablaggi video a componentivengono gradatamente sostiutuiti dai cablaggi digitali DVI e HDMI ingrado di fonire maggiore qualità. In ambito professionale invece ilvideo a componenti è ancora largamente utilizzato nei cablaggi.

Video analogico a componentiI segnali video analogici devono fornire tre informazioni (note anche come componenti) relative ai segnali rosso,verde e blu per creare un'immagine televisiva. Il tipo più semplice di video a componenti, → RGB, consiste di tresegnali discreti rosso, verde e blu trasportati da tre cavi coassiali. Esistono alcune varianti sul formato, relative acome le informazioni di sincronismo sono gestite: se integrate nel canale verde, questo sistema prende il nome disync-on-green (RGsB). Altri schemi usano un canale di sincronismo separato, come per esempio nel caso delconnettore SCART in cui i segnali usano quattro pin (R,G,B + sync) dei ventuno disponibili (RGBS), più una massacomune. Un altro schema possibile è il SVGA, usato a livello globale per i monitor dei computer; questo schema ènoto talvolta come RGBHV, poiché gli impulsi di sincronismo verticali e orizzontali usano a loro volta lineeseparate.Un tipo alternativo di divisione dei componenti non usa i segnali RGB ma, al loro posto, un segnale senzainformazioni di colore, chiamato luminanza (Y) combinato con uno o più segnali che trasportano le informazioni dicrominanza (C). Canali di crominanza più numerosi permettono una maggiore precisione di mappatura nello spaziocolore RGB. Questo schema di separazione è una trasformazione lineare dello spazio colore sRGB, e da luogo al tipodi segnale a cui ci si riferisce di solito quando si parla di video a componenti. Alcune varianti di questo formatoincludono gli schemi YUV, YCbCr, YPbPr e YIQ, che sono comunemente usati nei sistemi video. In questo caso, ilsegnale a componenti viene trasmesso lungo tre cavi coassiali. In ambito televisivo, questo tipo di connessione èmolto comune nei videoregistratori Betacam.Nei sistemi video a componenti, i segnali di sincronizzazione devono essere trasmessi insieme alle immagini, disolito con uno o due cavi separati oppure inseriti nel periodo di cancellazione di uno o di tutti i componenti.Nell'ambito informatico è molto comune avere i sincronismi separati, mentre nelle applicazioni video è più frequenteinserire i sincronismi nel componente Y, che a tutti gli effetti è un segnale televisivo monocromatico completo.Un segnale video a componenti è anche il formato S-Video, che separa luminanza e crominanza su due cavi separati.Questo tipo di connessione, tuttavia, non può trasmettere immagini ad alta definizione o di qualità digitale (intesacome immagini con più di 480 linee interlacciate in NTSC e 576 in PAL). Il video a componenti, invece, è adatto asegnali come 480p, 720p, 1080i e 1080p, mentre è richiesta una connessione digitale come DVI (solo video) eHDMI (che può includere fino a 8 canali audio) per avere i migliori risultati alle risoluzioni più elevate (fino a1080p).Esempi di standard internazionali per il video a componenti sono:• RS-170 RGB (525 linee, basato su temporizzazioni NTSC, e noto ora come EIA/TIA-343)

Page 71: Tecniche Video

Video a componenti 68

• RS-343 RGB (525, 625 o 875 linee)• STANAG 3350 Analogue Video Standard (NATO versione militare dello standard RS-343 RGB)

Voci correlate• Interfaccia video• → Video composito• RCA• S-Video

Video composito

Connettore RCA, usato comunemente per il video composito

Il video composito, acronimo CVBS,[1] [2] è unatipologia di formato → video analogico che sicontrappone al → video a componenti.

Il video composito si contraddistingue dal video acomponenti per il fatto di avere le informazionicomponenti il video (luminanza, crominanza,sincronismi d'immagine e di colore) miscelate in ununico flusso informativo, quindi di norma ha unaqualità peggiore rispetto al video a componenti inquanto è estremamente difficile impedire che lecomponenti video interferiscano tra loro.

Il video composito è trasmesso a distanza attraversocavi coassiali di tipo RG59, o equivalenti, aventi impedenza caratteristica di 75Ω.

Composizione

Connettore BNC, utilizzato per il videocomposito in campo professionale. Questo tipo di

connettore è usato anche per ogni tipo di videoanalogico e digitale.

Lo spettro del video composito può raggiungere i 5,3 MHz. L'ampiezzatipica è di 1 volt picco-picco ma in particolari sistemi può esseresommato ad una componente a tensione continua. Per convenzione siconsidera il livello della base dei sincronismi a -300 mV, il livello delnero a 0 mV e il livello del bianco a 700 mV.

Il video composito è la somma elettrica della luminanza (Y) allacrominanza (C) modulata in ampiezza su una sottoportante a 3.58 MHz(nello standard televisivo NTSC) o 4.433 MHz (nello standardtelevisivo PAL). La crominanza è modulata in frequenza nello standardtelevisivo SÉCAM.

Il sistema della sottoportante di crominanza permette al videocomposito di essere compatibile sia con i sistemi in bianco e nero che acolori. Per contro viene persa parte del dettaglio della banda video checoincide con il centro banda colore quando il video composito viene processato per separare il colore dallaluminanza. Inoltre rari e particolari dettagli della luminanza possono ingannare il decodificatore della crominanza

creando un effetto di battimento detto moiré che si visualizza mediante false bande colorate su immagini composte da righe verticali in bianco e nero molto ravvicinate. Un classico esempio di questo difetto sono abiti e cravatte a

Page 72: Tecniche Video

Video composito 69

righe sottili.

CodificaNello standard PAL il sincronismo della componente colore è detto burst e si compone di dieci cicli di riferimentodella durata di 2.2 μs immediatamente dopo il sincronismo di riga. Il burst serve per sincronizzare in fase l'oscillatorequarzato presente nei ricevitori o monitor.Nello standard PAL (utilizzato anche in Italia) la componente colore è ottenuto attraverso particolari modulazioni diuna portante colore a 4.43361975 MHz. Precisamente la modulazione di ampiezza determina la saturazione delcolore sullo schermo. La modulazione di fase determina la tinta cromatica. Il segnale in bianco e nero, ottenutoattraverso la somma delle componenti primarie di colore (0.11% blu + 0.30% rosso + 0.59% verde) ed èsostanzialmente identico al segnale bianco e nero creato con una sorgente di ripresa in bianco e nero (vidicon,saticon, plumbicon, ccd). Le percentuali così ottenute formano il solo segnale video bianco e nero con ampiezza di0.7 Volt. Al segnale bianco e nero viene sommato il sincronismo orizzontale e verticale di quadro e semiquadro diampiezza -0.3 volt, ottenendo un segnale bianco e nero di 1 VoltLa componente colore viene ottenuto trasmettendo i soli segnali di differenza del rosso e del blu (il verde si ottienesottraendo rosso e blu della luminanza) attraverso la modulazione in quadratura di una portante (carrier) a4.43361975 MHz. I segnali di differenza del rosso e del blu sono derivati dalla sottrazione dagli stessi dellaluminanza e sono indicati come R-Y e B-Y. Questi segnali vengono percentualmente ridotti e ridenominati con V edU a causa di problemi di sovramodulazione nella trasmissione in radiofrequenza del segnale televisivo. Lamodulazione in quadratura si ottiene attraverso la modulazione in ampiezza ed in fase della portante colore. Lamodulazione in ampiezza e fase si ottiene con la modulazione in quadratura, ovvero si utilizzano due portantiderivate dallo stesso oscillatore ma sfasate tra loro di 90° (quadratura), sullo stesso principio del seno/coseno. Unaportante viene modulata dalla differenza del blu, mentre la portante sfasata di 90° viene modulata dalla differenza delrosso. La somma delle due portanti modulate in ampiezza crea il segnale colore. L'ampiezza massima caratteristicadi picco di 0.3 Volt, a 4.433 MHz. Ampiezza e fase sono variabili in funzione del contenuto dei segnali di differenzacolore, ovvero della saturazione e della tinta del soggetto ripreso dalla telecamera o creato attraverso altri sistemiquali videogiochi, computer, macchine fotografiche digitali, eccetera. Nel sistema PAL, per ottenere la correzionedel ritardo di fase presente nel sistema NTSC, dovuto a fattori di trasmissione o distorsione o elaborazione delsegnale che causano variazioni della tinta del colore in riproduzione, viene sfasato prima di + 90°, alla rigasuccessiva di -90° equivalente a +270°. La somma vettoriale di due righe colore soggette ad un ritardo di fase,restituisce la fase corretta in quanto la riga successiva invertita contiene lo stesso segnale a +270° riportato a 90° macon l'errore invertito e vettorialmente annullato. Al segnale colore viene aggiunto, di riga in riga, una serie di 10impulsi (burst) per sincronizzare in fase l'oscillatore quarzato presente nei circuiti di decodifica del colore. Il burstcolore si trova in una zona del segnale che corrisponte ad una zona non visibile della riga visualizzata sullo schermo.Questa zona si trova immediatamente dopo il termine dell'impulso di sincronismo di riga, nel supernero. Il superneroè la cancellazione di traccia ed è il tempo che il fascio di elettroni proiettato sullo schermo impiega per tornare dalmargine destro al margine sinistro.I due segnali, luminanza (bianco e nero + sincronismi) e crominanza (colore + burst), formano il classico segnalecomponent o S - derivato da S-VHS. Con questi due segnali si ottiene un'ottima riproduzione del bianco e nero e deidettagli, ma si ottiene una limitazione nel dettaglio colore. Sommati tra loro formano il segnale video composito.

Page 73: Tecniche Video

Video composito 70

DecodificaI circuiti di decodificazione separano dal segnale video composito il segnale di crominanza ed il segnale diluminanza il quale viene filtrato della componente a 4.433 MHz in modo da non creare un disturbo a reticolatorappresentato dalla componente colore. Apposite ed elaborate circuiterie fanno in modo di recuperare il dettagliosuccessivo dello spettro fino a 5.3 MHz per mantenere un dettaglio sufficientemente valido. Un circuito separa dalsegnale composito i segnali di sincronismo verticale ed orizzontale. Dal primo fronte negativo del segnale disincronismo orizzontale viene ricavata una finestra che serve a far passare il burst colore per sincronizzare infrequenza ed in fase l'oscillatore colore quarzato dei circuiti di decodifica del colore. In circuito colore ricostruisce isegnali della portante in quadratura e, attraverso il confronto col segnale colore ricevuto, ne ricava le differenzecolore B-Y ed R-Y. A questi due segnali viene sommata la luminanza e si ricava Y+(B-Y)=B e Y(R-Y)=R Con unamatrice resistiva, attraverso la sottrazione di R e di B da Y, si ricava il verde G. Le componenti RGB vengonoinviate al cinescopio il quale provvederà a visualizzare le componenti RGB sullo schermo, illuminando icorrispondenti fosfori colorati in modo da ottenere l'immagine a colori..

Tecniche digitaliNelle tecniche moderne digitali, il segnale non viene più trattato in modo analogico, ma le componenti dei colorivengono immediatamente convertiti in digitale con un bitrate a circa 13.4 MHz. Il fatto che l'occhio umano ha minordettaglio sui colori rispetto al bianco e nero, ha fatto sì che non fosse neccessario tenere lo stesso dettaglio per isingoli punti colore, ma vengono inserite alternativamente le differenze colore tra i dati di luminanza con questoschema detto 4.2.2: Y, R-Y, Y, B-Y, Y, R-Y...

Voci correlate• → Video• Interfaccia video

Bibliografia• Carlo Solarino, Per fare televisione, Vertical 1995• Silvio Silvi, "Appunti di tecniche video - il video composito", Vip Videosystem 1988

Note[1] CVBS è l'acronimo dell'inglese "Composite Video Blanking and Sync" o "Color Video Blanking and Sync"[2] In Germania sono utilizzati gli acronimi BAS (del tedesco "Bild Austastung Synk"), per il video composito in bianco e nero, e FBAS (del

tedesco "Farb Bild Austastung Synk"), per il video composito a colori, è quindi possibile trovarli su qualche apparecchiatura video di originetedesca per indicare un ingresso o un'uscita video in video composito.

Page 74: Tecniche Video

Formato contenitore 71

Formato contenitoreUn formato contenitore è un formato di file che può contenere diversi tipi di dati, → compressi tramite codecaudio/video. Il file contenitore è usato per identificare e disporre i differenti tipi di dati in maniera non contigua. Iformati contenitori più semplici possono contenere diversi tipi di codec audio, mentre quelli pià avanzati arrivano asupportare anche i → codec video, sottotitoli e tag metadata.Alcuni contenitori sono esclusivamente di matrice audio, ad esempio:• AIFF (largamente usato nei sistemi operativi Mac OS)• WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows)• XMF (Extensible Music Format)Altri contenitori riguardano unicamente immagini digitali:• FITS (Flexible Image Transport System), formato contenitore per file RAW ed i metadata associati.• TIFF (Tagged Image File Format), formato contenitore per immagini ed metadata associati.Altri contenitori supportano sia dati audio che video::• 3GP (usato maggiormente da dispositivi portatili e telefoni cellulari)• ASF (contenitore standard proprietario riguardante WMA and WMV)• → AVI (contenitore standard Microsoft)• DVR-MS ("Microsoft Digital Video Recording"), contenitore video proprietario, sviluppato da Microsoft e basato

su ASF)• IFF (primo formato contenitore multipiattaforma)• → MKV , (formato contenitore open source).• → MP4 (contenitore audio/video standard per il formato .mp4)• → MOV (contenitore video standard per Quicktime della Apple)• → Ogg (contenitore audio standard della fondazione Xiph.org.• RealMedia (contenitore standard per RealVideo e RealAudio)

Problemi ed incompatibilitàLe differenze tra i molti formati contenitori derivano da cinque grandi problematiche:1. Popolarità; ovvero, quanto sia diffuso il formato.2. Overhead; ovvero, la differenza di peso (in termini di memoria occupata) tra due differenti contenitori, aventi il

medesimo contenuto.3. Supporto per funzionalità avanzate dei codec. Ad esempio, formati considerati "vecchi" quali l'→ AVI non

supportano alcuna funzionalità avanzata, sebbene il problema possa essere aggirato attraverso hacking, causandospesso problemi di compatibilità.

4. Supporto per contenuti avanzati quali sottotitoli, metatags et similia.5. Supporto per lo streaming.

Page 75: Tecniche Video

Formato contenitore 72

Voci correlate• FFmpeg• Cross-platform• Open source• Codec

Velocità di trasmissione

Bit rate

Prefissi SI

Nome Simbolo Multiplo

kilobit per secondo kb/s 103

megabit per secondo Mb/s 106

gigabit per secondo Gb/s 109

terabit per secondo Tb/s 1012

Prefissi binari(IEC 60027-2)

kibibit per secondo Kib/s 210

mebibit per secondo Mib/s 220

gibibit per secondo Gib/s 230

tebibit per secondo Tib/s 240

Il termine velocità di trasmissione (o di trasferimento) viene solitamente utilizzato a proposito di scambi diinformazioni tra computer o comunque dispositivi elettronici. Siccome su questi dispositivi l'informazione vienememorizzata e viaggia in forma digitale, ovvero è sostanzialmente una sequenza di bit, è naturale che tale velocitàvenga misurata in bit per secondo (e da qui il termine equivalente inglese bitrate).In realtà sulle veloci macchine moderne avrebbe poco senso usare come unità di misura proprio il bit/secondo, percui vengono utilizzati principalmente i vari multipli del bit (che è identificato con una b): abbiamo il byte (sequenzadi 8 bit, identificato da una B), la word (sequenza di 16 bit) e la double word (sequenza di 2 word oppure 32 bit) epoi i prefissi standard del sistema decimale, cosicché, ad esempio, se in una linea ADSL abbiamo un trasferimentodati di 4 Mb/s, cioè 4.000.000 b/s, avremo (4.000.000/8) B/s equivalenti a 500 kB/s.Il bisogno di utilizzare questi prefissi risulta evidente se si pensa che ad esempio lo standard USB 2.0 puòraggiungere velocità di 480 Mb/s, equivalenti a 60 MB/s.

Page 76: Tecniche Video

Velocità di trasmissione 73

Confronto tra velocità di vari sistemi• Floppy disk 3,5" 1000 kbps = 125 KiB/s = 1 Mb/s• CD-ROM 1x = 1200 kbps = 150 KiB/s = 1,2 Mb/s• DVD 1x = 11000 kbps = 1375 KiB/s = 11 Mb/sModem analogico 56k = 56000 bps = 7000 B/s = 7 kB/s = 0,007 MB/sADSL 1 Mega = 1000 kbps = 125 KiB/s = 1 Mb/snota2: anche se un byte è formato da 8 bit, bisogna considerare i bit di correzione d'errore, per cui un kB/scorrisponde a circa 8000 b/s (secondo il sistema di correzione usato), e la corrispondenza non è esattamente 1000 b/s= 1000/8 B/s = 125 B/s.

Teoremi di Shannon e NyquistI canali trasmissivi utilizzati per la comunicazione dei dispositivi si suddividono in:• Canali perfetti: non causano distorsioni o ritardi nella propagazione dei segnali.• Canali ideali: causano solo un ritardo costante nella propagazione.• Canali reali: causano attenuazioni e ritardi, in funzione della frequenza dei segnali.Shannon e Nyquist hanno rispettivamente enunciato teoremi che esprimono la massima velocità di trasmissione perciascun tipo di canale.Il massimo bit rate (data rate) relativo ai canali perfetti è dato dal Teorema di Nyquist, indicato di seguito, che lega lalarghezza di banda di un canale alla quantità di informazione trasportabile:

Massimo data rate = [b/s]dove H è la larghezza di banda del segnale e V il numero di livelli differenti presenti nel segnale.Il massimo bit rate (data rate) relativo ai canali reali (con rumore termico) è dato dal Teorema di Shannon, indicatodi seguito, che considera anche il rumore:

Massimo data rate = [b/s]

Dove H è la larghezza di banda del segnale , S e 'N sono rispettivamente la potenza del segnale e del rumore delcanale. Da questa espressione si deduce chiaramente che per ogni canale esiste un ben preciso limite fisico.

Voci correlate• Baud• Larghezza di banda• Teorema di Nyquist• Teorema di Shannon

Page 77: Tecniche Video

Codec video 74

Codec videoUn codec video è un programma o un dispositivo sviluppato per descrivere un flusso video sotto forma di datinumerici adatti ad essere memorizzati su un supporto digitale.Usualmente i codec video effettuano anche una → compressione dei dati in modo da ridurre l'elevata quantità di datiche compone un flusso video. La maggior parte dei codec video adottano tecniche di → compressioni lossy (aperdita di informazioni) in modo da poter ridurre i dati necessari per trasmettere i flussi video anche di 20 volte opiù, ma esistono anche dei codec utilizzati per applicazioni professionali che utilizzano → compressioni lossless(senza perdita di informazione).

Codifica intraframe e codifica interframeA seconda della diversa tecnica di codifica del flusso video, i codec video si dividono in due grandi famiglie: acodifica intraframe e a codifica interframe.La codifica intraframe contraddistingue i codec che codificano e decodificano un flusso video descrivendo ognisingolo fotogramma che compone la sequenza video, rispettando quindi un approccio tradizionale allaquantizzazione video come sequenza di immagini statiche.Nella codifica interframe invece i codec video si occupano di descrivere i cambiamenti che occorrono tra unfotogramma ed il successivo partendo da un fotogramma iniziale descritto con codifica intraframe e seguendo unapproccio più innovativo alla quantizzazione video allo scopo di migliorarne l'efficienza sfruttando la capacità deisistemi di riproduzione moderni in grado di elaborare l'informazione per poi mostrarne il risultato.La diversa dinamica dei due approcci fa si che la codifica intraframe è più adatta alla riproduzione di sequenze videoparticolarmente movimentate, descrivendo ogni singolo fotogramma infatti, un codec a codifica intraframe potràdegradare la qualità delle singole immagini all'aumentare del rapporto di compressione, ma tenderà comunque alasciare inalterata la dinamica del movimento.I codec a codifica interframe risultano invece meno adatti alla codifica di sequenze movimentate per le qualinecessitano di descrivere grossi cambiamenti tra i fotogrammi. Al contrario, in sequenze video statiche, ovvero conpochi elementi che cambiano nella scena, la codifica interframe risulta di notevole efficienza.

Voci correlate• Codec audio• → Compressione video digitale

Page 78: Tecniche Video

Contenitore multimediale 75

Contenitore multimediale

Questa è una pagina di disambiguazione per orientarsi tra voci omonime o dal titolo ambiguo.Se sei giunto qui da un'altra pagina, per favore torna indietro e correggi il collegamento, indirizzandolo alla voce più appropriata.

Un contenitore multimediale è un formato file che può contenere vari tipi di dati. Il suo ruolo è quello disincronizzare codec video, codec audio, sottotitoli e menu.I contenitori più utilizzati sono:• → Ogg ("Ogg Media", contenitore standard open source per Vorbis, → Theora e altri)• → Audio Video Interleave (AVI) (contenitore standard Microsoft Windows)• ASF (contenitore standard per Microsoft WMA e WMV)• → MOV (standard di QuickTime della Apple Inc.)• RealMedia (contenitore standard per RealVideo e RealAudio)• → Matroska / MKV (non standard per alcun sistema ma in grado di contenere tutti i formati video ed audio sia

proprietari che open source)

Audio Video Interleave

Audio Video Interleave

Estensione .avi

Tipo MIME video/avi video/msvideo

video/x-msvideo

Sviluppatore Microsoft

Tipo → Contenitore multimediale

AVI, acronimo di Audio Video Interleave, è un → Contenitore multimediale realizzato dalla Microsoft nel 1992come formato standard video per il sistema operativo Windows. Nel febbraio del 1996, Microsoft decide di integrarenel formato AVI un set di estensioni sviluppate da Matrox OpenDML. Questo nuovo tipo di file AVI vienechiamato, non ufficialmente, "AVI 2.0".AVI è un → contenitore multimediale e può contenere uno o due flussi audio e un flusso video. AVI non supportaalcun formato di sottotitoli che devono quindi essere trasformati ed inseriti dentro il flusso video. La mancanza delsupporto per sottotitoli e la mancanza di supporto per formati aperti lo differenzia da altri contenitori multimedialicome → Matroska ed → Ogg.

Page 80: Tecniche Video

Matroska 77

Matroska

Nome Matroska (Матрёшка)

logo

estensione .mkv .mka

mime audio/x-matroska

video/x-matroska

sviluppatore The Matroska Project

tipo → Contenitoremultimediale

licenza Pubblico dominio

sito web http:/ / www. matroska. org

Matroska (le cui estensioni classiche sono .mkv e .mka) è un progetto volto a sviluppare un contenitoremultimediale simile a QuickTime di Apple, Mp4 di MPEG o l'Advanced Systems Format di Microsoft. Il suo nomederiva dalle bambole Matrioska.Il progetto è stato annunciato il 7 dicembre 2002 come fork del progetto Multimedia Container Format in seguito adisaccordi con il creatore del progetto circa l'utilizzo dell'EBML (Extensible Binary Meta Language) invece di unaltro formato binario.I fondatori del progetto Matroska credono che l'uso dell'EBML porti numerosi vantaggi, tra i quali facilitazioni inuna futura estensione del formato.

ObiettiviGli obiettivi del progetto sono diversi:• Creare un formato contenitore multimediale moderno, flessibile, estensibile e multipiattaforma che permetta lo

streaming attraverso Internet, una ricerca rapida all'interno del file e menu tipo → DVD.• Sviluppare una serie di strumenti per la creazione e la modifica di file Matroska, da rilasciarsi sotto licenza GNU

General Public License.• Sviluppare librerie che possano essere utilizzate dagli sviluppatori per avere il supporto Matroska alle loro

applicazioni, da rilasciarsi sotto licenza GNU General Public License.• Lavorare in concerto con produttori di hardware per incorporare il supporto Matroska in dispositivi multimediali.• Fornire supporto nativo a Matroska per diversi sistemi operativi, tra cui:

• Linux tramite il GStreamer multimedia framework• Haiku tramite il suo Mediakit• Windows tramite DirectShow• Mac OS X tramite il framework QuickTime

Page 82: Tecniche Video

Matroska 79

Voci correlate• → Contenitore multimediale

• → AVI• ASF• → MOV• → Ogg• RealMedia

Collegamenti esterniHomepage Ufficiale [1]

Note[1] http:/ / www. matroska. org/

MPEG- 4MPEG-4, nato nel 1996 e finalizzato nel 1998 (fu presentato pubblicamente ad ottobre di quell'anno), è il nome datoa un insieme di standard per la codifica dell'audio e del → video digitale sviluppati dall'ISO/IEC Moving PictureExperts Group (MPEG). L'MPEG-4 è uno standard utilizzato principalmente per applicazioni come la videotelefoniae la televisione digitale, per la trasmissione di filmati via Web, e per la memorizzazione su supporti CD-ROM.MPEG-4 è basato sugli standard MPEG-1, MPEG-2 e Apple QuickTime technology, supportandone tutte lecaratteristiche; ISO approvò il formato QuickTime come base per lo standard MPEG-4, l'MPEG group ritenevainfatti che fosse la migliore base di partenza e che integrasse già alcune caratteristiche essenziali[1] ; lo standardevolutosi possedeva inoltre tutta una serie di nuove funzioni come la gestione tridimensionale degli oggetti (tramiteun'estensione del VRML). I flussi audio e video vengono trattati dallo standard MPEG-4 come oggetti che possonoessere manipolati e modificati in tempo reale bidirezionalmente. Lo standard supporta caratteristiche specificate daterze parti come una particolare gestione dei DRM o una gestione interattiva dei contenuti.La maggior parte delle caratteristiche dell'MPEG-4 sono opzionali e quindi la loro implementazione è lasciata alladiscrezione dello sviluppatore. Questo implica che parte dei lettori mediali di file MPEG-4 non saranno magari ingrado di gestire tutte le caratteristiche del formato. Per permettere un'elevata interoperabilità, nel formato sono statiinclusi i concetti di profilo e di livello, quindi i vari lettori MPEG-4 potranno essere suddivisi a seconda dei profili elivelli supportati.

Componenti MPEG-4MPEG-4 è suddiviso in vari sotto standard chiamati part (termine inglese che in italiano significa "parte"):• Part 1 (ISO/IEC 14496-1): Systems: Describes synchronization and multiplexing of video and audio.• Part 2 (ISO/IEC 14496-2): Visual: A compression codec for visual data (video, still textures, synthetic images,

etc.). One of the many "profiles" in Part 2 is the Advanced Simple Profile• Part 3 (ISO/IEC 14496-3): Audio: A set of compression codecs for perceptual coding of audio signals.• Part 4 (ISO/IEC 14496-4): Conformance: Describes procedures for testing conformance to other parts of the

standard.• Part 5 (ISO/IEC 14496-5): Reference Software: Provides software for demonstrating and clarifying the other parts

of the standard.• Part 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF).

Page 83: Tecniche Video

MPEG-4 80

• Part 7 (ISO/IEC 14496-7): Optimized Reference Software: Provides examples of how to make improvedimplementations (e.g., in relation to Part 5).

• Part 8 (ISO/IEC 14496-8): Carriage on IP networks: Specifies a method to carry MPEG-4 content on IP networks.• Part 9 (ISO/IEC 14496-9): Reference Hardware: Provides hardware designs for demonstrating how to implement

the other parts of the standard.• Part 10 (ISO/IEC 14496-10): A codec for video signals which is also called AVC (Advanced Video Coding) and

is technically identical to the ITU-T H.264 standard.• Part 12 (ISO/IEC 14496-12): ISO Base Media File Format: A file format for storing media content.• Part 13 (ISO/IEC 14496-13): Intellectual Property Management and Protection (IPMP) Extensions• Part 14 (ISO/IEC 14496-14): MP4 File Format: The designated container file format for MPEG-4 content MP4,

which is based on Part 12.• Part 15 (ISO/IEC 14496-15): AVC File Format: For storage of Part 10 video based on Part 12.• Part 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX)• Part 17 (ISO/IEC 14496-17): Timed Text subtitle format (not yet finished - reached "FCD" stage in January 2005)• Part 18 (ISO/IEC 14496-18): Font Compression and Streaming (for OpenType fonts)• Part 19 (ISO/IEC 14496-19): Synthesized Texture Stream• Part 20 (ISO/IEC 14496-20): Lightweight Scene Representation (LASeR) .• Part 21 (ISO/IEC 14496-21): MPEG-J Extension for Rendering (not yet finished - reached "CD" stage in January

2005)I profili inoltre sono definiti all'interno di diverse Part, in modo che un'esecuzione di alcune caratteristiche di unaPart non implichi la necessità di supportare l'intera Part.MPEG-1, MPEG-2, MPEG-7 e MPEG-21 sono altri standard MPEG.

FunzionamentoIl concetto alla base del codec (COdificatore-DECodificatore) MPEG4 è la Quantizzazione. Senza scendere nellospecifico, si può riassumere come quel processo che permette, mediante un apposito algoritmo di compressione, ditrasmettere solamente la variazione dell'immagine. Allo stato dell'arte infatti esistono due modi per eseguire questaoperazione: I-frame e P-frame4: il primo codifica l'immagine senza una referenza alla precedente (refresh puro): èpiù preciso ma più pesante per le applicazioni via rete, mentre la seconda esegue una compensazione nella variazionedel movimento (motion-compensated frames) analizzando appunto la differenza di immagine tra due frame correnti.La parte statica non è ritrasmessa e non cambia tra un quadro e l'altro.

Voci correlate• Advanced Audio Coding (AAC)• XviD• DivX• 3ivx• Nero Digital• H.264• M4a• MPEG-4 Part 3• → Theora• SBR

Page 84: Tecniche Video

MPEG-4 81

Collegamenti esterni• Tecnologia Mpeg-4 sviluppata da Apple (in inglese) [2]

• Sito italiano sull'Mpeg4 [3]

• (EN) MPEG-4: The Next Generation [4]

• (EN) MPEG-4 Audio: AAC [5]

• (EN) MPEG Industry Forum MPEG-4 page [6]

• (EN) Moving Picture Experts Group (MPEG) Official Website [7]

• Galleria di filmati in formato H.264/AVC [8]

• FAQ sul formato H.264/AVC [9]

• MPEG-4 part 20: LASeR [10]

Note[1] Vedere la voce Quicktime[2] http:/ / www. apple. com/ quicktime/ technologies/ mpeg4/[3] http:/ / www. m4a. it[4] http:/ / www. apple. com/ mpeg4/[5] http:/ / www. apple. com/ mpeg4/ aac/[6] http:/ / www. m4if. org/ mpeg4/[7] http:/ / www. chiariglione. org/ mpeg/[8] http:/ / www. apple. com/ quicktime/ hdgallery[9] http:/ / www. apple. com/ mpeg4/ h264faq. html[10] http:/ / www. mpeg-laser. org

MOV (formato di file)

QuickTime Movie

Estensione .mov .qt

Tipo MIME video/quicktime

Sviluppatore Apple Inc.

Tipo → Contenitore multimediale

Formati multimediali supportati

Formati video supportati

Page 86: Tecniche Video

Ogg 83

Ogg

Ogg Media

Estensione .ogg .ogm .oga .ogv.ogx

Tipo MIME video/ogg

audio/ogg

application/ogg

Sviluppatore Xiph.Org Foundation

Tipo → Contenitore multimediale

Licenza licenza BSD

Sito Web [1]

Ogg è un → contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo streamingche l'archiviazione in maniera efficiente.Il nome "Ogg" si riferisce al formato di file, che include un numero di codec indipendenti per il → video, l'audio edil testo (ad esempio, per i sottotitoli). I file con l'estensione ".ogg" possono contenere uno qualsiasi dei formatisupportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in moltiriproduttori multimediali, sia proprietari, sia liberi.Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato inun file ogg con l'algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanticodec sviluppati per il contenitore ogg sono → Theora per la compressione video, e Speex, un algoritmo ottimizzatoper la compressione del parlato.Il progetto è stato sviluppato originariamente da Christopher Montgomery della Xiph.Org Foundation.È inoltre il formato ufficialmente preferito per i file audio e video di Wikipedia.

LicenzeLe specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciatesotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General PublicLicense (GPL).

I codec di OggOgg è solo un formato che specifica il modo in cui i dati devono essere ordinati nel flusso dati. I dati audio o videocodificati da un codec specifico saranno inseriti nel contenitore Ogg. Il contenitore Ogg può contenere flussicodificati con diversi codec: ad esempio, un file audio/video conterrà dati codificati con un codec audio e daticodificati con un codec video.Essendo un formato di contenimento, Ogg può integrare diversi codec. Di seguito le specifiche di Xiph.org in talsenso:

Page 87: Tecniche Video

Ogg 84

• → Codec video• → Theora: codec di compressione video basato su VP3 di On2• Dirac: codec sperimentale open source sviluppato originariamente da BBC• Tarkin: codec sperimentale che utilizza trasformate wavelet 3D, nel frattempo reso obsoleto da Theora• OggUVS: stream video non compresso

• Codec audio• Vorbis: compressione di segnale musicale e audio generico (~16-256 kbit/s/canale)• Speex: compressione della voce umana a bassi bitrate (~8-32 kbit/s/canale)• FLAC: compressione audio lossless• OggPCM: stream PCM non compresso concettualmente paragonabile a WAVEform audio di Microsoft

• Codec testo• Writ: codec per la gestione del testo nei sottotitoli dei filmati

• Metadati• Ogg Skeleton: formato ancora in fase sviluppo per spostare i metadati dal livello flusso a livello contenitore

Il problema dell'estensione fileSebbene Xiph.org avesse previsto originariamente l'estensione .ogg per il contenitore a prescindere dall'effettivocodec contenuto, l'organizzazione è ritornata sui suoi passi nel 2007, raccomandando di impiegare le sequentiestensioni per i file Ogg:• .ogg per Ogg contenente solo audio in formato Vorbis• .spx per Ogg contenente solo audio in formato Speex• .oga per Ogg contenente solo audio in FLAC o OggPCM• .ogv per Ogg contenente almeno un flusso videoA queste si aggiunge l'estensione .flac utilizzata per identificare un flusso FLAC privo del container Ogg. Ilformato FLAC era infatti già esistente e funzionante indipendentemente dal contenitore Ogg, e solo in seguito donatoa Xiph.org.Prima di questa presa di posizione, il programmatore Tobias Waldvogel era intervenuto sulle specifiche di Ogg perpermettergli di raggirare la limitazione del formato AVI di Microsoft a riguardo dell'audio in formato Vorbis. Peridentificare uno di questi file Ogg, che contengono codec audio e video arbitrari, la comunità ha autonomamentefatto nascere l'estensione non ufficiale .ogm, con il significato di Ogg Media. Il contenuto più frequentementeriscontrato in questi file è un flusso video XviD e almeno un flusso audio Vorbis.

Curiosità• Nonostante la nota passione di Christopher Montgomery per Terry Pratchett e i suoi libri della serie del Mondo

Disco, in cui effettivamente esiste un personaggio chiamato Ogg, la vera etimologia del termine deriva da unoslang coniato dallo stesso Montgomery in riferimento alla pesantezza dell'algoritmo Vorbis ai tempi della suanascita. Riprendendo il nome di una tattica del videogioco Netrek che consisteva in un attacco suicida, è diventatodi uso comune l'espressione inglese to ogg con il significato approssimativo di "intraprendere un'azione azzardata,con esiti incerti e conseguenze probabilmente deleterie". Lanciare un processo di codifica di un brano musicale inOgg Vorbis, al tempo, rendeva infatti totalmente inutilizzabile il computer per diversi minuti.

• La struttura interna di un file Ogg ne permette il concatenamento per semplice accodamento binario. Il file risultante è un Ogg perfettamente rispettoso delle specifiche, che prevedono appunto i cosiddetti chained streams. Il modo più pratico di verificare questa caratteristica sono i comandi DOS copy /b file1.ogg+file2.ogg newfile.ogg o Unix

Page 88: Tecniche Video

Ogg 85

cat file1.ogg file2.ogg > newfile.ogg che generano un file chiamato newfile.ogg contenente i due brani allacciati tra loro con continuità perfetta(caratteristica a volte chiamata gapless output).

Collegamenti esterni• Pagina della Xiph.org Foundation dedicata ad Ogg [1]

• RFC 3533, le specifiche ufficiali del container Ogg• RFC 3534, le specifiche del MIME type application/ogg

Voci correlate• → Contenitore multimediale

• → AVI• ASF• → MOV• RealMedia• → Matroska

Collegamenti esterni• (EN) OggWatch [2] Progetto per la diffusione dei formati Ogg

Note[1] http:/ / www. xiph. org/ ogg/[2] http:/ / www. oggwatch. com/

Page 89: Tecniche Video

Theora 86

TheoraTheora è un codec → video sviluppato dalla Xiph.Org Foundation come parte del progetto → Ogg. È basato sulcodec VP3 della On2 Technologies, ed è progettato per competere con il video → MPEG-4 (come XviD e DivX),RealVideo, Windows Media Video, e simili schemi di compressione video a basso bit rate.VP3 è una tecnologia brevettata, ma On2 ha concesso in modo irrevocabile una licenza royalty free perpetua deibrevetti collegati, permettendo al pubblico di usare Theora ed altri codec derivati da VP3 per qualsiasi uso senzadover pagare diritti a On2. L'obiettivo di sviluppare un codec video esente da royalty ha posto delle limitazioni alprogetto che non ha potuto utilizzare alcune tecniche di compressione molto efficienti ma brevettate. Questo pone ilprogetto dal punto di vista delle prestazioni nel segmento medio basso dei codec video, essendo simile come qualitàvideo a codec come l'→ MPEG-4 ASP e inferiore a sistemi come il H.264 il DivX e il VC-1.[1]

Theora è utilizzato per tutti i video di Wikipedia. Questo codec video è stato implementato nelle nuove versioni diFirefox (3.5) e di Opera.Nei flussi multimediali Ogg, Theora fornisce il layer video, mentre Vorbis è usato di solito come layer audio(sebbene anche Speex e FLAC possano essere usati per l'audio).

Cronologia dello sviluppoTheora è il nome del codec video che Xiph.Org ha rilasciato nella sua prima versione stabile, la 1.0 [2] .Precedentemete sono state rilasciate sette versioni Alfa; sebbene questa denominazione denoti versioni non definitivedi sviluppo, il gruppo Theora ha già annunciato di aver fermato le modifiche al bitstream dal rilascio della Alfa 3,dunque tutti i video clip prodotti da allora saranno correttamente decodificati dalle versioni successive, in conformitàalle specifiche Theora I.Alfa uno

rilasciata il 25 settembre 2002Alfa due

rilasciata per metà il 16 dicembre e per metà il 27 dicembre 2002Alfa tre

rilasciata il 20 marzo 2004Alfa quattro

rilasciata il 15 dicembre 2004Alfa cinque

rilasciata il 20 agosto 2005Alfa sei

rilasciata il 30 maggio 2006Alfa sette

rilasciata il 20 giugno 2006Beta

rilasciata il 1 ottobre 2007[1]

Ver 1.0

rilasciato il 3 novembre 2008Ver 1.1

rilasciato il 24 settembre 2009[3]

Page 90: Tecniche Video

Theora 87

Voci correlate• Xiph.Org Foundation• → Ogg

Collegamenti esterni• (EN) Theora.org [4]

• (EN) Xiph.org Foundation [5]

• (EN) On2 Technologies [6]

• (EN) VP3.com [7]

• Elenco di video Theora [8] -- video scaricabili in formato Ogg Theora

Note[1] Quasi pronta l'alternativa free a DivX (http:/ / punto-informatico. it/ p. aspx?i=2077274). Punto Informatico, 1-10-2007. URL consultato il

1-10-2007.[2] La prima versione stabile di Theora (http:/ / punto-informatico. it/ 2466472/ PI/ News/ ecco-theora-10-alternativa-free-divx. aspx). Punto

Informatico, 7-11-2008. URL consultato il 7-11-2008.[3] Theora 1.1, l'alternativa open a H.264 (http:/ / punto-informatico. it/ 2716448/ PI/ News/ theora-11-alternativa-open-h264. aspx). Punto

Informatico, 29-9-2009. URL consultato il 29-9-2009.[4] http:/ / theora. org/[5] http:/ / xiph. org/[6] http:/ / on2. com/[7] http:/ / vp3. com/[8] http:/ / wiki. xiph. org/ index. php/ List_of_Theora_videos

Page 91: Tecniche Video

88

Audio Digitale

Compressione audio digitaleLa compressione audio è una tecnica che permette di ridurre le dimensioni di un file audio o la banda passanterichiesta per una trasmissione audio, anche di molto.Un file è una sequenza di cifre binarie (bit) utilizzata come veicolo di informazione. Comprimere significa ridurre ilnumero delle cifre che costituiscono la sequenza mantenendo l'informazione inalterata o in un intornodell'informazione originaria (ossia facendo in modo che la nuova informazione approssimi quella precedente).I motivi della compressione sono:• occupare minor spazio in fase di immagazzinamento• impiegare minor tempo in fase di trasferimento dati.Il costo è l'aumento dei tempi di lettura/scrittura legati rispettivamente a tempi di decompressione/compressione. Nelcaso di file audio si ha un costo anche in termini di qualità dell'audio.Esistono due tipi di compressione:• con perdita (lossy): quando l'informazione contenuta nel file compresso è minore di quella contenuta nel file di

origine• senza perdita (lossless): quando l'informazione contenuta nel file compresso è identica a quella contenuta nel file

di origineLa prima permette compressioni maggiori, ma a scapito della qualità sonora.Usando un algoritmo di compressione senza perdita, dal risultato della compressione si può riottenere tuttal'informazione originaria. In questo caso la riduzione massima generalmente ottenibile, utilizzando algoritmi studiatiappositamente per l'audio è all'incirca del 60%, ma solo con alcuni tipi di suono. Si possono utilizzare gli stessialgoritmi generali di compressione (come per esempio ZIP o Gzip) ma i risultati in termine di riduzione sonoinferiori.Esempio: FLAC, APE, ALE

Compressione con perditaDal risultato della compressione audio con perdita non si può più ottenere un suono identico all'originale ma lariduzione ottenibile è molto spinta: con rapporti di compressione di 10 a 1, il risultato è quasi indistinguibiledall'originale ma ci si può spingere anche oltre a discapito della qualità.Gli studi di psicoacustica hanno permesso di accertare che l'uomo non è sensibile nello stesso modo a tutte lefrequenze e che un suono ad alta intensità ne maschera uno con frequenza vicina ma intensità più bassa. Sfruttandoqueste ed altre considerazioni, si può pensare di eliminare l'informazione che non verrebbe comunque percepita edottenere quindi un buon rapporto di compressione.Esempi:• mp3 (MPEG-1 Layer III) è stato introdotto negli anni '80 ed è il più popolare. Essendo il più antico, è anche il

meno efficiente e spesso il peggiore in termini di qualità.• Windows Media Audio (WMA) è molto diffuso sui sistemi Windows.• Ogg Vorbis è un codec più efficiente dell'mp3 ed è open source (ossia liberamente distribuibile e modificabile)

Page 92: Tecniche Video

Compressione audio digitale 89

• AAC è stato reso popolare dalla Apple. Apple's iTunes Music Store fa uso di file compressi con 128Kbps CBRAAC e lo standard video MPEG4 raccomanda l'uso dell'AAC audio nei prossimi apparecchi e software.

• Dolby Digital (AC3) può comprimere fino a 6 canali audio, di cui 5 a piena larghezza di banda ed uno per glieffetti a bassa frequenza (LFE), fino a 384 kbit/s. Viene utilizzato nei → DVD e nel sistema americano ATSCDTV.

• MPC o Musepack è un formato opensource con una qualità maggiore dell'mp3 a parità di bitrate.

BitrateI file multimediali sono per loro natura connessi al tempo che scorre. In altri termini ad ogni secondo è associato uncerto contenuto informativo e quindi una certa sottosequenza di cifre binarie. Il numero di cifre binarie checompongono queste sottosequenze è detto bitrate. In altre parole il bitrate è il numero di cifre binarie impiegate perimmagazzinare un secondo di informazione. Questo può essere costante per tutta la durata del file o variareall'interno di esso. Ad esempio i cd musicali vengono campionati (registrati) ad una frequenza pari a 44.100Hz. Daciò si evince che ogni secondo si hanno 44.100 valori registrati dall'ipotetico microfono che vanno poi moltiplicatiper i 2 canali del suono stereo che vanno a loro volta moltiplicati per 2 poiché la registrazione avviene a 16 bit (pariappunto a 2 byte). Quindi avremo:

44.100 x 2 x 2 x 60 (secondi) = ~10 MB ogni minuto

La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media dellesottosequenze ossia diminuirà il bitrate medio. Il bitrate medio diventa dunque in questi casi l'indice dell'entità dellacompressione. Ad esempio se il file di origine possedesse un bitrate di 1411 Kbit/s e il file compresso possedesse unbitrate medio di 320 Kbit/s, allora avremmo ridotto di un fattore pari a circa 4.5.Una compressione lossy effettua un compromesso fra la perdita d'informazione e la dimensione del file finale,mentre una losless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell'algoritmo.

Page 93: Tecniche Video

MP3 90

MP3

Motion Picture Expert Group-1/2 Audio Layer 3

Estensione .mp3

Sviluppatore Istituto Fraunhofer

Tipo → Compressione audio digitale

Sviluppatore Istituto Fraunhofer

Tipo → Compressione audio digitale

→ Lossy / → Lossless Lossy

Licenza Formato brevettato, specifiche pubbliche

Sito web Istituto Fraunhofer [1]

|+ style="text-align: center; font-size: larger; margin-left: inherit;" | MPEG 1 Audio Layer 3 MP3 (per estesoMotion Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer 3) è un algoritmo dicompressione audio di tipo → lossy in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare unsuono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non compresso.

Storia

Una delle sedi del Fraunhofer Institute

La codifica MPEG-1/2 Layer 2 iniziò come progetto presso la DAB epromosso dalla Fraunhofer IIS-A. Venne finanziato dall'Unioneeuropea come parte di un programma di ricerca più vasto chiamatoEUREKA comunemente conosciuto con il codice EU-147.

EU-147 fu attivo dal 1987 al 1994. Nel 1991 vennero fatte dueproposte per uno standard disponibile: Musicam (conosciuto comeLayer II) e ASPEC (Adaptative Spectral Perceptual Entropy Coding)(con analogie con l'MP3). Venne scelto Musicam perché più sempliceed affidabile.

Un gruppo di lavoro condotto da Karlheinz Brandenburg e Jürgen Herre fece confluire gli studi su Musicam eASPEC con alcune loro idee e creò l'MP3, che fu progettato per realizzare la stessa qualità a 128 kbit/s dell'MP2 a192 kbit/s.

Entrambi gli algoritmi furono completati nel 1992 con la sigla MPEG-1, come prima fase di sviluppo del progettodenominato MPEG e definito come standard internazionale con il codice ISO/IEC 11172-3 e pubblicato nel 1993.Un'ulteriore fase del progetto MPEG Audio si concluse nel 1994 con la creazione dell'MPEG-2 definito comestandard internazionale con il codice ISO/IEC 13818-3 e pubblicato nel 1995.L'efficienza di un algoritmo di compressione è tipicamente giudicata dal bitrate finale che riesce ad ottenere, mentre la metrica del tasso di compressione, che sembrerebbe più naturale, dipende sia dalla frequenza che dal numero di bit del segnale in ingresso. Ciononostante, vengono comunemente comunicati tassi di compressione che utilizzano i CD come riferimento, uno dei più comuni è quello a 44.1 kHz e 2x16bit. Qualche volta vengono utilizzati anche parametri DAT SP (48KHz, 2x16bit). Il tasso di compressione in questo sistema di riferimento è maggiore, il che dimostra le difficoltà nel definire il termine compressione come perdita di qualità nella codifica. Karlheinz Brandenburg ha utilizzato il CD di Suzanne Vega, "Tom's Diner" come modello di riferimento dell'algoritmo di

Page 94: Tecniche Video

MP3 91

compressione per l'MP3. Questo CD è stato scelto per la sua dolcezza e semplicità, rendendo facile l'ascolto diqualsiasi imperfezione che la compressione può causare durante la registrazione.La pagina web ufficiale pubblica i seguenti tassi di compressione per l'MPEG-1 Layer 1,2 e 3.• Layer 1: 384 kbit/s, compressione 4:1• Layer 2: 192...256 kbit/s, compressione 6:1...8:1• Layer 3: 112...128 kbit/s, compressione 10:1...12:1Questi sono valori piuttosto aleatori in quanto:• La qualità dipende non solo dal formato di codifica del file, ma anche dalla qualità psico acustica del codificatore.

Il codificatore tipico layer 1 usa un modello psicoacustico molto elementare che finisce per richiedere molti piùbit per un risultato soddisfacente.

• La codifica Layer 1 a 384 kbit/s, anche con questo semplice "psico acustico" è migliore della codifica Layer 2 a192 … 256 kbit/s.

• La codifica Layer 3 a 112 … 128kbit/s è peggiore del Layer 2 a 192 … 256 kbit/sUn modo più realistico per considerare il bitrate è:• Layer 1: eccellente a 384 kbit/s• Layer 2: eccellente a 256...320 kbit/s, molto buono a 224...256 kbit/s, buono a 192...224 kbit/s, non si dovrebbe

usare sotto i 160 kbit/s• Layer 3: eccellente a 224...256 kbit/s, molto buono a 192...224 kbit/s, buono a 160...192 kbit/s, non si dovrebbe

usare sotto i 128 kbit/sIl confronto di un nuovo formato di file, viene fatto confrontando la qualità media di compressione del nuovoformato con un encoder di alta qualità e molto ottimizzato, del vecchio formato.L'algoritmo che utilizza il formato MP3, si basa su una trasformazione ibrida che trasforma il segnale dal dominiotemporale a quello delle frequenze.• 32 band filtro in quadratura polifase• 36 or 12 Tap MDCT, la dimensione può essere selezionata indipendentemente dalla sottobanda 0...1 e 2...31• processamento addizionale per ridurre gli effetti di aliasingL'AAC → MPEG-4, è il formato erede dell'MP3 sempre secondo le specifiche MPEG. Tra i successori del formatoMP3 è degno di nota l'Ogg Vorbis per la qualità di codifica e per il fatto di essere un progetto Free Software. Quasitutti gli altri formati sono legati a delle aziende proprietarie di diverse brevetti e licenze legate alle specifiche MPEG.La diffusione del formato MP3 e di software gratuiti (come Winamp) apportarono una piccola rivoluzione nelmondo della musica, la diffusione delle playlist. In precedenza le canzoni di successo erano attentamente intercalateai motivi meno riusciti nei CD e nelle audiocassette che si potevano ascoltare solamente nell'ordine studiato dalproduttore. Con l'avvento dei supporti digitali questo non accade più ed è possibile una maggiore personalizzazione.

Qualità del formato MP3 audioMolti ritengono di qualità accettabile per il formato MP3 il bitrate di 128 kilobits al secondo, qualità che si avvicinaa quella di un CD. Questo bitrate è il risultato di un tasso di compressione che si avvicina al rapporto di 11.02:1.Tuttavia test di ascolto mostrano che, attraverso un po' di pratica, molti sono in grado di distinguere un formato MP3a 128 kbit/sec da un CD originale. Per molti altri, 128 kbit/s è una qualità di ascolto bassa, da un'analisi condottadalla rivista SUONO, l'opinione dei conduttori al termine della prova, risulta che solo a 256 kbit/s si può parlare dialta fedeltà.Possibili codificatori• codice di riferimento ISO dist10: è la qualità peggiore; file MP3 difettoso (tutti i blocchi audio sono marcati come

difettosi)

Page 95: Tecniche Video

MP3 92

• Xing: principalmente basato sul codice ISO, qualità simile all'ISO dist10.• Blade: qualità simile all'ISO dist10• FhG: Alcune di loro sono buone, ma altre hanno gravi difetti.• ACM Producer Pro: Alcune versioni generano dei disturbi fastidiosi• L.A.M.E (è un acronimo ricorsivo, per "Lame Ain't MP3 Encoder", letteralmente "Lame non è un codificatore

MP3", iniziò come una patch dimostrativa GPL che modificava l'originale codificatore dist10 ISO, realizzata daMike Cheng all'inizio del 1998, ed era quindi incapace di produrre file MP3 per conto suo o di essere compilatoseparatamente. Nel maggio 2000 gli ultimi resti del codice sorgente ISO furono sostituiti conferendo così alcodice sorgente LAME piena funzionalità come codificatore LGPL MP3, in grado di competere con i principalicodificatori presenti sul mercato. Lame development at Sourceforge [2].

Nel sito [3] è possibile trovare un front end di Windows per il codificatore LAME (il "popolo" di JTHZ.com utilizzaLAME dal 1998).La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve esserecodificato. Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano siottiene da 160 a 192 kbit/s. Un codificatore che ha bassa qualità lo si riconosce ascoltando persino un brano a 320kbit/s. Per questo non ha senso parlare di qualità di ascolto di un brano di 128 kbit/s o 192 kbit/s. Una buona codificaMP3 a 128 kbit/s prodotta da un buon codificatore produce un suono migliore di un file MP3 a 192 kbit/s codificatocon uno scarso codificatore.Una caratteristica importante dell'MP3 è la → perdita di dati dovuta alla compressione – è il modo con cui sirimuove l'informazione dal file audio originale allo scopo di risparmiare spazio. Nei moderni codificatori MP3 glialgoritmi più efficaci fanno di tutto per assicurare che i suoni rimossi siano quelli che non possono essere rilevatidall'orecchio umano. Questo risultato è stato ottenuto anche grazie alla scienza della psicoacustica.Tuttavia molti ascoltatori sono in grado di riconoscere la differenza confrontando un CD originale con un formatoMP3 da 192 kbit/s e persino a 256 kbit/s di alcuni codificatori meno potenti e più obsoleti. Se il vostro scopo è dimemorizzare file audio con una fedeltà massima indirizzatevi su un compressione audio del tipo FLAC, SHN, oLPAC. Questi generalmente comprimono un file audio PCM a 16-bit approssimativamente dal 50 al 75%dell'originale (questo dipende dalla caratteristiche del file audio stesso).

Bit rateIl bit rate è il numero di unità binarie che fluiscono al secondo ed è variabile per i file MP3. La regola generale è chemaggiore è il bitrate, più informazione è possibile includere dall'originale, maggiore è la qualità del file audiocompresso. Attualmente per le codifiche dei file MP3 fissano un tasso di compressione equivalente per tutto il fileaudio.Per l'MPEG-1 layer 3 i bitrate disponibili sono: 32, 40, 48, 64, 80, 96, 112, 128, 160, 192, 224, 256 e 320 kbit/s (

bits per secondo), e le frequenze campionate disponibili sono 32, 44.1 e 48 Khz. La frequenza dicampionamento a 44.1 kHz è quasi sempre utilizzata per i CD audio, mentre i 128 Kbit/s come una sorta di bitratestandard "abbastanza buono". L'MPEG-2 e l'MPEG-2.5 (non-ufficiale) contemplano un numero maggiore di bitrate:8, 16, 24, 32, 40, 48, 56, 64, 80, 96, 112, 128, 144 e 160 kbit/sI file MP3 audio sono suddivisi in settori ("chunks" in inglese) chiamati frames, ("fotogrammi" in italiano). Ognunodi questi settori è provvisto di un marcatore del tasso di compressione; in questo modo, mentre il file audio vieneriprodotto, è possibile modificarlo dinamicamente. Questa tecnica rende possibile utilizzare più bit per la parte delsuono ad alta dinamica (suoni più complessi) e meno bit per la parte a bassa dinamica (suoni meno complessi).

Page 96: Tecniche Video

MP3 93

Individuazione dei difetti nei file MP3Vi sono diversi difetti nel formato dei file MP3, che non possono essere individuati neanche dal migliore deicodificatori e sono insiti nelle caratteristiche stesse del formato (In parentesi il formato file dove questo difetto vienecorretto).• Un tempo di risoluzione troppo basso per un segnale transiente molto alto (AAC, Ogg Vorbis)• ritardo complessivo di codifica/decodifica non definito (Ogg Vorbis)• nessun fattore di banda per frequenze sotto i 15.5/15.8 kHz (AAC, Ogg Vorbis)• Il collegamento stereo è fatto sulla base di un frame, o "fotogramma" (AAC, Ogg Vorbis)• Il bitrate è limitato a 320 kbit/s (AAC, Ogg Vorbis)

Codificatori di file MP3 audioLo standard MPEG-1 non definisce specifiche precise per i codificatori MP3. L'algoritmo di decodifica e il formatodel file, invece sono definiti molto bene. Si presume che il creatore dello standard abbia escogitato un algoritmo perrimuovere appropriate parti di informazioni da un file originale, o piuttosto una rappresentazione in dominio difrequenza (MDCT). Questo processo si basa tipicamente sulla codifica psico acustica, ossia vengono rimossi queisuoni che l'orecchio umano non è in grado di percepire sia mediante l'orecchio che il cervello.Come risultato, vi sono molti codificatori MP3 differenti, ognuno in grado di riprodurre file di qualità differente; al30 settembre 2001 il migliore codificatore ad alto bitrate (128 kbit/s e superiori) è LAME [2]. Per i bitrate più bassi ilmiglior codificatore è il Fraunhofer, ma vi sono diverse opinioni. La decodifica MP3, è tuttavia ben definita da unostandard. Molti decodificatori sono "bitstream compliant", ossia sono in grado di riprodurre esattamente un branodello stesso file MP3 non compresso.

ID3L'ID3 tag è una classificazione dei formati che permettono l'inserimento, nel file MP3, della descrizione, del titolo,dell'artista e dell'album, o il numero della traccia.

Alternative all'MP3Vi sono molti altri codec audio alternativi all'MP3:• Ogg Vorbis dalla Xiph.Org Foundation, libero da brevetti;• mp3PRO dalla Thomson Multimedia;• MPEG-1/2 Audio Layer 2 (MP2), predecessore dell'MP3;• MP+, una derivato dell'MP2;• → MPEG-4 AAC, utilizzato da LiquidAudio e Apple Inc. nell'iTunes Store;• ATRAC, usato dai Minidisc della Sony;• AC-3, usato dalla Dolby Digital per i → DVD;• QDesign, usato da QuickTime per alti bitrate;• Windows Media Audio (WMA) da Microsoft;• RealAudio da RealNetworks.mp3PRO, MP3, AAC, e MP2 sono tutti membri della stessa famiglia tecnologica e si basano su modellipsicoacustici simili.Il Fraunhofer Gesellschaft è proprietario di alcune licenze di codec: Dolby Labs, Sony, Thompson ConsumerElectronics, mentre AT&T possiede altri brevetti. Su Internet si trovano altri metodi di compressione privi di perdite.Pur non essendo simili all'MP3, essi sono buoni esempi di altri metodi di compressione disponibili:• SHN

Page 97: Tecniche Video

MP3 94

• FLAC• Monkey's Audio (APE)Il formato MP3 fu progettato per essere utilizzato in parallelo al formato Video MPEG-1/2, e per questo non in gradodi riprodurre adeguatamente i suoni al di sotto dei 48 kbit/s (mono) o degli 80 Kbit/s (stereo).Nonostante alcuni fautori di codec più recenti come WMA, mp3PRO e RealAudio affermino che i loro rispettivialgoritmi sono in grado raggiungere una qualità CD già con 64 kbit/s, i test di ascolto cieco sembrano smentirli. Vacomunque apprezzata l'indiscussa superiorità di questi e altri formati su MP3 a pari larghezza di banda impiegata.Tra gli altri, la Xiph.Org Foundation, sviluppatrice dell'algoritmo Vorbis utilizzato assieme al container multimediale→ Ogg, in supporto al proprio formato di compressione Free Software, fornisce in una pagina web [4] dei test diascolto comparato tra diversi formati audio.

Licenze e brevetti

Un lettore MP3

La Thomson Consumer Electronics è proprietaria del brevettoMPEG-1/2 Layer 3 in U.S.A. e in Giappone. La Microsoft, che haprogettato il sistema operativo Windows, ha scelto di creare il proprioformato proprietario WMA invece di utilizzare l'MP3, in questo modoevita di dover pagare le relative royalties.

Per informazioni sui costi vedere: [5] e [6].Sotto la presidenza di Mario Monti, l'antitrust europeo multò Microsoftper abuso di posizione dominante con il massimo della sanzione, il10% del fatturato. Microsoft fu costretta ad abilitare l'installazione suWindows di lettori audio diversi dal nativo Windows Media Player,venduto insieme al sistema operativo. Questi software permettevano di ascoltare l'mp3 e altri formati diversi dal".wma": alla fine, lo stesso software "Windows Media Player" è stato modificato per la lettura di molti codec e laloro masterizzazione, fra i quali c'è l'mp3.

Nonostante queste scelte, il formato MP3 continua ad essere ampiamente utilizzato. Vediamo perché:• Ormai la maggior parte degli utenti ha familiarità con il formato• La maggior parte della musica disponibile è in formato MP3• Una grande varietà di software e di hardware hanno ottenuto dei notevoli vantaggi da questo formato,

rivoluzionando l'industria musicale e le leggi sul copyright.• Assenza di controlli sulla copia e distribuzione. Assenza di DRM (Digital Rights Management)• L'mp3 è un file generalmente poco pesante rispetto a molti altri formati. Tuttavia è superato nel rapporto

qualità/bitrate sia da WMA che da Ogg Vorbis , AAC. Fornisce una qualità audio più che buona con file cheoccupano da 3 ai 5 MB (MegaByte), per una tipica canzone di 5 minuti compressa ad un bitrate di 128kbit/secondo. Ciò consente il download di singoli brani anche ad utenti che non hanno una connessione ADSL, dimemorizzare parecchie ore di musica nei lettori Multimediali.

• La rivoluzione dell'mp3 sta nel fatto che i modelli psicoacustici usati per la codifica del flusso audio sfruttano ilfenomeno del mascheramento. L'orecchio umano infatti non è in grado di percepire determinati suoni sovrapposti.In questo modo viene codificata minore informazione, senza disturbare però la qualità percettiva.

Page 98: Tecniche Video

MP3 95

Voci correlate• Lettore MP3• Bit rate

Collegamenti esterni• MP3 [7] su Open Directory Project ( Segnala [8] su DMoz un collegamento pertinente all'argomento "MP3")

Note[1] http:/ / www. iis. fraunhofer. de/ amm/ techinf/ layer3/[2] http:/ / lame. sourceforge. net/[3] http:/ / jthz. com/ mp3[4] http:/ / www. xiph. org/ vorbis/ listen. html[5] http:/ / www. mp3licensing. com/ help/ developers. html[6] http:/ / www. mp3licensing. com/ royalty/ index. html[7] http:/ / www. dmoz. org/ Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/[8] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/

Page 99: Tecniche Video

96

Diffusione del Video Digitale

HDTV

Un'immagine televisiva ad alta definizione mostrata da un videoproiettore.

La televisione in alta definizione, in siglaHDTV (acronimo dell'analogo termineinglese High Definition TeleVision), o anchesemplicemente alta definizione, è latelevisione con → video di qualitàsignificativamente superiore a quello deglistandard televisivi maggiormente diffusi nelmondo nella seconda metà del XX secolo eancora oggi molto diffusi, standard televisiviche rientrano nella SDTV. È in altre paroleun termine che sta ad indicaregenericamente un livello qualitativodell'immagine televisiva.

A differenza della SDTV, in cui il rapportod'aspetto è sia nel tradizionale formato 4:3che in quello widescreen 16:9, l'alta definizione moderna prevede standard unicamente in 16:9.

Caratteristiche tecnicheUn fotogramma del sistema televisivo PAL (Europeo) è composto da 2 semiquadri (field) di 312,5 linee cadauno.Nel primo semiquadro, vengono riprodotte le linee dispari, sul secondo le linee pari. Il segnale è quindi composto da25 fotogrammi al secondo, pari a 50 semiquadri. Ogni linea orizzontale ha una durata di 64 microsecondi (15625Hz), 53 dei quali sono utilizzati come parte attiva (quindi riproducono il segnale video), mentre i restanti 11microsecondi sono utilizzati come segnale di sincronismo orizzontale. Lo stesso accade nei semiquadri, infatti solo576 linee, sono da ritenersi attive, le rimanenti costituiscono l'insieme del sincronismo verticale. La risoluzioneorizzontale del fotogramma non è applicabile in termini di → pixel al video analogico, dove ogni riga è composta daun segnale modulato analogico, quindi continuo, ma la sua risoluzione è in funzione della frequenza di trasmissionedi questo segnale; più la banda sarà ampia, più informazioni si possono trasmettere in ciascuna linea. Il segnale astandard PAL ha una larghezza di banda di oltre 7 MHz, ma in realtà la scarsa qualità dei ricevitori TV commerciali(e la pessima qualità degli impianti di ricezione via antenna) ha fatto col tempo ritenere che un segnale di qualitàadatto alla trasmissione ha una banda di 5 MHz, sufficienti per risolvere circa 400 linee. Questo è il massimo teoricoche può essere trasmesso con la codifica PAL, anche se la qualità ottenibile realmente è inferiore. Se la sorgente èdigitale, lo standard di campionamento prevede invece 720 pixel sull'asse orizzontale. L'evoluzione dell'informatica,molto più rapida rispetto al broadcasting, ha fatto sì che agli standard TV si affiancassero standard per PC semprepiù performanti fino a far diventare gli standard informatici la punta di diamante degli standard video ad AltaDefinizione. Oggi conviene ragionare in termini di standard "nK" dove n è il numero di migliaia di pixel lungo l'asseorizzontale.

Page 100: Tecniche Video

HDTV 97

Formati video

Evidenziazione pubblicitaria per i centocanali in alta definizione della rete

televisiva DirectTV

Lo standard HDTV, all'inizio delle ricerche negli anni '80 del XX secolo, siriteneva dovesse offrire una risoluzione "doppia" del PAL, quindi 1250 righenon tutte attive (le attive si riducevano a 575 x 2 = 1.150, il che comportava, a16/9, una risoluzione orizzontale di 2.040 pixel); tuttavia per ragionicommerciali la dizione "Alta Definizione" è stata via via estesa nei decenni astandard sempre meno performanti, fino a includere nell' "Alta Definizione"standard con prestazioni effettive minori di un segnale PAL ricevuto conapparati professionali. Quindi gli attuali standard 2K in realtà stannorealizzando l'HDTV "effettiva" pensata 30 anni fa.

Oggi la tecnologia HDTV comprende quattro formati video, che differisconosia per la risoluzione effettiva che per le modalità di scansione dell'immagine.• Il formato 720p, comunemente chiamato HD ready (i televisori che lo

supportano riportano il logo HD ready, cioè "pronto per l'altadefinizione"), presenta una risoluzione complessiva di almeno 921.600pixel (1280×720) con scansione progressiva, ovvero per ciascun ciclo ditrasmissione di un fotogramma (50 o 60 Hz a seconda dei Paesi) vienetrasmesso l'intero quadro dell'immagine. Ogni aggiornamento coinvolge tutte le 720 linee e i 921.600 pixel delloschermo. Nel caso di schermo al plasma con pixel non-quadrati è HD ready anche la risoluzione complessiva di786.423 pixel (1024x768).

• Il formato 1080i, presenta una risoluzione complessiva di 2.073.600 pixel (1920×1080) con scansioneinterlacciata, ovvero per ciascun ciclo viene trasmesso un semiquadro formato alternativamente dalle sole lineepari o dispari dell'immagine. Quindi ogni aggiornamento coinvolge 540 righe e 1.036.800 pixel.

• Il formato 1080p, comunemente chiamato FULL HD, è il più recente dei tre ed equivale alla versione conscansione progressiva del 1080i, per cui ogni aggiornamento coinvolge tutte le 1080 linee e i 2.073.600 di pixeldello schermo, ma di solito è a 24Fps, la velocità della pellicola cinematografica.

Sono previsti formati 1080p a 50 e 60 fps, ma attualmente non sono di uso pratico, solo alcune telecamere eregistratori possono riprendere e registrare così tanti dati.• Esiste anche un formato HR.HDTV (Half Resolution High Definition TV) con risoluzione pari di 960x540 ovvero

l'esatta metà della definizione FULL HD (1920x1080) che tuttavia non è uno standard ufficiale né un formatonativo. L'HR.HDTV si ottiene dal downscaling di materiale ad alta definizione. Questo formato non viene usatoda alcuna emittente televisiva per trasmissioni TV ma soltanto per la creazione di file video Xvid. http:/ / en.wikipedia. org/ wiki/ High-Resolution_High-Definition

Gli standard a 1035 linee di scansione, in uso soprattutto in Giappone, sono stati abbandonati.Va evidenziato che, per loro stessa natura, gli schermi LCD e plasma visualizzano comunque qualunque segnalevideo in modalità progressiva, sia che originariamente sia interlacciato, sia che sia già progressivo.

Page 101: Tecniche Video

HDTV 98

Confronto tra i vari formati video

Per confronto, nelle riprese cinematografiche si gira a 24 fotogrammi al secondo (in pellicola) con l'utilizzo di unotturatore a due pale che, con una frequenza doppia di 48 cicli al secondo, in proiezione copre le interlinee e ipassaggi tra un fotogramma e l'altro. Le telecamere di ripresa elettroniche (o quelle digitali) invece hanno cicli di 25fotogrammi al secondo. Le emittenti televisive tradizionali trasmettono in scansione interlacciata 25 fotogrammi alsecondo per il sistema PAL e 30 per il sistema NTSC, quest'ultimo ha una risoluzione inferiore al precedente. [1]

La qualità relativa dei due formati HD ready è legata, oltre che a considerazioni soggettive (preferenza verso unamaggiore stabilità dell'immagine o verso una maggiore risoluzione), ai contenuti del segnale trasmesso. Le scene conmovimenti più rapidi e frequenti possono beneficiare della maggiore rapidità di aggiornamento del formato 720p,mentre le scene statiche possono trarre vantaggio dalla maggiore ricchezza di dettagli del formato 1080i. Di fatto ilsistema progressivo elimina i difetti di fermo immagine soprattutto durante la fase di montaggio.La definizione dei programmi HDTV è circa 4 volte superiore a quella del formato → DVD e nonostante la buonaefficienza di compressione offerta dall'→ MPEG-4, lo spazio richiesto per la loro archiviazione è comunquerilevante. Per quanto i supporti ottici Blu-ray (lo standard HD DVD è stato abbandonato) di ultima generazioneoffrano una capacità che può arrivare a 50 GB e oltre, questa sarebbe appena sufficiente per 2 ore di filmato ad altadefinizione con la codifica DVD. D'altra parte, l'uso di codec avanzati quali H.264 (MPEG-4 Part 10) consentirà latrasmissione della qualità piena con bitrate abbastanza bassi, fino a scendere agli 8 Mbit di banda passantedisponibile sui ricevitori DTT. Questi codec vengono utilizzati anche dai lettori HD DVD e Blu-ray per abbassare labanda passante richiesta permettendo la memorizzazione fino a 8 ore di video su supporti Blu-ray a più strati.A partire dai primi mesi del 2009 sono presenti sul mercato televisori in grado di supportare il formato 1080p (FullHD con scansione progressiva), anche con frequenza di ripetizione di 200 Hz.

Page 102: Tecniche Video

HDTV 99

Confronto dei particolariA parità di altezza dello schermo, i sistemi ad alta definizione offrono una qualità nettamente superiore per via delladimensione dei → pixel nettamente inferiore, come si può notare dalle immagini sottostanti.

In questo caso infatti un pixel dello standardFULL HD ha il 28,4% dell'area di un pixel dellostandard PAL, avendo un lato che equivale al53,3% del lato di quest'ultimo. Per un pixel dellostandard HALF HD (HD READY) le percentualidiventano il 64% per l'area e l'80% per il lato.

Altri fattori importanti per la qualità

Esistono sul mercato diverse tipologie ditelecamere che si differenziano per la risoluzioneche utilizzano per la registrazione (720p e 1080itra le più comuni) ma un altro fattore importanteper determinare la qualità di una registrazionedigitale è il Bitrate, ovvero la quantità di bitutilizzati per memorizzare ogni fotogramma del filmato; per gli apparecchi di classe domestica si aggira intorno ai12/15 Mb/s utilizzando lo standard di registrazione/compressione MPEG-2.

Il sistema di connessione con cui è possibile connettere una videocamera o un lettore al monitor o al videoproiettoresi differenzia tra SDI e Component HD. Nei sistemi di montaggio non-lineare è possibile utilizzare lo standardFirewire.

Come sfruttare l'HDTVI notevoli miglioramenti dell'alta definizione sono apprezzabili solo se si possiede un intero set HDTV, vale a diresia televisore che decoder per ricevere le trasmissioni ad alta definizione trasmesse dalle emittenti televisive, o unlettore ottico di dischi ad alta definizione come dal 2006 sono il Blu-ray e HD DVD. In caso contrario, se si tentassecioè di visualizzare un contenuto HDTV con un televisore tradizionale, non si noterebbero miglioramenti nelladefinizione, in quanto il vantaggio fondamentale dell'alta definizione risiede proprio nella maggiore risoluzione delsegnale video, circa quattro volte quello di un normale DVD.C'è decisamente poca chiarezza nella maggior parte dei produttori circa le effettive caratteristiche tecniche di un televisore che abbia supporto all'alta definizione. Non è detto che un display di elevata diagonale, con tecnologia TFT o plasma, sia una soluzione HD. Per dare un minimo di sicurezza al consumatore, esistono i sigilli "HD ready",

Page 103: Tecniche Video

HDTV 100

"HD TV", "FULL HD 1080p" ed "HD TV 1080p", stabiliti dalla EICTA (European Information, Communicationsand Consumer Electronics Industry Technology Association), che in teoria dovrebbero dare la garanzia che untelevisore sia in grado di visualizzare contenuti HD (ma nei negozi si sono visti televisori con questo sigillo, le cuicaratteristiche tecniche non lo permettono). Il sigillo HD Ready dovrebbe garantire che il televisore:• abbia una risoluzione verticale fisica di almeno 720 righe• disponga di (almeno) una presa analogica YUV (→ Component)• disponga di (almeno) una presa digitale (DVI o HDMI) protetta dal sistema HDCP• sia in grado di visualizzare contenuti con i formati 720p e 1080i.Viceversa né "HD Ready" né "HD Ready 1080p" garantiscono che l'apparecchio riceva via etere o satellite stazionitelevisive in HD (720p o 1080i): per questa caratteristica il sigillo deve essere "HD TV" o "HD TV 1080p".

Cenni storici e prossimi sviluppiNel corso della storia, la sigla HDTV è stata usata più volte per indicare sistemi all'avanguardia con una risoluzionevia via sempre maggiore. In ambito analogico, il riferimento è sempre stato costituito dal numero delle righe discansione. Si possono indicare come HDTV i sistemi a 60 linee del 1925 e quello inglese a 240 linee del 1935,definito precisamente come HDTV dal governo britannico. Anche un sistema sperimentale americano a 441 linee fupresentato come HDTV nel 1939.Dopo il secondo conflitto mondiale, il sistema francese a 819 linee fu utilizzato per alcuni anni in Francia e in Belgioe non più utilizzato dal 1968, per la difficile compatibilità nei televisori a colori e con gli altri sistemi 625/25continentali. [2] .In tempi recenti, il termine HDTV viene usato per indicare i sistemi a 720, 1035 e 1080 linee.In Giappone, la ricerca sull'alta definizione iniziò nel 1968, quando il Dr. Takashi Fujio, direttore dei Laboratori diRicerca della NHK, l'ente televisivo pubblico giapponese, ritenne che la tecnologia televisiva, ancorché analogica,avesse raggiunto sufficiente maturità per passare dal tradizionale "piccolo schermo" al grande schermocinematografico. Diede quindi avvio ad una ricerca per un sistema di "electronic film", basato su immagini adefinizione più elevata di quella consentita allora dai sistemi televisivi. Si conviene che l'immagine deve:• essere composta da più di 1000 righe attive• avere un rapporto base/altezza di almeno 5:3 (widescreen)In tali condizioni, uno spettatore in grado di osservare lo schermo sotto un angolo orizzontale >40° perde lapercezione del suo bordo e vive con più partecipazione la vicenda raccontata (effetto cinema).Nel 1980 La NHK mette a punto il sistema Hi-Vision analogico a 1125 righe (totali), formato 5:3, 60 semiquadri/s1125/60i/5:3 (1.66:1, corrispondente al formato dello European Widescreen e della variante minima dello VistaVision). Si costruiscono anche prototipi di una telecamera, un videoregistratore, un tape-to-film transfer, unfilm-to-tape transfer (telecinema).Nel novembre 1981, con le prime riprese sperimentali eseguite a Venezia, la RAI inizia, insieme alla NHK ed allaCBS, una sperimentazione del sistema Hi-Vision. Installati tali prototipi su un mezzo di ripresa, produce a Venezia"Arlecchino", una breve fiction con regia di Giuliano Montaldo e luci di Vittorio Storaro.Nel 1981 la SMPTE crea l'HDTV Electronic Production Working Group che sancisce il sistema analogico1125/60i/16:9 SMPTE 240M.Nel 1983 la Sony produce i primi apparati di produzione in HD con lo standard 1125/60i/5:3 (1125 linee didefinizione/scansione 60hz/aspect ratio 5:3); si tratta della linea HDVS: camera HDC-100, videoregistratoreHDV-100, tape-to-film transfer EBR, mixer video HDS-100 e videoproiettore HDI-120. Per sperimentarli, la RAIproduce la mini-fiction "Oniricon" con regia di Enzo Tarquini, il tutto in preparazione della produzione di un verofilm.

Page 104: Tecniche Video

HDTV 101

Nel 1987 la NHK irradia le prime trasmissioni analogiche in HDTV via satellite utilizzando il sistema dicompressione analogica MUSE (Multiple Sub-nyquist sampling Encoding). Lo stesso anno la RAI, in co-produzionecon la CBS e la United Artists, produce "Julia & Julia" il primo film elettronico al mondo, con Sting e KathleenTurner, luci di Giuseppe Rotunno, regia di Peter Del Monte. In tale produzione viene impiegata la video-cameraSony HDC-300 di 2ª generazione con prestazioni più cinematografiche, risultato delle prime sperimentazioni. Lostandard HD è sempre Hi-Vision 1125/60/i però col definitivo formato di immagine 16:9 (5.33:3 / 1.78:1); da qui inpoi si utilizzerà il protocollo SMPTE SMPTE 240M (1125/60i/16:9).la Commissione Europea (ECC), con la approvazione dei 12 paesi membri, lancia il progetto Eureka 95 (EU-95) peruna HDTV europea col nuovo standard analogico 1250/50i/16:9 (1250linee / 50hz / aspect ratio 16:9).Partecipano al progetto broadcaster (BBC, ARD, RAI, RTVE, ORF, …) e costruttori (Philips, Thomson, BTS,Seleco, Nokia, etc.). Alla Riunione Plenaria del CCIR (tenuta nel maggio 1986 a Dubrovnik), la battaglia fra i duestandard, quello giapponese (1125/60i/16:9) sostenuto dagli USA, e quello europeo (1250/50i/16:9) si traduce in unpareggio. Nel 1987 l'industria europea produce apparati di produzione HD anche con lo standard analogico1250/50i16:9: camera BTS KCH-1000, videoregistratore BTS BCH-1000. Anche la Thomson produce camere HD eper registrare usa coppie di VTR digitali D1. L'italiana Seleco produce il videoproiettore HDFP-1250 tritubo CRTinteramente europeo. Per sperimentarli, i broadcaster europei realizzano molte riprese (fiction, documentari,concerti, sport) diffondendole via satellite a più punti di visione in occasione di mostre, congressi e presentazioni conil sistema analogico di compressione HD-MAC.Nel 1987 RAI produce "Un bel dì vedremo", la sua prima mini-fiction col sistema europeo analogico 1250/50i/16:9.Seguono negli anni successivi altre produzioni sperimentali: "Capitan Cosmo" con Walter Chiari, "Allegro conbrio", "Incontrando Robot", "Il cielo in una stanza". Nel 1990 un consorzio formato da RAI, Telettra, RTVE ePolitecnico di Madrid, nell'ambito del progetto europeo EUREKA 256 (EU-256), mette a punto un sistema dicompressione digitale HDTV basato sull'algoritmo DCT (Discrete Cosine Transform), da cui nascerà cinque anni piùtardi lo standard di compressione MPEG-2.Il sistema viene dimostrato durante i Mondiali di Calcio Italia 1990 diffondendo ad 8 sale di visione italiane leimmagini in alta definizione riprese nei campi di calcio con i sistemi HDTV 1125/60i/16:9 e 1250/50i/16:9 etrasmesse via satellite Olympus. I grossi gruppi industriali europei capiscono l'importanza della compressionedigitale, ma non sono ancora pronti: nel progetto europeo EU-95 si prosegue con l'impiego della compressioneanalogica col sistema HD-MAC, mentre il gruppo Alcatel acquista dalla FIAT la Telettra e trasferisce nelle suefabbriche americane lo studio della compressione digitale. Il sogno RAI si arresta bruscamente.Sempre nel 1990 la CEE crea Vision-1250 con lo scopo di fornire un sostegno tecnico-produttivo in 1250/50i/16:9 abroadcaster e produttori europei. I costruttori Thomson, Philips e BTS, oltre a Seleco ed altre ditte europee,forniscono gli apparati necessari alla creazione di una "flotta di ripresa" Vision-1250, forte di circa 20 mezziattrezzati. Altri mezzi di ripresa vengono messi in campo dai broadcaster europei (RAI, BBC, SFP, RTVE, WDR,BR, YLE, ecc.), con uno sforzo considerevole del mondo tecnico europeo.Il 1992 è l'anno dei XVI Giochi olimpici invernali ad Albertville e dei Giochi della XXV Olimpiade a Barcellona.Per entrambi Vision 1250 ed NHK effettuano una copertura HDTV con i rispettivi sistemi. Ma nubi dense si stannoaddensando sul neonato progetto EU-95 per il sistema HDTV 1250/50i/16:9. Dopo le Olimpiadi, in seno alle autoritàeuropee cresce la perplessità sulla opportunità di pro-seguire la sperimentazione di un sistema HD europeoanalogico. E ciò per molteplici ragioni: gli elevati costi dell'operazione (condotta ancora con sistemi analogici), loscarso favore presso il pubblico per l'indisponibilità di schermi televisivi di grandi dimensioni (oggi invece incommercio) e le difficoltà nel trasporto e trasmissione dei segnali HDTV affidati ancora a sistemi di compressioneanalogici.Nel 1982, negli USA, un comitato congiunto, formato da Electronic Industries Alliance (EIA), Institute of Electrical and Electronics Engineers (IEEE), NAB, NCTA e SMPTE, crea l'Advanced Television System Committee) (ATSC, organizzazione volontaria e non-profit per lo sviluppo di un sistema avanzato TV. Nel 1987 La Federal

Page 105: Tecniche Video

HDTV 102

Communications Commission (FCC), numerose università e gruppi di ricerca individuano 23 possibili sistemiHDTV. Nel 1993 il FCC Advisory Committee decide di prendere in considerazione solo sistemi digitali di HDTV,sollecitando le 4 ditte proponenti a riunirsi in una Digital HDTV Grand Alliance. Nel 1995 La "Grand Alliance"propone un HDTV "advanced television terrestrial broadcasting system" come concordato fra i membri. Taleproposta è trasformata dalla ATSC nella norma A/53 per uno standard digitale che prevede: sistemi HDTV (1080 x1920, 720 x 1280 active line/active samples-per-line) e sistemi SDTV (TV a definizione standard 480 x 720 ). Nel1996 la SMPTE sancisce ed emette gli standard: SMPTE 274M - norme 1080/50i/16:9 (Eu) e 1080/60i/16:9 (USA)-e SMPTE 296M - norme 720/50p/16:9 (Eu) e 720/60p/16:9 (USA). L'anno successivo la FCC decide di assegnarealla trasmissione digitale terrestre TV (DTTV) i cosiddetti "taboo channels" adiacenti ai canali già usati e lasciatiliberi per evitare interferenze fra di essi. Oltre alla A/53 vengono emesse altre norme per la televisione satellitaredirect-to-home (A/81), per la trasmissione dati (A/90), per la compressione audio AC3 (A/52), ecc. Nel mese dinovembre 1998 hanno inizio le prime trasmissioni DTV comprendenti HDTV e SDTV secondo un calendariostabilito dalla FCC.Per l'Europa è del 2003 la nascita dell'idea di un Digital Cinema (DC), vero "cavallo di Troia" per il mondocinematografico con la proposta di 24 fps (in luogo dei 50hz o 60hz della TV), costituisce anche una forte sferzataper il mondo televisivo e produttivo. I broadcaster europei prendono coscienza che il DC offre importantiopportunità e in particolare di poter disporre di un "common format" in DC con cui creare prodotti top destinati aduna lunga vita (fiction, documentari, ecc.) per i quali la conservazione è ancora oggi affidata alla pellicola 35mm, maanche di poter disporre di una "scalabilità di formato", potendosi ricavare dal master in DC copie destinate ai mercaticon minore definizione (SDTV, → DVD, VHS, ecc.). Al tempo stesso, esso costituisce una minaccia, potendoaggirare la diffusione TV con la distribuzione di supporti preregistrati (home-cinema).Nel 2004 la società belga Alfacam dà inizio a regolari trasmissioni HDTV col satellite Astra, con la rete Euro1080(utilizzando il sistema 1080/50i/16:9) battendo sul tempo i broadcaster e le autorità europee. Inizia col canale HD1 acui poi seguono HD2 e HD5. La produzione necessaria a riempire questi canali è fornita anche dalla flotta di ripresaAlfacam che copre importanti manifestazioni, dal "Victory Day" a Mosca a vari eventi culturali e sportivi (nelfebbraio 2006 un considerevole gruppo di tali mezzi coprirà in HD i XX Giochi olimpici invernali di Torino).Sempre nel luglio 2004, sotto la pressione crescente di gruppi industriali europei interessati al lancio della HDTV, ilMinistero dell'Industria francese crea un HD Forum e quest'anno il Consiglio dell'Unione Europea, col supporto dellaCommissione Europea, ha organizzato il 7 giugno in Lussemburgo alla presenza di 300 rappresentanti decisionali(governi e settori privati) una Conferenza Europea sulla Televisione ad Alta Definizione. In tale conferenza la EBU(European Broadcasting Union) ed il "Digital Interoperability Forum" annunciano la creazione di un HDTVEuropean Forum.La DCI (il gruppo di ricerca costituito dalle major di Hollywood) propone nel luglio 2005 le specifiche dei dueformati: 4096x2160 (4K) e 1920x1080 (2K), ora in via di normazione da parte della SMPTE. In Europa opera già datempo lo EDCF (European Digital Cinema Forum). Intento l'industria televisiva di consumo si dichiara pronta aimmettere sul mercato apparati HDTV (ricevitori MPEG-4 AVC e lettori DVD) certificandoli col marchio HDready. Al Satexpo di Vicenza (ottobre 2005) vengono presentati HD Council Italia (associazione nata perpromuovere la diffusione dell'Alta Definizione in Italia) e HD Forum Italia (gruppo di lavoro e coordinamento sullenuove tecnologie dell'alta definizione costituito presso la Fondazione Bordoni). Questi si uniscono ai Forumnazionali inglese (UK HD Forum emanazione del DTG, Digital Television Group), tedesco (German HD Forum -emanazione della Deutsche TV Platform), oltre che spagnolo, portoghese, svedese, belga e olandese. Gli standard inpredicato per una HDTV europea sono:• SMPTE 296M : 720/50p (1280x720 pixel)• SMPTE 274M : 1080/50i (1920x1080 pixel)Entrambi comportano un bit-rate pari a :• in SDI (senza compressione) = 1.5 Gbps

Page 106: Tecniche Video

HDTV 103

• con compressione MPEG-2 = 18 Mbps• con compress. MPEG-4 AVC = 9 MbpsMa è già pronto in laboratorio uno standard 1080/50p che comporterebbe però un bit-rate doppio. Questi standardHDTV utilizzano tutti, come di consueto, l'aspect ratio 16:9 e la codifica audio AC3 5.1 canali.Negli ultimi anni l'HDTV ha ricevuto una maggiore importanza, soprattutto per due motivi:• I televisori LCD e plasma con schermi di grandi dimensioni e i videoproiettori digitali, stanno diminuendo di

prezzo, specie i primi.• La trasmissione digitale è molto più efficace di quella analogica.Negli Stati Uniti d'America il HDTV trasmesso in modo digitale (via sistema ATSC) esiste da alcuni anni comeanche in Giappone (sistema ISDB).

Il decoder SKY HD prodotto da PACE

In Europa i tempi per l'introduzione si sono allungati,perché si è deciso di usare tecnologie più avanzate perle trasmissioni HDTV (MPEG-4 H.264 invece diMPEG-2 per il video e DVB-S2 invece di DVB-S perla trasmissione via satellite). Solo da gennaio 2006sono disponibili ricevitori HDTV per satellite chesupportano queste tecnologie.

Nel 2005, in occasione dell'Expo tenuta in Giappone, latv NHK ha presentato un'evoluzione dell'HD, l'UltraAlta Definizione.

Le prime trasmissioni europee HDTV MPEG-4 via DVB-S2 sono cominciate nel novembre del 2005 dai canalitedeschi "Premiere" (criptata) e Sat1/ProSieben (FTA). Nel frattempo sono iniziate anche altre trasmissioni HDTV,la maggior parte ancora di tipo dimostrativo o di prova, spesso ancora con video MPEG-2 invece di MPEG-4. Igrandi network televisivi europei (Sky, BBC, Canal+, ...) hanno lanciando le loro offerte HDTV nel corso del 2006,iniziando con gli eventi di maggior richiamo quali i campionati mondiali di calcio.

Nel 2007 le reti tv australiane Seven Network e Network Ten hanno lanciato le versioni HD dei loro canali (conalcuni contenuti esclusivi), 1 anno dopo è la volta di Nine Network.

La distribuzione di canali HDTV in ItaliaIn Italia la programmazione, avvenuta nel 2006, poco prima dei campionati mondiali di calcio, ha avuto il suo iniziocon l'emittente in chiaro Venice Channel seguita poi da SKY, con prima la trasmissione della finale di ChampionsLeague, trasmessa in modalità sperimentale, poi con le trasmissioni ufficiali dei mondiali germanici, attraverso ilcanale 207 di SKY, denominato allora "SKY Mondiale HD". Infine con l'offerta attuale SKY HD, con inclusi 14canali HDTV:• SKY Cinema 1 HD, canale 301 SKY (solo SKYBOX HD)• SKY Cinema Hits HD, canale 306 SKY (solo SKYBOX HD)• SKY Sport 1 HD, canale 201 SKY (solo SKYBOX HD)• SKY Sport 2 HD, canale 202 SKY (solo SKYBOX HD)• SKY Sport 3 HD, canale 203 SKY (solo SKYBOX HD)• SKY Cinema Max HD, canale 309 SKY (solo SKYBOX HD)• SKY SuperCalcio HD, canale 205 SKY (solo SKYBOX HD)• SKY Calcio 1 HD, canale 251 SKY (solo SKYBOX HD)• SKY Calcio 2 HD, canale 252 SKY (solo SKYBOX HD)• Discovery Channel HD, canale 401 SKY (solo SKYBOX HD)• Eurosport HD, canale 209 SKY

Page 107: Tecniche Video

HDTV 104

• National geographic Channel HD, canale 402 SKY• Fox HD, canale 110 SKY (solo SKYBOX HD)• Fox Crime HD, canale 114 SKY (solo SKYBOX HD)• Primafila HD, canale 351 SKY (pay-per-view)• Premium Calcio HD"" (produzione HD di Mediaset Premium)

La TV pubblica Svizzera SRG SSR idée suisse da fine 2007 ha creato un canale satellitare ad alta definizionetrilingue (HD suisse) del tutto gratuito (sebbene riservato ai cittadini svizzeri), su cui sono stati trasmessi i Giochidella XXIX Olimpiade, il Campionato europeo di calcio 2008.La Tv pubblica RAI ha trasmesso i giochi olimpici invernali di Torino 2006 in HDTV in via sperimentale, sullefrequenze terrestri a circuito chiuso a Torino e zone limitrofe, destinate alla visione solo in luoghi pubblici.A Maggio 2008 i test sono già iniziati nell'area di Torino, e la trasmissione avviene a 720p.Nel corso del 2008, l'ente pubblico ha trasmesso gli Europei di calcio 2008 in alta definizione → MPEG-4/H.264nelle zone di Torino, Roma, Milano, Valle d'Aosta e Sardegna [3] .L'evento è andato in onda, oltre che in analogico 4:3, anche in digitale terrestre, ma in formato 16:9 anamorfico.In realtà, già dal 1 marzo 2007 Rete 4 aveva già iniziato dei test in HDTV trasmettendo il segnale con la tecnica deldigitale terrestre nella zona di Cagliari, estendendolo successivamente nelle aree in cui è avvenuto lo spegnimentodel segnale analogico terrestre.Le trasmissioni in formato → MPEG-4/H.264 sono ricevibili solo da sintonizzatori DVB-T HD compatibili, che sipossono trovare sia in versione per personal computer (basati ad esempio su interfaccia USB 2.0) sia comedispositivi autonomi da collegare alla televisione.

FuturoMentre il formato HDTV si sta diffondendo nei mercati, nei laboratori di ricerca si stanno sviluppando i successori.Ci sono in progetto sistemi come SHD (Super High Definition), detto anche "4k", con una risoluzione di 3840x2160pixel (quattro volte i dati di un sistema Full HD) e anche di UHDV (Ultra Alta Definizione), sistema tutt'ora in viasperimentale elaborato in Giappone, il quale prevede una risoluzione di 7680x4320 pixel (16 volte i dati di unsistema Full HD). Tutti questi nuovi standard prevedono, come aspect ratio, l'uso del 16:9. Mentre il progetto SHD siprevede che venga (almeno inizialmente) destinato alle sale cinematografiche, il progetto UHDV sarebbe destinatoall'ambito domestico. Il progetto SHD dovrebbe essere introdotto nel giro di qualche anno mentre per il progettoUHDV si prevedono tempi molto lunghi, NTT DoCoMo prevede la commercializzazione nel 2025 circa.

Voci correlate• PAL• NTSC• → DVD• Blu-ray Disc• HD DVD• HD ready• Televisione digitale terrestre• broadcast flag• SKY HD• Ultra High Definition Video• Digital Rights Management• SDTV• EDTV

Page 108: Tecniche Video

HDTV 105

• → Risoluzioni standard

Altri progetti

• Wikimedia Commons contiene file multimediali su HDTV

Collegamenti esterni• (EN) Aspect Ratios [1] - Dal sito Widescreen.org• Lista di canali HDTV trasmessi via DVB-S in europa [4]

• Le basi dell'HDTV [5]

• Alta Definizione: chi, cosa, come, perché e quando? [6]

Note[1] Si noti che i due sistemi citati sono, a rigore, tecniche di codifica per un segnale video composito, che non definiscono la risoluzione e la

frequenza di scansione; tuttavia i termini sono di uso molto comune per riferirsi anche a questi aspetti delle norme relative.[2] Charles Poynton, Digital Video and HDTV: algorithms and interfaces, San Francisco, Morgan Kaufmann, 2003. 987-1-55860-732-7[3] http:/ / www. raiway. rai. it/ index. php?lang=IT& cat=144& showINFO=85[4] http:/ / www. kingofsat. net/ it/ hdtv. php[5] http:/ / www. tomshw. it/ video. php?guide=20040805[6] http:/ / www. tomshw. it/ guide. php?guide=20061107

DVD

Disco ottico

Logo del DVD

• Lettore CD• Lettore DVD• Masterizzatore• Super Multi• Software di masterizzazione

Dischi ottici

Il DVD, acronimo di Digital Versatile Disc (in italiano Disco Versatile Digitale, originariamente Digital Video Disc,Disco Video Digitale) è un supporto di memorizzazione di tipo ottico.

Page 109: Tecniche Video

DVD 106

StoriaIl DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell'elettronica diconsumo: il cosiddetto DVD forum, ovvero l'istituzione che si è incaricata di redigere le specifiche del nuovosupporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer.L'intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettatosenza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti allaconcorrenza fra formati che si erano presentati al tempo dell'introduzione delle videocassette per uso domestico.Il DVD forum individua 3 principali campi d'applicazione per il DVD:1. il DVD-Video, destinato a contenere film, in sostituzione della videocassetta;2. il DVD-Audio, pensato per sostituire il CD Audio grazie a una maggiore fedeltà e capacità;3. il DVD-ROM, destinato a sostituire il CD-ROM.Sia nel DVD-Video che nel DVD-Audio sono previsti sistemi di protezione in grado di disincentivare laduplicazione dei contenuti. Proprio a causa di problemi nello sviluppo dei codici di sistemi di protezione adeguati, lostandard DVD-Audio sembra essere l'applicazione meno fortunata del formato DVD. Al contrario lo standardDVD-Video e DVD-ROM sono apparsi sul mercato sin dal 1997, ottenendo un enorme successo commerciale.

DVD-RAM

In un secondo momento, lo stesso DVD Forum introdusse glistandard per i formati registrabili del DVD. Formalizzato nelcorso del 1999, il formato DVD-R è lo standard ufficiale per iDVD Registrabili. Esso si suddivide nei formati "DVD-R forauthoring" e "DVD-R for general use". I primi sono destinatialla creazione di copie di video protette da diritto d'autore,necessitano di uno speciale masterizzatore e sono in grado diimplementare i sistemi di protezione dalla duplicazione. Ladifferenza fondamentale tra i due formati risiede nella diversalunghezza d’onda del laser: 635 nm per il DVD-R(A) e 650nm per il DVD-R(G). I secondi sono in grado di contenerequalunque tipo di materiale, ma non sono compatibili con isistemi di protezione utilizzati nei DVD-Video.

Nel 2000 è stato formalizzato lo standard DVD-RW, chericalca le caratteristiche dei DVD-R "for general use", ma conla possibilità di essere riutilizzato fino a mille volte(teoricamente).

Negli anni necessari alla formalizzazione dello standard DVD-R, sono stati commercializzati altri 2 formati per laregistrazione in formato DVD: il DVD+R (e DVD+RW) dal consorzio Sony-Philips, ed il formato DVD-RAM,supportato da Matsushita e JVC. Questi formati differiscono notevolmente dal formato DVD-R in termini tecnici,anche se i più moderni lettori e masterizzatori sono in grado di supportare DVD registrabili in qualunque formato(con qualche riserva per il DVD-RAM). Il DVD-R/-RW e il DVD+R/+RW usano una tecnica di registrazioneelicoidale. Il DVD-RAM usa una tecnica di registrazione a cerchi concentrici, similare a un HardDisk, al quale èassimilabile nell'uso.

Più recente è l'introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, econ una capienza di circa 9 GB di informazioni. Anche in questo caso la cordata Sony-Philips ha giocato d'anticipo,commercializzando il formato DVD+R Double Layer (c.d. DVD+R DL) fin dal 2002, mentre solo nel 2004 si èformalizzato lo standard ufficiale DVD-R DL.

Page 110: Tecniche Video

DVD 107

Il DVD-VideoI DVD-Video sono supporti digitali in grado di contenere fino a 240 minuti[1] di materiale video in formatoMPEG-2. L'audio può essere in formato non compresso PCM (da 1 a 8 canali), in formato Dolby Digital AC3 (cheprevede da 1 a 6 canali), in formato DTS (fino a 8 canali) o in formato MPEG.I DVD-Video in commercio possiedono un codice detto codice regionale per poter essere riprodotto, usando unlettore DVD da tavolo, solo in una determinata zona del mondo (il globo è stato suddiviso in aree dalle majorcinematografiche). I codici regionali dei DVD-Video sono i seguenti:

Le zone del DVD

0 - Tutto il mondo (nessunarestrizione)1 - Canada, USA e suoi territori2 - Europa, Giappone, Sudafrica,Medio Oriente

3 - Sudest asiatico4 - Australia, Nuova Zelanda,America centrale e meridionale

5 - Russia, India, Asia nordovest eAfrica del nord

6 - Repubblica Popolare Cinese (tranne Hong Kong e Macao)7 - Riservato8 - Speciali sedi di riunioni (aeroplani, navi, hotel, etc.)

Il DVD-AudioIl formato DVD-Audio ha subito numerosi slittamenti per problemi tecnici. Questo formato (DVDA) è statoprogettato per fornire una qualità sonora notevolmente migliore di quella del CD Audio (CDDA).Malauguratamente, i sistemi di protezione dalla copia illegale implementati nel DVDA si sono rivelati molto efficacidal punto di vista della sicurezza, ma terribilmente invasivi dal punto di vista della qualità complessiva del suono. Inpratica il risultato sonoro era addirittura inferiore a quello dei normali CDDA, tanto che si è dovuto cercare altrisistemi di protezione che avessero un effetto meno marcato sulla qualità del suono.Nel frattempo il consorzio Sony-Philips ha introdotto, ritagliandosi una piccola fetta nel mercato audiofilo, il formatoconcorrente Super Audio CD SACD.Altro elemento che concorre al fallimento del formato DVD-Audio è la sua totale incompatibilità con gli attualilettori DVD-Video.

Page 111: Tecniche Video

DVD 108

Caratteristiche tecniche del formato DVD e DVD-ROM

DVD

Le dimensioni dei DVD di produzione industriale sono di seitipi:• DVD-1, detto più comunemente Mini DVD: 1,4 GB Lato

unico e singolo strato, con diametro minore di 120 mm• DVD-3: 2,8 GB Double layer Lato unico e doppio strato,

con diametro minore di 120 mm• DVD-5: 4,7 GB Lato unico e singolo strato• DVD-9: 8,5 GB Lato unico e doppio strato• DVD-10: 9,4 GB Due lati e singolo strato• DVD-18: 17 GB Due lati e doppio stratoI DVD "double layer" permettono una doppia incisione nellostesso lato. La capacità del supporto non raddoppiaesattamente, perché una parte di memoria è dedicata alla creazione di un indice e al controlo della distribuzione deidati.Il double side o "doppio lato" è un supporto che può essere inciso o riscritto da tutti e due i lati.Per il double layer occorre un particolare masterizzatore con tale funzionalità. Per il double side è sufficiente avereun supporto a doppio strato, che viene inciso con i comuni masterizzatori, semplicemente girando il disco.La memorizzazione delle informazioni avviene sullo "strato di incisione", tramite un laser, focalizzato su esso, chene modifica la riflettività, riproducendo la sequenza 0, 1. Ogni strato è suddiviso in tracce circolari e concentriche di0,74 micrometri.In lettura la luce laser viene riflessa dallo strato di memorizzazione in modo diverso a seconda dell'indice diriflessione e conoscendo la velocità di rotazione del disco e la traccia su cui si sta leggendo, si può risalire allasequenza 0,1.La minima velocità di trasmissione dati da un DVD è nove volte maggiore di quella di un CD, cosicché un lettoreDVD da 1x è quasi equivalente ad un lettore CD da 8x. Più precisamente, 1x per un lettore DVD equivale a 1350kB/s, mentre 1x per un lettore CD equivale a 150 kB/s.Il file system largamente usato nei DVDRom è l'UDF (Universal Disk Format).

Misure di un disco DVD- Diametro totale disco DVD è di 120 mm (12 cm);- Diametro totale foro centrale è di 15 mm (1,5 cm);- Diametro totale parte stampabile è di 118 mm (11,8 cm);- Diametro totale foro centrale non stampabile è di 22 mm (2,2 cm).

Dvd TimeÈ oggi possibile distribuire anche DVD a scadenza, aventi i medesimi standard di un DVD a doppio strato ma che sidifferenziano da questo per la durata fisica della traccia che contengono. La parte centrale contiene sostanza citricache, a contatto col raggio ottico del lettore, viene lentamente sprigionata ed entro 48 ore rende il DVD inservibileavendone deteriorato la traccia.Esistono vari brevetti per realizzare questi nuovi supporti. Negli Stati Uniti questa tecnologia è stata sviluppata con ilmarchio Flexplay dalla Flexplay Technologies, società fondata nel 1999 da Yannis Bakos and Erik Brynjolfsson.Una tecnologia simile è utilizzata dalla Buena Vista con il nome ez-D.

Page 112: Tecniche Video

DVD 109

Un'altra tecnologia simile, SpectraDisc, è stata sviluppata dalla SpectraDisc Corporation, acquistata interamentedalla Flexplay Technologies nel 2003.In Italia i DVD a scadenza sono detti Dvd Time e sono distribuiti dalla 01 Distribution che ha acquistato in esclusivail brevetto dalla società francese Dvd-Time. Il primo film distribuito in Italia su tale supporto è stato A History ofViolence nel 2006[2] .Questi supporti hanno il vantaggio che il film può essere preso a noleggio senza doverlo riportare in videoteca, dopola visione del film.

Il futuro dei DVDAnche se l'industria ha decretato che il DVD è tecnologicamente morto, si ha l'impressione che il suo uso continueràper un periodo non troppo breve.Lo standard che ha raccolto l'eredità del DVD è il Blu-ray Disc (BD), con una capienza di 25 GB di base, e con unapossibilità di contenere ben otto strati, raggiungendo una capienza fino a ben 400 GB (16 strati). Prima dell'elezionedel Blu-ray, lo standard rivale HD DVD aveva tentato di imporsi, ma è stato ritirato dal mercato. Una delle causedella vittoria del Blu-ray è l'essere stato adottato dalla Sony per contenere i videogames per Play Station 3.Lo studio di un possibile standard che permetterebbe il successivo salto di qualità è già avanzato: si trattadell'Holographic Versatile Disc (HVD), basato sulla tecnologia delle memorie olografiche, e permetterà di conteneretra i 300 e gli 800 Gigabyte su un disco.

Voci correlate• DVD Forum• DVD+RW Alliance• Elenco dei produttori di lettori DVD• Video anamorfico

Formati DVD• DVD+R• DVD-R• DVD-RAM• DVD+RW• DVD-RW• DVD+R DL• DVD-R DL• DVD-D• mini DVD

Page 113: Tecniche Video

DVD 110

Dischi ottici successori del DVD e CD• Versatile Multilayer Disc (VMD)• Digital Multilayer Disk (DMD)• Blu-ray Disc• HD DVD• Holographic Versatile Disc (HVD)

Dischi alternativi al DVD• Enhanced Versatile Disc (EVD)• Dual Disc• CD-ROM

Formati Video• MPEG-2• → MPEG-4• DivX• EZ-D• VOB

Altri progetti

• Wikimedia Commons contiene file multimediali su DVD

Note[1] La capienza in minuti di un DVD-video è solo indicativa e dipende da scelte di natura commerciale. La reale capienza in minuti di un

DVD-video dipende dal tipo di ripresa e dai settaggi scelti per i parametri della codifica in MPEG-2. Per qualsiasi supporto di memorizzazionedigitale, l'unità di misura della capienza in uso è il byte.

[2] cinecittà.com (http:/ / news. cinecitta. com/ news. asp?id=17398& idd=1). URL consultato il 10-01-2008.

Page 114: Tecniche Video

Fonti e autori delle voci 111

Fonti e autori delle vociLuce  Fonte: http://it.wikipedia.org/w/index.php?oldid=27692888  Autori:: 5Y, A7N8X, ARTE, Adasinol, Alfio, AttoRenato, AvdE, Avesan, Balabiot, Barbaking, Berto, Beta16, Blakwolf,Blueduster, Buzz lightyear, Ciano, Codas, Contezero, DanGarb, Davide, Diablo, Dinwath, Djdomix, Dr.Conati, Enne, Erococo, Fabio Vescarelli, Fernandopescia, Frazzone, Frieda, Gac, Gacio,Gassendi, Giaccone Paolo, Gianluigi, Giannizx1, Guam, Hashar, Hellis, IngFrancesco, Jacopo, K92, Longa, Lorenzo S., Luisa, M7, Mauriziogio, Mitchan, Numbo3, Oskar '95, P tasso, Paolo DiFebbo, Piergiorgio Massari, Piero, Pignol, Qbert88, Qualc1, Salvatore Ingala, Sbazzone, Scriban, Senza nome.txt, Skywolf, Snowdog, Square87, Starwars, Suisui, Template namespaceinitialisation script, Tirinto, Traiano, Tridim, Tueg, Twice25, Venom9, Win, Ylebru, 91 Modifiche anonime

Colore  Fonte: http://it.wikipedia.org/w/index.php?oldid=26604227  Autori:: Alfio, Andy91, Archenzo, Aushulz, Avesan, Berto, Biopresto, Blatta, Bob4, Boscarol, Cialz, Cisco79, DarkAp,Desperate92, Djdomix, Dnaiele, DoppioM, Dream.x, Elwood, Fastforward, Ferrario Jacopo, Frieda, Ft1, Gac, Gacio, Gea, Gierre, Gifh, Ginosal, Hellis, Immanuel Giel, Ithunn, Joana, La voce diCassandra, LapoLuchini, Luke30, M7, Massimiliano Lincetto, Nick1915, No2, Nrykko, Paginazero, Patty, R0tAbLe, Remulazz, Riverblu, Sassospicco, Senza nome.txt, Simone, Sinigagl,Snowdog, Stefano Careglio, Suturn, Talmid3, Template namespace initialisation script, Twice25, 35 Modifiche anonime

Spazio dei colori  Fonte: http://it.wikipedia.org/w/index.php?oldid=23781999  Autori:: Adp, Avesan, Berto, DGC, Djdomix, Dnaiele, Ft1, Hellis, M7, Madaki, Marcok, Sassospicco, Sbisolo,Shadowfax, Sinigagl, Smallpox, Snarchio, Snowdog, Stefano Careglio, Twice25, Wikit2006, 11 Modifiche anonime

Temperatura di colore  Fonte: http://it.wikipedia.org/w/index.php?oldid=27805602  Autori:: A7N8X, Ary29, AttoRenato, Cialz, Dnaiele, Erud, Fredericks, Gassendi, Guam, Luisa, Luken,Magica, Pequod76, Senpai, Sesquipedale, 17 Modifiche anonime

RGB  Fonte: http://it.wikipedia.org/w/index.php?oldid=26180034  Autori:: Abisys, Ary29, Blackdeep81, Cassioli, Francescost, Freefranco, Ft1, Gac, Hellis, Lox, Lukius, M7, MaEr,Marcuscalabresus, Marioquark, Mitchan, Paolo57, PersOnLine, Purodha, Robin root, Sassospicco, Simone, Snowdog, Twice25, Vermondo, Viscontino, Wiso, Yuma, 19 Modifiche anonime

CMYK  Fonte: http://it.wikipedia.org/w/index.php?oldid=25895402  Autori:: Archenzo, Ares, Artwik, Ary29, Avesan, Dani4P, Djdomix, Dnaiele, Freefranco, Gianfranco, Magica, MapiVanPelt,MiGz, Pino alpino, Riverblu, Sassospicco, Senpai, Simone, SkZ, Stefano Careglio, TierrayLibertad, Tiziano Fruet, Twice25, 10 Modifiche anonime

Hue Saturation Brightness  Fonte: http://it.wikipedia.org/w/index.php?oldid=25414942  Autori:: A7N8X, Alleborgo, Ary29, Avesan, Dejudicibus, KaeZar, Llorenzi, Mamo139,Moongateclimber, Nick1915, Poweruser, Sassospicco, 3 Modifiche anonime

Grafica raster  Fonte: http://it.wikipedia.org/w/index.php?oldid=26623968  Autori:: .jhc., Alb, Ary29, ChemicalBit, Dr Zimbu, Fabio.gastone, Giovdi, Ignlig, Jotar, Lion-hearted85, Marcok,Negadrive, Red83, Sinigagl, Vault, Wetto, 19 Modifiche anonime

Pixel  Fonte: http://it.wikipedia.org/w/index.php?oldid=27773597  Autori:: .anaconda, Alberto da Calvairate, Buzz lightyear, Cruccone, EdoM, Enrique, Fragment, Frieda, Ft1, Giannib,Guidomac, Hellis, Jalo, Laurentius, Lp, Lukius, Mela, Mitchan, Moongateclimber, Neq00, Nosferatu, Piracmone, Qualc1, Richzena, Ripepette, Sbisolo, Scriban, Simone, Snowdog, Suisui, Trixt,Unriccio, Wetto, Михајло Анђелковић, 36 Modifiche anonime

Risoluzione (grafica)  Fonte: http://it.wikipedia.org/w/index.php?oldid=20850482  Autori:: %Pier%, Alfio, Avesan, Beta16, Bultro, Cassioli, Cls-classic, Fabiob, Frieda, Goliardico, Gvf, Hellis,Koji, Lucas, Marcel Bergeret, Mizardellorsa, Olando, Sbisolo, Trixt, Zeus57, 4 Modifiche anonime

Risoluzioni standard  Fonte: http://it.wikipedia.org/w/index.php?oldid=24166516  Autori:: %Pier%, A7N8X, Abisys, Alez, Ciampix, Civvì, Dark, Diego Zuelli, EdoM, Gbodini, Hellis, Kal-El,Kasper2006, Lenny76, Marcuscalabresus, Mr buick, Sandr0, TheDRaKKaR, TierrayLibertad, 8 Modifiche anonime

Immagine digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=23695265  Autori:: Blackdeep81, CavalloRazzo, Luciodem, Negadrive, 11 Modifiche anonime

Compressione dei dati  Fonte: http://it.wikipedia.org/w/index.php?oldid=26612271  Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi, Djdomix,Dommac, F. Cosoleto, Frieda, Hellis, Ignlig, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 9 Modifiche anonime

Compressione dati lossy  Fonte: http://it.wikipedia.org/w/index.php?oldid=22500703  Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu,Unriccio, Yoggysot, 11 Modifiche anonime

Compressione dati lossless  Fonte: http://it.wikipedia.org/w/index.php?oldid=27774260  Autori:: Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju, CarmineXX,Civvì, Dinwath, Djdomix, Dommac, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, Piddu, Snowdog, Sylvaticus, Timendum, Unriccio, Wiso, 27 Modificheanonime

Joint Photographic Experts Group  Fonte: http://it.wikipedia.org/w/index.php?oldid=26423319  Autori:: .anaconda, Acolleoni, Alfio, AnyFile, Ary29, Barna1000, Brownout, Coyote83,Elborgo, Erriquez, Frieda, Gvf, Hashar, Hellis, Iskander, Kar.ma, Klemen Kocjancic, Mela, MiGz, Nico96, Objwan, Sbisolo, Simone, Suisui, Template namespace initialisation script, Unriccio,18 Modifiche anonime

Portable Network Graphics  Fonte: http://it.wikipedia.org/w/index.php?oldid=27722259  Autori:: %Pier%, A7N8X, Acolleoni, Agara73, Alfio, DonPaolo, El salvador, F l a n k e r, Fmonaco,Giancy, Hashar, Hellis, Iskander, MiGz, Moongateclimber, Nevermindfc, Nico96, Purodha, Sbisolo, Simone, Suisui, Tia solzago, Viscontino, 12 Modifiche anonime

Video  Fonte: http://it.wikipedia.org/w/index.php?oldid=27802068  Autori:: Abisys, Air France, Ary29, AttoRenato, Avesan, Diego Zuelli, Edo93, Fiertel91, Fluctuat, Frammco, Jok3r,Limonadis, Lorenz-pictures, LucaLuca, Lucas, Marcok, Morningfrost, Nosferatu, Olando, Pakdooik, Pil56, Retaggio, Senpai, Tarf, 150 Modifiche anonime

Video digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=22298348  Autori:: Abisys, Ary29, Asdf1234, AttoRenato, Casamich, Darth Kule, Francisco83pv, Hellis, Herik, Kelvin, MaEr,Morningfrost, Tvlocali, 7 Modifiche anonime

Compressione video digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=26253965  Autori:: %Pier%, 5Y, Absinthe, Avesan, Basilicofresco, Cantalamessa, Cassioli, Dommac, Guam,Hellis, Luisa, Lukius, Morningfrost, Ninja, Perteghella, Snowdog, Svante, 8 Modifiche anonime

Sottocampionamento della crominanza  Fonte: http://it.wikipedia.org/w/index.php?oldid=27651413  Autori:: Cantalamessa, Formica rufa, Granzotto, Hellis, Marcol-it, Morningfrost,Nevermindfc, Rago, Sandr0, 4 Modifiche anonime

Video a componenti  Fonte: http://it.wikipedia.org/w/index.php?oldid=26747733  Autori:: Abisys, Ary29, KS, Moongateclimber, Morningfrost, Pegasovagante, Regfla1, Senpai, Sergio46,Ssspera, 17 Modifiche anonime

Video composito  Fonte: http://it.wikipedia.org/w/index.php?oldid=27100447  Autori:: .jhc., Abisys, Abyssadventurer, Bultro, Hellis, Loox, Moloch981, Morningfrost, Ppalli, Sanfo, 20Modifiche anonime

Formato contenitore  Fonte: http://it.wikipedia.org/w/index.php?oldid=20963334  Autori:: Ary29, Satyricon86, Triquetra

Velocità di trasmissione  Fonte: http://it.wikipedia.org/w/index.php?oldid=24022231  Autori:: Abisys, Avesan, Cassioli, Contezero, Daniele Forsi, Fabio.gastone, Franganghi, Ft1,Giacomo.lucchese, Giant Lizard, Hellis, Loox, Maxx1972, Nemo bis, Piracmone, Poweruser, SkY`, Toobaz, 11 Modifiche anonime

Codec video  Fonte: http://it.wikipedia.org/w/index.php?oldid=21618869  Autori:: %Pier%, AnjaManix, Blaxwan, Goodsheard, Hellis, SymlynX, 2 Modifiche anonime

Contenitore multimediale  Fonte: http://it.wikipedia.org/w/index.php?oldid=22352637  Autori:: Ary29, Calabash, Gspinoza, Laurusnobilis, MIX, Squattaturi, 3 Modifiche anonime

Audio Video Interleave  Fonte: http://it.wikipedia.org/w/index.php?oldid=26592483  Autori:: %Pier%, Acolleoni, Archenzo, Ary29, Dalfi85, Fidech, IngFrancesco, MIX, Marcok, Nichlaus,Nico96, Stemby, Stevenworks, TheHurricanePower, Una giornata uggiosa '94, 11 Modifiche anonime

Matroska  Fonte: http://it.wikipedia.org/w/index.php?oldid=25726729  Autori:: Ary29, Cochrane, DarkAp, Fabio.gastone, MIX, Nico96, Rajven, 4 Modifiche anonime

MPEG- 4  Fonte: http://it.wikipedia.org/w/index.php?oldid=26609041  Autori:: %Pier%, Aushulz, Hellis, Kriss4Christ, Kronos, Marius, Mykelyk, Roces, Senza nome.txt, Seveso, Wikibozzy, 22Modifiche anonime

Page 115: Tecniche Video

Fonti e autori delle voci 112

MOV (formato di file)  Fonte: http://it.wikipedia.org/w/index.php?oldid=23179559  Autori:: Ary29, MIX, Una giornata uggiosa '94, Unop2pf, 1 Modifiche anonime

Ogg  Fonte: http://it.wikipedia.org/w/index.php?oldid=27285051  Autori:: Actam, Ary29, Blakwolf, Bouncey2k, Brownout, Grifone87, Hashar, Hellis, Jalo, Laurusnobilis, LucAndrea, MIX,Mikelima, Mitchan, Nico96, Nosferatu, Sante Caserio, Shadd, Una giornata uggiosa '94, 15 Modifiche anonime

Theora  Fonte: http://it.wikipedia.org/w/index.php?oldid=27229761  Autori:: Garak, Hellis, Laurusnobilis, Mikelima, Nico96, Sandro kensan, Sinigagl, 7 Modifiche anonime

Compressione audio digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=26253877  Autori:: %Pier%, Alfio, Alfreddo, An3, Ary29, Defcon, Dommac, Hellis, Lusum, Marcok, MiGz,Nosferatu, Sbisolo, Twice25, Xoen, 9 Modifiche anonime

MP3  Fonte: http://it.wikipedia.org/w/index.php?oldid=27766517  Autori:: .anaconda, Aamodio, Acolleoni, Afnecors, Alan p, Alfio, Alleborgo, AndreA, Ary29, Barbaking, Biopresto,BlackMew9z, Brownout, Djechelon, Fidech, Fstefani, Gacio, Govoch, Guidomac, Hamed, Hashar, Hellis, IAF, IlCapo, Jacopo, Jorunn, Koji, LapoLuchini, Laurentius, Laurusnobilis, M7, Malex,Marcel Bergeret, Matgio, Melkor II, MiGz, Misterioso, Mr. Blonde, Mykelyk, Nosferatu, Nur, Orionethe, P tasso, Pietrodn, Qualc1, Richhard, Rojelio, Rosario9, S-bor, Sbisolo, Scardovi,Scimmialaser, Seveso, Simone, Simotdi, Snowdog, Suisui, Traduz, Una giornata uggiosa '94, Viscontino, Wizard, Zeus57, 78 Modifiche anonime

HDTV  Fonte: http://it.wikipedia.org/w/index.php?oldid=27719627  Autori:: .anaconda, 16:9, Ab1, Abisys, Absinthe, Alleborgo, Antonino.greco, Antonio.971, Ary29, Asdf1234, AttoRenato,Aushulz, Avesan, BMF81, Blaisorblade, Bomberman, BonAce, Brownout, Brunocip, CavalloRazzo, Codicorumus, Contezero, Derfel74, Djechelon, Elijah85, Freepenguin, Gacio, Giancy,Golf-ball, Harrythebest93, Helix84, Hellis, Herik, Icaro829, KS, Kasper2006, Keledan, Kelvin, Klaudio, Langly, Lorenz-pictures, Loroli, Lp, LucAndrea, LucaDetomi, MaEr, Marco Bernardini,Marcoluciano, Marcuscalabresus, Morningfrost, Nuovoastro, Oliva18, Pepe85, Piccadillo, Quoniam, Ranma25783, Rayan, Sbazzone, Scriban, Shaka, Simone, Snake79, Snowdog, Swap83,Theferro, TierrayLibertad, Tritologol, Twice25, Valepert, Vault, Viscontino, 149 Modifiche anonime

DVD  Fonte: http://it.wikipedia.org/w/index.php?oldid=27621337  Autori:: %Pier%, .mau., Al Pereira, Alfio, Amux, Ary29, Asdf1234, Beta16, Bodo, Bronzino, Bunker, Cassioli,Deliriumtremens, Dudo, Edo, Ellevi, Erriquez, Eustace Bagge, Frazzone, Frieda, Gacio, Galoppini, Hashar, Hellis, Hypermax, Kurtsb, Lephio, Losògià, Lucabon, Lucius, M7, MapiVanPelt,Marcok, Marcuscalabresus, Michele CaMi, Microtauro, Mitchan, Moliva, Nevermindfc, Numbo3, Outer root, Paginazero, Pegasovagante, Phantomas, Piffy, Rdocb, Rojelio, Satrixx, Servator,Shaka, Simone, Starless74, Suisui, SuperSecret, Surfy47, Template namespace initialisation script, Tennegi, Tooby, Viames, VicMer1987, Vikinger, Win, 112 Modifiche anonime

Page 116: Tecniche Video

Fonti, licenze e autori delle immagini 113

Fonti, licenze e autori delle immaginiFile:PrismAndLight.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:PrismAndLight.jpg  Licenza: Public Domain  Autori:: NASAFile:Squarci di luce.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Squarci_di_luce.jpg  Licenza: sconosciuto  Autori:: Dr.ConatiFile:Chicago Union Station 1943.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chicago_Union_Station_1943.jpg  Licenza: Public Domain  Autori:: Jack DelanoImmagine:Spectre.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectre.svg  Licenza: sconosciuto  Autori:: User:Phrood, User:TatouteImmagine:Commons-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg  Licenza: logo  Autori:: User:3247, User:GruntImmagine:Wikiquote-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg  Licenza: logo  Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Maderibeyza,Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonimeImmagine:Wiktionary-ico-de.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png  Licenza: logo  Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000Immagine:Colouring pencils.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Colouring_pencils.jpg  Licenza: sconosciuto  Autori:: User:MichaelMaggsImmagine:Spectrum441pxWithnm.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectrum441pxWithnm.png  Licenza: GNU Free Documentation License  Autori:: Adoniscik,Eno, Knutux, W!B:, 1 Modifiche anonimeImmagine:Karachi - Pakistan-market.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Karachi_-_Pakistan-market.jpg  Licenza: Creative Commons Attribution 2.0  Autori::Berrucomons, Durova, Epiktet, FlickrLickr, Fred J, Jnn, Jon Harald Søby, Mangostar, Mattes, MichaelMaggs, Neon, Ranveig, Rogerine, Shizhao, Str4nd, WikipediaMaster, 1 Modifiche anonimeImmagine:Spettro.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spettro.gif  Licenza: sconosciuto  Autori:: Utente:AdpImmagine:CIE1931 rgxy.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:CIE1931_rgxy.png  Licenza: Public Domain  Autori:: User:BenFrantzDaleImmagine:Cie.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Cie.gif  Licenza: sconosciuto  Autori:: Utente:AdpImmagine:Color temperature.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_temperature.svg  Licenza: sconosciuto  Autori:: HołekImmagine:RGB.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:RGB.svg  Licenza: Public Domain  Autori:: User:WisoImmagine:AdditiveColorSynthesis_RGBpositives.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:AdditiveColorSynthesis_RGBpositives.jpg  Licenza: sconosciuto  Autori::User:MagicaImmagine:SubtractiveColorSynthesis_CMYK_2.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:SubtractiveColorSynthesis_CMYK_2.jpg  Licenza: sconosciuto  Autori::User:MagicaImmagine:CMY ideal version.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:CMY_ideal_version.svg  Licenza: Public Domain  Autori:: TerinImage:HSV cylinder.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:HSV_cylinder.png  Licenza: GNU Free Documentation License  Autori:: (3ucky(3all at en.wikipediaImage:Color cones.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_cones.png  Licenza: GNU Free Documentation License  Autori:: Djiboun, WikipediaMaster, WingImmagine:Rgb-raster-image.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Rgb-raster-image.png  Licenza: sconosciuto  Autori:: Original uploader was Riumplus at en.wikipediaLater versions were uploaded by Plethorapw, Guanaco, Branko, Kjoonlee at en.wikipedia.File:Fil-Pixel-example-wiki.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Fil-Pixel-example-wiki.png  Licenza: logo  Autori:: Original uploader was BlueEel at da.wikipediaImmagine:Vector Video Standards2.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Vector_Video_Standards2.svg  Licenza: GNU Free Documentation License  Autori:: Originaluploader was XXV at en.wikipedia Later version(s) were uploaded by Jjalocha, Aihtdikh at en.wikipedia.Immagine:tulipanoJPEG100.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG100.jpg  Licenza: sconosciuto  Autori:: Coyote83Immagine:tulipanoJPEG90.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG90.jpg  Licenza: sconosciuto  Autori:: Coyote83Immagine:tulipanoJPEG50.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG50.jpg  Licenza: sconosciuto  Autori:: Coyote83Immagine:tulipanoJPEG10.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG10.jpg  Licenza: sconosciuto  Autori:: Coyote83Immagine:Comparison of JPEG and PNG.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Comparison_of_JPEG_and_PNG.png  Licenza: sconosciuto  Autori:: , cropped byImmagine:PNG transparency demonstration 1.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_1.png  Licenza: sconosciuto  Autori:: User:edg2s/Dice.pov, user:ed_g2sImmagine:PNG transparency demonstration 2.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_2.png  Licenza: sconosciuto  Autori:: User:edg2s/Dice.pov, user:ed_g2sFile:standard_video_res.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg  Licenza: Public Domain  Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3Modifiche anonimeFile:Aspect ratios.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Aspect_ratios.png  Licenza: GNU Free Documentation License  Autori:: Andreas -horn- Hornig, IndolencesFile:NTSC-PAL-SECAM.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:NTSC-PAL-SECAM.png  Licenza: GNU Free Documentation License  Autori:: Andreas -horn- Hornig, Enrouge, Interiot, Kaganer, Oldie, Responsible?, ThuressonImmagine:Color-bars-original.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-original.gif  Licenza: Public Domain  Autori:: Glenn ChanImmagine:Color-bars-vegas-dv.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-vegas-dv.gif  Licenza: Public Domain  Autori:: Glenn ChanImmagine:Chroma subsampling ratios.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chroma_subsampling_ratios.svg  Licenza: GNU Free Documentation License  Autori:: ,w:User:MysidUser:MysidImmagine:444-original-single-field.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:444-original-single-field.png  Licenza: sconosciuto  Autori:: Original uploader was Glennchan aten.wikipediaImmagine:420-progressive-single-fiel.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-single-fiel.png  Licenza: Public Domain  Autori:: Glenn ChanImmagine:420-interlaced-single-field.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-single-field.png  Licenza: sconosciuto  Autori:: Glenn ChanImmagine:420-original444.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-original444.png  Licenza: Public Domain  Autori:: Glenn ChanImmagine:420-progressive-still.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-still.png  Licenza: Public Domain  Autori:: Glenn ChanImmagine:420-interlaced-still.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-still.png  Licenza: Public Domain  Autori:: Glenn ChanImage:Component video RCA.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Component_video_RCA.jpg  Licenza: GNU Free Documentation License  Autori:: Photograph taken byLarry D. Moore (Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera.Immagine:Composite.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Composite.jpg  Licenza: GNU Free Documentation License  Autori:: Photograph taken by Larry D. Moore(Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera.Immagine:BNC connector 20050720 001.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:BNC_connector_20050720_001.jpg  Licenza: Public Domain  Autori:: User:bergstenImmagine:Disambigua compass.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Disambigua_compass.svg  Licenza: Public Domain  Autori:: User:KrdanImmagine:Matroska-logo-128x128.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Matroska-logo-128x128.png  Licenza: GNU General Public License  Autori:: Matroska projectImmagine:Torchlight_ogg.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Torchlight_ogg.png  Licenza: GNU Lesser General Public License  Autori:: DakeFile:Fraunhofer ITWM AM.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Fraunhofer_ITWM_AM.jpg  Licenza: Public Domain  Autori:: AlexanderDreyer, TúrelioFile:Ibox mp3.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Ibox_mp3.jpg  Licenza: Public Domain  Autori:: Derbeth, MB-one, Mohylek, 1 Modifiche anonimeFile:Projection-screen-home2.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Projection-screen-home2.jpg  Licenza: Public Domain  Autori:: User:TystoFile:Highdefinitiontvwalldirectv.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Highdefinitiontvwalldirectv.jpg  Licenza: sconosciuto  Autori:: Original uploader was Jengod aten.wikipediaFile:Standard video res.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg  Licenza: Public Domain  Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3Modifiche anonimeFile:Confronto PAL - HDTV.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Confronto_PAL_-_HDTV.jpg  Licenza: sconosciuto  Autori:: Lorenz-pictures

Page 117: Tecniche Video

Fonti, licenze e autori delle immagini 114

File:Pixel aspect ratio pixelseitenverhaeltnis ntsc480p pal576p hdtv720p hdtv1080p uhdv4320p by hdtvtotal com.svg  Fonte:http://it.wikipedia.org/w/index.php?title=File:Pixel_aspect_ratio_pixelseitenverhaeltnis_ntsc480p_pal576p_hdtv720p_hdtv1080p_uhdv4320p_by_hdtvtotal_com.svg  Licenza: Creative CommonsAttribution-Sharealike 2.5  Autori:: User:Andreas -horn- HornigFile:Sky Box HD Pace.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Sky_Box_HD_Pace.jpg  Licenza: Public Domain  Autori:: User:Andreas -horn- HornigImmagine:DVD logo.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD_logo.png  Licenza: sconosciuto  Autori:: Hellis, Kanchelskis, SenpaiImmagine:DVD.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD.jpg  Licenza: sconosciuto  Autori:: Archaeologo, LuciusImmagine:DVD-RAM FUJIFILM Disc-removalble Without cartridge-locking-pin.jpg  Fonte:http://it.wikipedia.org/w/index.php?title=File:DVD-RAM_FUJIFILM_Disc-removalble_Without_cartridge-locking-pin.jpg  Licenza: Public Domain  Autori:: User:Iainf, User:OcrhoImmagine:DVD-Regions_with_key.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD-Regions_with_key.png  Licenza: GNU Free Documentation License  Autori:: Anstalt, DavidLevy, Dryke, Frukt, Lockal, Monaneko, MrWeeble, Peter17, 5 Modifiche anonime

Page 118: Tecniche Video

Licenza 115

LicenzaCreative Commons Attribution-Share Alike 3.0 Unportedhttp:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/