audio digitale

30
 Da: Vincenzo Lombardo, Andrea Valle,  Audio e multimedia (1a ed.), Milano, Apogeo 2002. Capitolo 4  L'elaborazion e digitale e l'audio In questo capitolo ci occuperemo di alcune fondamentali operazioni di elaborazione del segnale audio: ci proponiamo cioè di fornire una panoramica orientativa sulle possibilità offerte dai software dedicati all’editing  audio. Dopo una prima parte dedicata alle operazioni più semplici, dedicheremo un ampio spazio ai cosiddetti effetti : equalizzatori, riverberi, distorsioni sono modalità di trasfomazione dei segnali da lunghi anni in uso nella musica elettronica, sia in quella sperimentale che in quella pop/rock. Il  sound  spesso riconoscibile di uno studio di registrazione o di uno stile di  prod uzio ne dipe nde in molti casi prop rio dal part icola re uso degl i effe tti. L’imp leme ntaz ione digitale, oltre in molti casi ad aver migliorato notevolmente la qualità dei risultati rispetto alla originaria versione analogica , ha permesso all’utente non professionista di avere a disposizione sul suo personal computer sofisticate possibilità di elaborazione del suono grazie ai molti pacchetti applicativi disponibili sul mercato ad un costo molto contenuto, almeno rispetto agli equivalenti analogici. L’elaborazione audio non è comunque fondamentale solo nell’ambito strettamente musicale: al contrario proprio nelle applicazioni multimediali un uso opportuno delle tecniche di elaborazione consente di sfruttare appieno il valore aggiunto offerto dall’audio: di qui la necessità di conoscerne almeno i fondamenti. L’editing nell’audio digitale Un editor  per l’audio digitale (  Digital Audio Editor ; anche: Sound Editor  o Sound Sample Editor ) è un programma che consente di modificare un segnale audio digitale, sia esso campionato o sintetizzato. La definizione è molto ampia, poichè comprende operazioni estremamente diverse fra loro per scopi e per risultati. La caratteristica fondamentale dell’editing digitale, alla base di tutte le modificazioni possibili, è di essere non-distruttivo (Roads 1996: 759): il risultato dell’operazione viene cioè conservato in un’area di memoria temporanea, e solo in caso di esplicita richiesta dell’utente sostituisce il segnale originale. È questa una caratteristica scontata ma particolarmente rilevante di tutto l’editing digitale (dal testo alle immagini), poichè permette una grandissima libertà di sperimentazione, e non ha precedenti in ambito analogico. Vi sono molti editor per l’audio attualmente in commercio, ognuno dei quali presenta caratteristiche sue proprie. In generale i diversi software, combinano alcune gruppi di queste operazioni, pur essendo magari specializzati in una in  par ticola re (a d ese mpi o, olt re all ’ed iti ng gen er ale : reg ist raz ione e mis sag gio mul tit rac cia, campionamento, noise redution, analisi, sintesi, effettistica, e così via): perciò un modulo di noise reduction può consentire comunque di svolgere operazioni più generali di editing, come pure di registrare. Lo stesso discorso vale anche i  plu g-in , unità autonome specializzate nello svolgere singole operazioni di DSP (filtri, riverberi, effetti dinamici, distorsioni: cfr. più avanti), che, una volta installate, necessitano dell’ambiente di un editor per essere funzionanti e che però sono utilizzabili in tutti gli editor che aderiscano allo standard  Direct X  (in precedenza, Active Movie) di Windows. Con la tecnologia dei plug-in si introduce una forte modularità, che consente di espandere notevolmente le possibilità di ogni editor: si recupera in questo modo una caratteristica dell’effettistica analogica, in cui molti moduli indipendenti di più case produttrici possono essere combinati, in cascata o in parallelo.

description

appunti su audio digitale

Transcript of audio digitale

  • Da: Vincenzo Lombardo, Andrea Valle, Audio e multimedia (1a ed.), Milano, Apogeo 2002.

    Capitolo 4

    L'elaborazione digitale e l'audio

    In questo capitolo ci occuperemo di alcune fondamentali operazioni di elaborazione del segnaleaudio: ci proponiamo cio di fornire una panoramica orientativa sulle possibilit offerte dai softwarededicati allediting audio. Dopo una prima parte dedicata alle operazioni pi semplici, dedicheremoun ampio spazio ai cosiddetti effetti: equalizzatori, riverberi, distorsioni sono modalit ditrasfomazione dei segnali da lunghi anni in uso nella musica elettronica, sia in quella sperimentaleche in quella pop/rock. Il sound spesso riconoscibile di uno studio di registrazione o di uno stile diproduzione dipende in molti casi proprio dal particolare uso degli effetti. Limplementazionedigitale, oltre in molti casi ad aver migliorato notevolmente la qualit dei risultati rispetto allaoriginaria versione analogica, ha permesso allutente non professionista di avere a disposizione sulsuo personal computer sofisticate possibilit di elaborazione del suono grazie ai molti pacchettiapplicativi disponibili sul mercato ad un costo molto contenuto, almeno rispetto agli equivalentianalogici. Lelaborazione audio non comunque fondamentale solo nellambito strettamentemusicale: al contrario proprio nelle applicazioni multimediali un uso opportuno delle tecniche dielaborazione consente di sfruttare appieno il valore aggiunto offerto dallaudio: di qui la necessit diconoscerne almeno i fondamenti.

    Lediting nellaudio digitale

    Un editor per laudio digitale (Digital Audio Editor; anche: Sound Editor o Sound Sample Editor) un programma che consente di modificare un segnale audio digitale, sia esso campionato osintetizzato. La definizione molto ampia, poich comprende operazioni estremamente diverse fraloro per scopi e per risultati. La caratteristica fondamentale dellediting digitale, alla base di tutte lemodificazioni possibili, di essere non-distruttivo (Roads 1996: 759): il risultato delloperazioneviene cio conservato in unarea di memoria temporanea, e solo in caso di esplicita richiestadellutente sostituisce il segnale originale. questa una caratteristica scontata ma particolarmenterilevante di tutto lediting digitale (dal testo alle immagini), poich permette una grandissima libertdi sperimentazione, e non ha precedenti in ambito analogico. Vi sono molti editor per laudioattualmente in commercio, ognuno dei quali presenta caratteristiche sue proprie. In generale i diversisoftware, combinano alcune gruppi di queste operazioni, pur essendo magari specializzati in una inparticolare (ad esempio, oltre allediting generale: registrazione e missaggio multitraccia,campionamento, noise redution, analisi, sintesi, effettistica, e cos via): perci un modulo di noisereduction pu consentire comunque di svolgere operazioni pi generali di editing, come pure diregistrare. Lo stesso discorso vale anche i plug-in, unit autonome specializzate nello svolgeresingole operazioni di DSP (filtri, riverberi, effetti dinamici, distorsioni: cfr. pi avanti), che, unavolta installate, necessitano dellambiente di un editor per essere funzionanti e che per sonoutilizzabili in tutti gli editor che aderiscano allo standard DirectX (in precedenza, ActiveMovie) diWindows. Con la tecnologia dei plug-in si introduce una forte modularit, che consente di espanderenotevolmente le possibilit di ogni editor: si recupera in questo modo una caratteristicadelleffettistica analogica, in cui molti moduli indipendenti di pi case produttrici possono esserecombinati, in cascata o in parallelo.

  • Sebbene ogni programma presenti una propria interfaccia specifica (cfr. Figura 4.11) vale la pena diricordare che tutti sfruttano la metafora del registratore analogico. Oltre alla barra dei controlli che,come noto, probabilmente lunica interfaccia grafica del tutto standardizzata, usuale limpiegodi termini come traccia e canale, cos come la visualizzazione di fader, manopole e indicatori divolume che riprendono il funzionamento di un mixer/registratore analogico.Nel corso del capitolo sfrutteremo pi volte come esempio il file audio digitale.wav.

    Editing di base

    Si tratta delle operazioni fondamentali di gestione del file audio, che presentano strette analogie conquanto succede negli editor per il testo e per le immagini, e spesso identica logica sottostante.

    1 Si tratta di una elaborazione da Cool Edit Pro della Syntrillium Corporation.

    Figura 4.1. Interfaccia di un editor audio.

    Esempio4.1a

  • Taglia, copia e incollaLe operazioni pi ovvie sono quelle di selezione e successiva cancellazione o spostamento del file odi parte di esso, al suo interno o in un altro file, cos come la possibilit di gestione di pi file incontemporanea. Il comando incolla nel caso dellaudio indica usualmente due possibilit diverse: lasostituzione dellarea selezionata con quanto presente in memoria temporanea (come avviene neltesto, ad esempio); il missaggio dei due segnali (caratteristico invece dellaudio), che usualmentepermette sia la regolazione del volume dei due file, sia la dissolvenza incrociata tra loro(crossfading).

    Marcatori e regioniUna delle comodit offerte dallediting digitale data dalla possibilit di inserire indicatori diposizione nel file, che consentono di navigare assai velocemente nel file e di modificarne pi volteesattamente le stesse aree: inserire un marcatore utile ad esempio nella necessit di controllare pivolte solo lultima parte di un file, senza doverlo riascoltare tutto dallinizio o dover riposizionare ilcursore di volta in volta; definire una regione tra due marcatori permette invece di editare pi volteun segmento isolato dal resto del file, ad esempio la sillaba di (Figura 4.22).

    La cue list la lista di tutte le posizioni temporali che indicano punti o intervalli tra due punti,definiti dallutente nel file. La play list invece la lista che comprende lordine di ascolto (ed altrielementi: il numero di ripetizioni, ad esempio) delle posizioni selezionate, che ovviamenteindipendente dallordine effettivo nel file originario. in questo modo sufficiente definire una sola volta con precisione il punto o lintervallo desideratoed immetterlo nella cue list, per poi richiamarlo attraverso la play list. Si cos in grado di operarecon grande precisione sempre esattamente sullo stesso segmento, e di muoversi agevolmente in un

    2 Si tratta di una elaborazione da Sound Forge 4.5 della Sonic Foundry.

    Figura 4.2. Definzione di regioni e marcatori in un file.

  • file che potrebbe essere di grandi dimensioni. bene ricordare che, se si impiega il formato wave diWindows, questi dati possono essere memorizzati insieme ad altre informazioni (titolo, nome artista,data di registrazione, copyright, commenti, ecc.) nella RIFF List info contenuta nellintestazione delfile (cfr. cap. 3), per poter essere utilizzati in altre sessioni di lavoro e/o con altri editor.

    Modifica dei parametri di campionamento e salvataggio

    Un altro gruppo di operazioni fondamentali riguardano le caratteristiche dli campionamento delsegnale e la scelta del formato di salvataggio. Tre sono i parametri fondamentali: la frequenza dicampionamento, la quantizzazione e il numero di canali.

    Resampling

    Attraverso il resampling possibile ridefinire la frequenza di campionamento di un segnale, larisoluzione e il numero dei canali. Le frequenze usualmente predefinite dalleditor sono quelle picomuni (11.025, 22.050, 32.000, 44.100, 48.000: cfr. cap. 3), ma, a seconda dei software, possibileimpostare ogni valore desiderato. poi possibile variare la risoluzione del file (quantizzazione): iformati pi comuni sono 8 e 16 bit (CD audio). Molte schede permettono di impiegare valorisuperiori, ad esempio 24 o 32 bit. Non solo, ma possibile lavorare nellediting con valori diquantizzazione superiori, che assicurano maggiore qualit, per poi riconvertire in fase di salvataggio.Si limitano in questo modo la portata e gli effetti degli errori di arrotondamento che occorrono nelleoperazioni matematiche degli algoritmi, ottenendeno come risultato una maggiore qualit eprecisione aritmetica. Infine, per quanto concerne i canali, possibile convertire un file mono in unostereo e viceversa. Nel primo caso (da mono a stereo) si pu decidere quale sar il posizionamentodel segnale originale tra i due canali: da un posizionamento uniforme su entrambi, ad uno

    Figura 4.3a e b. Un file mono viene convertito in stereo riversando il segnale solo sul canale destro.

    Esempio4.1a

    Esempio4.1b

  • spostamento di tutto il segnale su un solo canale, laltro rimanendo vuoto. quanto avviene in Figura 4.3 (Esempi 4.1a e b): il segnale originale (4.3a) viene posizionato solosul canale destro (4.3b). Nel secondo caso (da stereo a mono), possibile definire il volume (o lapercentuale) di ognuno dei due canali nel segnale finale.In accordo con quanto osservato sul processo del campionamento (in generale cfr. cap. 2), due sonogli aspetti suscettibili di regolazione durante il resampling, in relazione alle modificherispettivamente della frequenza e della quantizzazione: il filtraggio anti-aliasing e il dithering.Come ormai noto, la massima frequenza descrivibile pari alla met della frequenza dicampionamento (teorema di Nyquist): nel caso in cui si ricampioni a una frequenza inferiore aquella originale (per esempio, da 44.100 a 22.050), la massima frequenza descrivibile diminuisce diconseguenza (nellesempio, da 22.100 a 11.025). Usualmente, gli editor consentono di introdurre ilfiltro anti-aliasing: un filtro passa-basso che elimini le frequenze superiori alla nuova frequenza diNyquist.Nel caso in cui si invece si modifichi la risoluzione, va tenuto presente che con il diminuire dellastessa diminuisce il range dinamico ed diminuisce il rapporto segnale/rumore (SNR): perciconsigliabile normalizzare il file (cfr. di seguito). Non solo: diminuendo la risoluzione, a bassi livellidel segnale si produce una particolare forma di disturbo, il cosiddetto low level quantization noise(cfr. cap. 2: in sostanza, la forma donda tende a diventare percepibilmente una onda quadraperiodica). allora il caso di applicare il dithering (di nuovo, cfr. cap. 2) processo che produce abassi livelli del segnale variazioni casuali nel segnale attraverso lintroduzione di una piccolaquantit di rumore, migliorando la qualit dellaudio: a seconda del software, possibile decidereampiezza e tipo di distribuzione del rumore di dithering.

    Salvataggio nei diversi formati

    Gli editor consentono di creare/salvare file audio di diverso formato. I tipi e il numero dei formatidisponibili (in generale, cfr. cap. 3) dipendono strettamente dalleditor in questione, sebbene WAVE(il formato proprietario di Windows), AIFF (lo standard Apple) e AU (Next/Sun) siano i pi diffusi. quasi sempre disponibile anche il formato RAW, senza intestazione, utile per esportare file nelcaso di indisponibilit di altri formati: si pensi alla necessit di modificare un file attraverso duesoftware, ognuno dei quali gestisce rispettivamente solo WAVE e solo AIFF. Esistono poi moltiformati proprietari collegati specificamente con ogni singolo editor: in questi casi possibilememorizzare dati relativi ad operazioni esclusive delleditor in questione, che andrebbero perse incaso di impiego di altri formati e che invece possono essere riutilizzate. Tra i formati proprietaripossono anche essere ricordati quelli relativi ad eventuali sottoprogrammi (utilities): ad esempio, ilcaso dei file danalisi per la riduzione del rumore, salvabili a parte e riutilizzabili. infine possibile esportare in formato compresso, tipicamente in Real Audio o mp3. In questultimocaso, la qualit dellalgoritmo di compressione percettiva, e le opzioni disponibili (bitrate, frequenzadi campionamento, numero dei canali, e cos via) dipendono strettamente dal singolo editor.

    Come leggere i dati

    Attraverso uneditor abbiamo accesso ad una rappresentazone grafica del segnale sulla qualeoperiamo. Non cos scontato il fatto che si abbia a che fare con una GUI (Graphical UserInterface). In questo modo, come duso nellediting in generale, si privilegia un controllo pi rapidoe intuitivo delle operazioni, ma va ricordato che perfettamente possibile svolgere molte delle stesseoperazioni attraverso uninterfaccia testuale: il caso ad esempio dei linguaggi di sintesi (ad

  • Figura 4.4a-c. Clipping.

    esempio, Csound) e missaggio audio (ad esempio, Cmix). Ci proponiamo qui di seguito diapprofondire le informazioni, siano esse in formato grafico o meno, offerte dagli editor.

    Modalit di visualizzazione

    Come gi osservato in precedenza (cfr. capp. 1 e 2), esistono diverse possibilit di rappresentare unsegnale audio. Tutto dipende dal tipo di pertinenza che si intende privilegiare: in sostanza dal tipo diinformazione sul segnale che si vuole reperire. I software per laudio consentono di optare tra lemodalit pi comuni. Conformemente a quanto avviene in acustica, queste ultime sono in sostanzadue: rappresentazione nel dominio temporale (time-domain) e rappresentazione nel dominiofrequenziale (frequency-domain). A queste se ne pu aggiungere una terza che risulta dallincrocio

    delle prime due, nella quale il segnale rappresentatosui tre piani tempo/ampiezza/frequenza.In una rappresentazione nel dominio temporale, lassedelle ascisse rappresenta il tempo, quello delleordinate lampiezza del segnale in dB (cfr. cap. 1). Inquesto tipo di rappresentazione il segnale assumeusualmente una forma frastagliata pi o menosimmetrica rispetto allasse dell ascisse. Si tratta dellavisualizzazione di solito impostata come predefinitadai programmi di editing audio: infatti quella cheabbiamo incontrato nelle figure precedenti. Siccome ilsuono ha come sua dimensione fondamentale iltempo, questa la visualizzazione pi tipica, poichpermette di controllare landamento nel tempodellampiezza (o, in termini pi musicali, delledinamiche). In questo modo si controlla agevolmenteil fenomeno della distorsione digitale che si verificaquando lampiezza del segnale in input supera lagamma dinamica rappresentabile (clipping). Come si visto (cfr. cap. 2), i valori possibili per rappresentarelampiezza sono in numero limitato: a 16 bit un valoredampiezza superiore a 32767 o -32768 vienerappresentato dal massimo valore possibile(rispettivamente 32767 o -32768). Il tutto risulta inuna distorsione della forma donda: il clipping. NelleFigura 4.6a-c si pu osservare la distorsione delsegnale, che equivale ad un appiattimento verso laltodella forma donda. Le unit di misura dellampiezzasono espresse in valori normalizzati, cio compresi tra1 e 1.

    Nellla Figura 4.4a rappresentato un un segnale sinusoidale la cui ampiezza compresa tra gliestremi della gamma dinamica (Esempio 4.2a). Nella Figura 4.4b disegnato un segnale sinusoidaledi stessa frequenza, ma con ampiezza pari a 2 volte quella precedente. I valori dampiezza esterni

    Esempio4.2a

    Esempio4.2b

  • allintervallo rappresentabile vengono rappresentati dal massimo valore possibile. Il risultato unaquadratura della forma donda (Figura 4.4c), che percettivamente equivale ud una modificazionetimbrica (Esempio 4.2b). Negli editor spesso la presenza di clip agevolmente osservabile grazie adue linee orizzontali di delimitazione che identificano il valore massimo rappresentabile.Ricordiamo che, anche se la forma dellonda visualizzata una linea continua, nellarappresentazione numerica ad ogni campione corrisponde un valore discreto: il che equivale a direche la curva in realt un insieme di punti separati. A seconda della precisione garantita dalleditorimpiegato, possibile anche operare al livello del singolo campione. Un simile livello di precisionesi pu rivelare utile quando si rimuovono manualmente dei click. il caso dello scoppiettare deidischi di vinile: si tratta di disturbi del segnale dalla rapida evoluzione che possono essere, se innumero limitato, rimossi a mano proprio operando ad un simile livello di precisione.

    In una rappresentazione nel dominio frequenziale, lasse delle ascisse rappresenta la frequenza,lasse delle ordinate lampiezza. Si tratta di una sorta di istantanea nel momento t del contenutofrequenziale di un segnale.

    Figura 4.5a e b. Un segnale (a) e lanalisi spettrale nellistante evidenziato dalla lineatrattegiata (b).

  • Si pu immaginare di analizzare il segnale che si sviluppa nel tempo sezionandolo in t perosservarne il contenuto frequenziale, in accordo con il teorema di Fourier, per il quale ogni segnalecomplesso ricostruibile come somma di sinusoidi (cfr. cap. 1). Quanto risulta prende il nome dispettro. Il procedimento pi usato per effettuare lanalisi nellambito dei segnali digitali vienedenominato short-time Fourier Transform e consiste nel segmentare il segnale in brevi frammenti(di qui short-time) collegati attraverso una funzione di finestrazione (window function). Ognisegmento finestrato in questo modo viene analizzato attraverso una FFT (Fast Fourier Transform),un efficiente algoritmo di analisi (cfr. cap. 2). In sostanza: il segnale in questione viene suddiviso inbrevi blocchi temporali, che vengono poi analizzati separatamente. Ogni blocco di dati risultanteviene definito frame (fotogramma). Nella Figura 4.5b disegnata lanalisi spettrale del segnale diFigura 4.5a nel punto indicato dalla linee tratteggiata3.Come si vede in Figura 4.5b, uno degli scopi dellanalisi la stima della frequenza fondamentale peri due canali, espressa in Hz e/o nel suo equivalente musicale (Frequency). In una analisi FFT, lFFTSize indica la dimensione della finestra in punti (in campioni). LFFT Size un parametro di grandeimportanza: infatti proporzionale alla precisione dellanalisi della frequenza, ma anche allacomplessit di calcolo richiesta. poi possibile scegliere anche il tipo di finestra, a seconda dellenecessit danalisi. Le opzioni di visualizzazione consentono di scegliere tra rappresentazionelogaritmica (usuale) e lineare, e di determinare lescursione in dB dellampiezza (asse delleordinate). Lopportuna combinazione dei parametri consente di ottimizzare lanalisi.

    Un terzo tipo di rappresentazione del segnale combina i due tipi visti in precedenza. Essa puassumere due forme. Nel primo caso, si costruisce un grafo avente sullasse delle ascisse il tempo esu quello delle ordinate la frequenza. Lampiezza invece proporzionale ad una prestabilita scalacromatica (o dei grigi). In tal modo si descrive landamento dello spettro nel tempo. Questarappresentazione prende il nome di sonogramma (sonogram). In questo caso possibile ancheoptare per una rappresentazione grafica in bianco e nero, spesso di pi facile lettura, perch misuratasu una scala percettivamente pi uniforme.

    3 Le Figura sono due elaborazioni da Cool Edit Pro.

    Figura 4.6a . Forma d'onda (in alto) e sonogramma (in basso).

  • In sostanza, come si legge un sonogramma? Prendiamo come esempio il segnale vocale audiodigitale (si tratta del file mono dellEsempio 4.1a). La Figura 4.6a mostra il sonogramma delsegnale, la cui forma donda riportata nella parte superiore4.Lopposizione pi evidente quella tra vocali e consonanti. Le prime si presentano come insiemi distrisce pi o meno parallele: hanno cio uno spettro armonico, formato da molte componentisinuosoidali equispaziate (cfr. cap 1). Lo stesso avverrebbe se analizzassimo una nota musicale nelsuo stato stazionario. Le consonanti corrispondono ai buchi nel grafico: alle aree dove non praticamente presente il segnale. Ancora, se pronunciassimo s, potremmo osservare lacaratteristica forma di visualizzazione del rumore. Il fenomeno in parte visibile nella soluzione dig (equivalente nel sonogramma alla punta centrale). Nessuna frequenza prominente (cioparticolarmente evidenziata dal colore): lenergia distribuita uniformemente su tutte le frequenze indicata da una colorazione omogenea dellarea temporale occupata. In musica si pensi allapercussione di un piatto di batteria. Infine, agevole notare la differenza tra gli attacchi percussivi,evidenziati nel grafico da inserimenti bruschi di nuovi blocchi, e attacchi di pi lunga durata, neiquali si nota un passaggio pi graduale.Attenzione: un parametro fondamentale proprio per ottenere risultati leggibili la dimensione inpunti della finestra (FFT Size). Se un numero di punti troppo basso non fornisce adeguataprecisione, viceversa un numero troppo alto rischia di stirare orizzontalmente la figura, senzaevidenziare fenomeni particolari (oltre ad aumentare la complessit del calcolo). Usualmente, sipossono impiegare valori compresi tra 512 e 4096, salvo poi sperimentare di volta in volta. LaFigura 4.6b mostra un sonogramma dello stesso segnale con diverso numero di punti: in questo caso,la visualizzazione consente invece di concentrare lattenzione sullandamento complessivo.

    Una seconda modalit di rappresentazione simultanea dei tre parametri li combinatempo/frequenza/ampiezza tridimensionalmente: si ottiene un grafico detto a cascata. Il risultato 4 I sonogrammi successivi sono elaborazioni a partire da Spectrogram 5.1.6a di R. S. Horne.

    Figura 4.6b. Sonogramma dello stesso segnale 4.8a con diverso numero di punti.

  • una sorta di catena montuosa i cui picchi corrispondono alle ampiezze pi elevate. Ad una maggioresofisticatezza corrisponde una incrementata complessit di lettura. Per ovviare a questultimo fatto,spesso possono essere a disposizione dellutente del programma due facilitazioni: la prima lapossibilit di scegliere la prospettiva da cui guardare il grafico, a seconda dellistante e dellareafrequenziale a cui si interessati; la seconda la possibilit di associare il gradiente cromatico allafrequenza o allampiezza, evidenziando rispettivamente landamento nel tempo della prima o lapresenza di picchi.Le Figure 4.9a e b5 sono analisi dello stesso segnale (audio digitale), nelle quali per lintervallodi frequenze analizzato varia tra 20 e 20.000 Hz (a) e tra 20 e 160 Hz (b). In quetultimo caso, sinotano i picchi equispaziati delle componenti armoniche.

    5 Le figure sono ottenute con lopzione 3D analysis di Wavelab 2.0 della Steinberg.

    Figura 4.7a e b. Analisi spettrali a cascata dello stesso segnale: frequenze considerate tra 20 e 20500Hz (a) e tra20 e 160Hz (b).

  • Unit di misura

    Pur avendo menzionato pi volte le unit di misura impiegate nei grafici, finora non ne abbiamo maidato una spiegazione esplicita.Delle tre dimensioni che ci interessano (frequenza, tempo e ampiezza), solo la prima viene sempreinequivocabilmente espressa in ununica unit di misura (Hertz: cfr. cap. 1): tempo e ampiezzapossono invece adottarne differenti. Va notato che pi modalit di misura sono sempre disponibili inogni editor.Per quanto riguarda il tempo, si possono distinguere quattro categorie di misura: cronometriche,musicali, di sincronizzazione, di formato. Le misure cronometriche sono quelle che fannoriferimento ad una rappresentazione in termini di ore: minuti: secondi: millesimi di secondo. Disolito si tratta della visualizzazione predefinita. Le misure musicali impiegano la suddivisione inbattute: quarti: ticks per quarto (cfr. capp. 7-8). Sono utili nel predisporre un file audio perlinserimento in brano musicale gi pronto (magari MIDI) o per creare loops di esatta durata. Comeintuibile, necessario definire i due parametri musicali implicati: il tempo di metronomo (di solito,beats per minute) e il metro. Le misure di sincronizzazione fanno invece riferimento usualmente aidiversi formati dellSMPTE Time Code. Si tratta di un protocollo sviluppato dalla Society of MotionPicture and Television Engineers (SMPTE), lassociazione americana dei produttori cinematograficie televisivi, inteso a garantire la sincronizzazione tra il video (espresso in frame: fotogrammi) elaudio. Poich il numero di frame per secondo pu variare, esistono quattro differenti formati disincronizzazione: SMPTE Film sync (lo standard cinematografico: 24 fr/sec); SMPTE EBU (lostandard televisivo europeo European Broadcasting Union: 25 fr/sec); SMPTE 29 (lo standardtelevisivo americano NTSC: in realt 29.97 fr/sec); SMPTE 30 (usato nellaudio: esattamente 30fr/sec). Tali unit di misura si rivelano utili quando si lavora con il video, o in caso di esecuzionesincronizzata, in tempo reale, con dispositivi esterni: il segnale di sincronizzazione SMPTE vieneinfatti trasmesso anche attraverso messaggi MIDI (cfr. capp. 7-8), e ci garantisce una semplicecomunicazione tra pi dispositivi digitali. Infine, le misure di formato fanno riferimento alladimensione del file o al numero progressivo dei campioni. Sono utili per avere un controllo minutosulla memoria impiegata o quando richiesta una lunghezza in campioni precisa (pu essere il casodella sintesi per wavetable: cfr. pi avanti; si pensi eventualmente ad una sostituzione di una parte diun file esistente).Per quanto riguarda invece lampiezza le unit di misura impiegate sono sostanzialmente tre: valoriassoluti, dB, percentuale. Nel primo caso viene indicato direttamente il valore dellampiezzaassociato al campione (come detto molte volte, a 16 bit un numero intero compreso tra 32768 e32767). Lampiezza pu poi venire espressa in dB (cfr. cap. 1) al valore massimo (-32768; 32767)corrispondono 0 dB, a quello minimo (0) -96 dB (come si ricorder, il range dinamico possibile a 16bit proprio di 96db). Infine, come unit di misura di minor precisione, ma di pi immediatalettura, vengono impiegati i valori percentuali o quelli normalizzati, cio compresi tra 1 e +1.

    Statistiche e informazioni

    Oltre alle informazioni visualizzate, gli editor per laudio mettono generalmente a disposizioneulteriori strumenti di analisi, di solito rubricati sotto le voci analisi o statistiche (Figura 4.86).Tre sono le informazioni particolarmente rilevanti: i valori minimi e massimi dellampiezza; lRMS;il DC Offset.

    6 La figura una elaborazione da Sound Forge 4.5.

  • Figura 4.8. Finestra di informazioni statistiche.

    Come gi notato, una delle informazioni pi utili riguarda il massimo valore dampiezza deicampioni: si pu fornire il valore in dB e in campioni, identificandone immediatamente la posizione,magari marcandola o spostandovi direttamente il cursore. Il valore massimo anche definito valoredi picco (peak). In alcuni editor altres possibile valutare automaticamente la presenza di valoridistorti (clipped values). Conoscere landamento dellampiezza utile per evitare distorsioni delsegnale. Tuttavia la relazione tra valore dellampiezza a volume percepito complessa. Inoltre, vapreso in considerazione anche il fenomeno del mascheramento. Un pizzicato di contrabbasso pupresentare un picco assai elevato nellattacco, e tuttavai essere reso praticamente inudibile da unanota tenuta di violino di ampiezza assai inferiore. Un buon indicatore del volume (spesso offerto daisoftware) lRMS (Root Mean Square): facilmente ottenibile matematicamente (e senza perciricorrere a complesse valutazioni psicoacustiche), esso esprime il valore efficace dellampiezza.Dunque, lRMS un indicatore (medio) del volume di un suono, o di un intero brano (in generalesul RMS cfr. cap. 1).Infine, il DC Offset (Direct Current Offset) una misura (percentuale o in dB) che indica lospostamento medio dellonda rispetto al suo asse. In pratica, pu essere introdotto dagli apparecchielettrici (compresa la scheda audio) impiegati durante la registrazione del suono. come se linteraforma donda fosse spostata verso lalto o verso il basso di una costante. Il DC Offset un buonindicatore della malfunzionamento degli apparecchi in questione. Ne pu risultare un clickpercepibile, laddove si passi da un segnale simmetrico ad uno dotato di offset. Gli editor offrono lapossibilit di correggere autonomamente leventuale offset rilevato.

    Lelaborazione digitale dei segnali audio

    Una buona definizione di che cosa sintende per elaborazione (spesso si diece processamento)digitale del segnale la seguente: Lelaborazione digitale del segnale (Digital Signal Processing:usualmente abbreviato in DSP) si occupa di segnali, come un suono registrato digitalmente,rappresentati come serie di numeri; esplora i cambiamenti che possono essere effettuati in questaserie di numeri. In questo senso, lelaborazione digitale del segnale (e la teoria che ne alla base)pu essere ritrovata in ogni aspetto dellaudio digitale (Strawn 1985: xi). Sebbene anche le

  • operazioni gi incontrate in precedenza possano essere rubricate come DSP, ci proproniamo diseguito approfondire alcuni aspetti del tutto specifici dellaudio digitale.Come si visto nel cap. 2, la digitalizzazione rappresenta il segnale audio come sequenza numerica:ci comporta la possibilit di modificare il segnale in questione agendo direttamente sui numeri chene costituiscono la rappresentazione. Una volta modificata, la sequenza numerica pu venirenuovamente convertita in un segnale analogico, diverso rispetto a quello in entrata a secondadellelaborazione applicata. Come intuibile, il punto di forza di un simile trattamento sta nellapossibilit di applicare alla sequenza numerica ogni possibile operazione matematica, senzaincorrere nei limiti dei materiali analogici. Vediamo due esempi.Quando si registra un segnale in un normale registratore a cassetta possibile aumentarne il volumedi registrazione (e quindi lampiezza del segnale stesso) solo in misura limitata: la gamma dinamica di circa 80 dB, nelle attrezzature professionali. Non solo. Oltre una certa soglia soglia il segnaletender progressivamente a distorcere: si avr cio una modificazione sempre pi marcata dellaforma dellonda, equivalente ad unalterazione del timbro del suono. Al contrario un segnale digitaleallinterno della gamma di valori definita dalla quantizzazione (nei CD audio in commercio a 16bit, pari a 96 dB)- ha un comportamento quasi assolutamente lineare. Vale a dire, la forma dondadel segnale in questione non risulta soggetta a nessuna modificazione.Un secondo esempio. La possibilit di analizzare un segnale digitale attraverso una FFT (cfr. sopra) alla base di alcune operazioni che, a differenza delle altre precedentemente incontrate, non hannoprecedenti in ambito analogico. Come noto, una volta registrato analogicamente un segnale, non possibile scindere la frequenza dello stesso dalla sua durata. Diminuendo la velocit di lettura, siaumenta la durata ma inevitabilmente si ha un proporzionale decremento della frequenza ( quantoaccade tipicamente ascoltando a 33 giri un disco di vinile registrato a 45). Se invece il segnale digitale possibile dissociare le due dimensioni: allatto pratico, attraverso un procedimento basatosulla FFT (Fast Fourier Transform: cfr. cap. 2) possibile ad esempio aumentare o diminuire ladurata di un campione audio senza alterarne la frequenza. Infatti attraverso i dati ottenuti dallanalisi possibile procedere ad una successiva sintesi nella quale possono essere modificati alcuni deiparametri ottenuti dallanalisi, senza per questo alterarne necessariamente altri. Ancora, a partiredallo stesso algoritmo danalisi, possibile prendere due strade dal risultato molto diverso, ma dallastessa logica sottostante (De Poli 1993: 82). Possiamo cio decidere di modificare la frequenza e ladurata del segnale analizzato, o di enfatizzare/attenuare una certa regione spettrale procedendo aduna vera e propria operazione di filtraggio: un filtraggio che consente di eliminare unarea spettralecomplessa del segnale senza rivelarsi distruttiva rispetto alla parte rimanente: il caso deglialgoritmi di rimozione del rumore.Se in questi casi si ha a che fare con manipolazioni tipiche del solo ambito digitale, bene ricordareche, proprio grazie al formato numerico assunto dal segnale, possibile simulare digitalmenteoperazioni tipiche dellanalogico. Ci stiamo riferendo soprattutto a quel tipo di operazioni cheusualmente si definiscono effetti: equalizzazione, distorsione, ritardo (delay, flanger, chorus) ecos via. Sono queste modificazioni del segnale la cui origine va ricercata nelle sperimentazionidegli studi di musica elettronica (intendendo con il termine il pi generale ambito elettroacustico), eche hanno trovato larghissima diffusione negli studi di registrazione commerciali e nella musica pope rock.Nella descrizione di queste operazioni procederemo pi schematicamente, cercando di fornire unaguida veloce allutente. Al nome delloperazione, seguono tre capoversi relativi a definizione,risultato e utilit, e parametri.

  • Operazioni semplici

    Invert

    Definizione: il segnale viene invertito intorno allasse del tempo: nella forma donda i picchidiventano gole e viceversa. I valori positivi dellampiezza diventano negativi e viceversa.Risultato e utilit: nessun risultato percepibile. Tuttavia la funzione pu essere utile nel modellarela forma del segnale per missarlo o incollarlo con un altro. Ad esempio, il taglio di una parte di

    segnale (Figura 4.9a), pu risultare in un click percepibile (Figura 4.9b), risolvibile con linversionedel segnale (Figura 4.9c), che elimina la discontinuit.Parametri: nessuno.

    Reverse

    Definizione: il segnale viene invertito rispetto allasse delle ordinate: inverte lordine dei campioni.Equivale ad una lettura del file in senso contrario dalla fine allinizio.

    Figura 4.9. Eliminazione di un click tramite Invert.

    Figura 4.10a e b. Un suono percussivo (a) ; lo stesso invertito rispetto al tempo (b).

    Esempio4.3a

    Esempio4.3b

  • Risultato e utilit: si ottiene il tipico effetto aspirato, dovuto allinversione dellinviluppodellampiezza. Se si normalmente si ha attacco, decadimento, sostegno, rilascio, invertendo rispettoal tempo si passa dal decadimento cos via fino allattacco. Nella sillaba ta, si avr at increscendo con t inesploso alla fine. Si tratta di una tipica operazione da studio di musicaelettronica, poi ampiamente usata ad esempio nel pop/rock degli anni 60/70.In Figura 4.10a e b il procedimento stato applicato ad un suono percussivo dal tipico invilupposenza sostegno.Parametri: nessuno.

    Filtri

    Un filtro un dispositivo che lascia passare certe frequenze meglio di altre (Bianchini e Cipriani1998: 37). Un filtro agisce sullo spettro, enfatizzandone o attenuandone determinate frequenze: unamodifica dello spettro determina a livello percettivo un cambiamento nel timbro del suono. Iparametri fondamentali di un filtro sono: il tipo, la frequenza di taglio/centrale, lordine. Siriconoscono usualmente quattro tipi di filtri: passa-basso (lowpass), passa-alto (highpass), passa-banda (bandpass) e elimina-banda (bandreject, o notch). I quattro tipi sono schematizzati in Figura4.11.

    In un filtro passa-basso o passa-alto ideali, data una frequenza di taglio, tutte le frequenzerispettivamente superiori o inferiori a questa dovrebbero essere attenuate a 0. Allo stesso modo, inun filtro passa-banda o elimina-banda ideali, data una banda di frequenze, tutte le frequenzerispettivamente esterne o interne alla banda dovrebbero essere attenuate a 0. La frequenza di taglio perci quella frequenza a partire dalla quale viene effettuato il filtraggio. Nei filtri passa- o elimina-banda si definiscono sia la larghezza di banda (bandwidth) che la frequenza centrale: data una

    Figura 4.11. Tipi di filtro.

    Esempi4.4a-e

    Esempio4.3c

  • regione dello spettro, la prima ne misura la larghezza, la seconda la frequenza al centro. Adesempio, in un filtro che passa tutte le frequenza tra 100 e 110 Hz, la larghezza di banda 10 Hz, lafrequenza centrale 105 Hz. Poich i filtri che rispondano ai requisiti dellidealit (come quelli dellaFigura 4.11) non esistono, si considera come frequenza di taglio quella a cui il filtro attenua di 3 dBil livello dampiezza massimo. Se perci il passaggio tra la regione inalterata e quella attenuata dalfiltro graduale, un ultimo parametro diventa rilevante: la pendenza della curva. Questultima,misurata in dB per ottava, definisce lordine del filtro. Ad esempio, un filtro del I ordine presentauna attenuazione di 6 dB per ottava, uno del II di 12 dB, del III di 18 dB e cos via.Come ricorda Roads, anche se un filtro pu essere letteralmente ogni operazione svolta su unsegnale, tuttavia con il termine ususalmente si intende un dispositivo che aumenta o attenualenergia connessa a certe regioni dello spettro di un suono (Roads 1996: 185). Questo tipo dioperazione tipicamente svolto dagli equalizzatori.

    Equalizzatore grafico

    Definizione: Un equalizzatore un banco di filtri passa-banda. Suddivide il segnale in aree spettrali(bande) e consente di aumentare/diminuire lenergia ad esse associata (ci che si definisceguadagno: gain). Il risultato un cambiamento dello spettro e quindi del timbro. Le frequenzecentrali tipiche dei filtri degli equalizzatori si misurano in ottave7 e nei loro sottomultipli (10 bande= 10 ottave; 20 bande = 20*1/2 ottava; 30 bande = 30*1/3 ottava).Risultato e utilit: si tratta di una delle operazioni pi usate. Consente di modificare il contenutospettrale, aumentando ad esempio le basse frequenze, che in fase di registrazione possono risultareattenuate. Esistono poi equalizzazioni tipiche: ad esempio, a V, il cosiddetto midcut (taglio deimedi). quanto succede in Figura 4.12, dove lequalizzatore disegna anche la curva di rispostaeffettiva8. Il risultato un suono un po vuoto e pi metallico (Esempio 5.4b). Un andamentoopposto, con la sola enfatizzazione dei medi, produce invece un caratteristico timbro nasale(Esempio 4.5c).

    7 Per il lettore meno esperto musicalmente, ricordiamo che si definisce ottava il rapporto tra due frequenze una doppiadellaltra (f1/f2=2). Le due note a distanza di ottava vengono percepite come uguali, ma pi gravi o pi acute. Se sipremono i tasti bianchi del pianoforte, lottavo tasto dopo quello iniziale in rapporto dottava con esso: DO re mi fa solla si DO re mi ecc.8 unelaborazione da Cool Edit Pro.

    Figura 4.12. Equalizzatore grafico a 30 bande.

    Esempio4.5a - c

  • Parametri: gli equalizzatori grafici presentano per ogni banda di frequenza un fader che consente diaumentare/attenuare simmetricamente la banda in questione. Alcune volte possibile deciderelampiezza dellescursione (range).

    Equalizzatore parametrico

    Definizione: In un equalizzatore grafico la larghezza di banda predeterminata. Ci che si pu fare agire sullampiezza. In un equalizzatore parametrico possibile invece controllare in manieraindipendente pi parametri di filtraggio: frequenza centrale, larghezza di banda e/o Q, guadagno. Inun filtro passa-banda, Q definito come freq centrale/ (freq acuta freq grave), cio come ilrapporto tra la freq centrale e la larghezza di banda. Mantenere Q costante lungo tutto lo spettro vuoldire adeguare la larghezza di banda allaltezza percepita (allintervallo musicale). Ad esempio: sefreq centrale = 105 Hz; freq acuta = 110 Hz; freq grave = 100 Hz, allora Q = 105/(110 100) =10.5. Se manteniamo Q costante, e incrementiamo la freq centrale del nostro filtro a 10.500 Hz,ottieniamo come estremi del nostro filtro 11000 e 10000. La larghezza di banda incrementata da10 Hz a 1000 Hz, conformente con la nostra percezione dellaltezza. Questo quanto avviene anchenellequalizzatore grafico. Con lequalizzatore parametrico possiamo per decidere di far variare Qdiscrezionalmente: ad esempio di aumentare tutte le frequenze medio-gravi ma di filtrare conestrema precisione una frequenza acuta, magari risultato di un disturbo di registrazione. In Figura4.13 un esempio di filtraggio selettivo, con Q costante9 per le tre freqeunze prescelte.

    Risultato e utilit: come osservato, consente di operare un intervento estremamente preciso sullabanda di frequenze desiderata. Oltre allattenuazione di frequenze indesiderate (disturbi di variotipo: ad esempio lhiss, il sibilo che accompagna molte registrazioni analogiche su nastro), puessere utile nellenfatizzare componenti spettrali precise, senza per questo modificarne altre. possibile ad esempio simulare il filtraggio operato da un telefono o da una vecchia radio, scegliendouna opportuna banda passante centrata sulle frequenze medie.Parametri: gli equalizzatori parametrici presentano una visualizzazione continua dello spettro, sullaquale compare la risposta del filtro, in funzione della frequenza centrale della banda prescelta e del

    9 Elaborazione dal plug-in Cakewalk FX Stereo Parametric Eq della Twelve Tone Systems.

    Figura 4.13. Equalizzatore parametrico.

    Esempio4.6

  • guadagno ad essa attribuito. spesso possibile scegliere pi poli (le frequenze centrali), come purese mantenere costante la larghezza di banda o il fattore Q.

    Ritardi (delay)

    Comprendiamo in questa categoria la maggior parte di quelli che vengono definiti comunementenella terminologia degli studi di registrazione effetti. Questo perch la maggior parte di essi haalla sua base una qualche forma di ritardo (delay): fondamentalmente si tratta di creare una copia delsegnale di partenza e di effettuarne una miscelazione con loriginale dopo un certo tempo (delaytime). Lalgoritmo del ritardo uno di quelli pi importanti nel processamento digitale dei segnali. alla base degli effetti di riverbero/eco (in cui si simulano le diverse riflessioni di unonda sonora inun ambiente), viene impiegato in quelli di chorus/flanging (dove leffetto ottenuto consisteprecisamente nelle interferenza tra le diverse copie del segnale), pu servire per costruire filtri (nelcaso limite, se aggiungo ad unonda sinusoidale la sua copia ritardata di mezzo periodo, glispostamenti rispetto allampiezza che descrivono le due onde si sommano annullandosi del tutto).

    Chorus

    Definizione: il chorus simula la presenza di pi fonti sonore insieme. il fenomeno che si verifica(come suggerito dal nome) quando un coro canta: pi persone eseguono la stessa melodia, maognuno con piccole differenze nellintonazione (frequenza) e nello sviluppo temporale (chi attaccaprima, chi dopo ecc.). Non solo, ma tali variazioni non sono necessariamente uniformi (non dettoche un cantante rispetto allaltro intoni sempre il la crescente a 441 Hz piuttosto che a 445; non detto che attacchi sempre 5 millisecondi dopo). Unulteriore elemento dato dalla variazionecasuale tra gli esecutori del vibrato, inteso come una rapida e continua variazione nellampiezza delsegnale (percettivamente perci nel volume).Risultato e utilit: il chorus uno dei mezzi pi semplici, ma pi efficaci (e anche di pi anticadata) per dare corpo al suono: cio per simulare le caratteristiche di pi fonti sonore in unambiente naturale. Ad un uso naturalistico, utile per simulare un effetto stereo in un file mono, sipu aggiungere un uso pi sperimentale, per ottenere ad esempio rapidi vibrati, o altri effetti.Parametri: i parametri fondamentali nelluso di un chorus dipendono dallimplementazione dellostesso. In alcuni casi, I software consentono di introdurre dati relativi ad una vera esecuzione:spessore della tessitura (o il numero delle voci simultanee), tempo massimo di ritardo, controllo delvibrato, dispersione delle altezze. Si tratta di definire i parametri pertinenti nellesecuzione reale cheviene simulata dallalgoritmo (Figura 4.14a). Spesso per si possono incontrare altri parametri(Figura 4.14b)10. Pi generalmente, con modulazione si indica il fatto che alcuni aspetti di unsegnale (portante) variano in relazione a quelli di un altro (modulante) (Roads 1996: 215). Poich,come osservato, il chorus ottenuto aggiungendo al segnale una versione ritardata (e modulata infrequenza) del segnale stesso, di fatto pu essere pensato come una modulazione (cfr. cap. 9) delsegnale originale operata dal segnale ritardato. Di conseguenza, tra i parametri definibili nei modulichorus vi spesso il controllo diretto dellampiezza e della frequenza dellonda modulante(Modulation depth e Modulation rate).

    10 Elaborazioni da Cool Edit Pro e da Sound Forge .

    Esempio4.7a-c

  • Flanger

    Definizione: il flanger era ottenuto negli anni 50/60 attraverso un rallentamento meccanico di unadi due bobine di nastro contenenti due tracce identiche. In questo modo al segnale inalterato venivasovrapposto lo stesso segnale modulato in frequenza e nel tempo a causa del rallentamento delnastro: modulato nel tempo, perch il secondo nastro periodicamente anticipava e seguiva quellooriginale; in frequenza, perch accelerazioni e decelerazioni della velocit del nastro causavanoproporzionali incrementi/decrementi della frequenza. Nella versione elettronica, il tempo di ritardodel secondo segnale varia continuamente attraverso un oscillatore di controllo. simulabileattraverso un chorus.Risultato e utilit: il flanger uno degli effetti pi popolari, ed di uso comune presso i chitarristifin da Les Paul (che ne accreditato inventore). il responsabile delleffetto jet spesso ascoltabilenei riff di chitarra elettrica, come pure di molti effetti spaziali, impiegati ad esempio nella danceper le voci.Parametri: i parametri fondamentali sono lintervallo di variazione del ritardo, e la frequenza divariazione. In sostanza, si tratta di decidere di quanto possa variare il tempo di ritardo, e con chefrequenza possa passare dal valore minimo a quello massimo. In alcuni casi, possibile controllare

    Figura 4.14a e b. Differenti tipi di parametri per il chorus.

    Esempio4.8a e b

    Esempio4.9a-d

  • direttamente la variazione del tempo. In altri casi, i parametri riguardano le caratteristiche dellamodulazione (cio, come detto, della variazione): ampiezza, frequenza, forma dellonda modulante.

    Phaser

    Definizione: nel phaser, come nel flanger, il segnale viene ricombinato con una sua copia, sullaquale viene effettuato uno spostamento questa volta non del tempo, ma della fase. La copia vieneottenuta facendo passare il segnale attraverso un banco di filtri (detti allpass), che hanno risposta infrequenza piatta, ma che modificano la fase del segnale.Risultato e utilit: insieme con chorus e flanger, il phaser uno degli effetti pi diffusi tra ichitarristi. In realt, il processo di phasing pu condurre a risultati molto diversi: in alcuni casi similial flanger, in altri direttamente ad un effetto wah-wah. In questultima circostanza, lo spostamentoperiodico di fase che opera su un certo insieme di frequenze produce di fatto unincremento/decremento dellenergia delle frequenze in questione. Esattamente quanto avviene nelpopolare pedale wah-wah, dove il piede controlla lescursione del guadagno di un filtro confrequenza centrale variabile.Parametri: i parametri fondamentali sono la frequenza centrale attorno alla quale si produceleffetto (Center frequency), il tasso di variazione (Sweeping rate, o solo Rate), la profondit,(Depth). In sostanza, si tratta di decidere rispettivamente attorno a quale frequenza (leffetto risultainfatti in un filtraggio), con quale periodicit e di quanto possa variare (in termini di range difrequenze che vengono modificate dalleffetto) il phasing. La risonanza (Resonance) indicalescursione dello spostamento della fase. Nel caso di un effetto wah-wah, Resonance controlladirettamente la larghezza di banda del filtro.

    Delay

    Definizione: il delay non fa altro che aggiungere una o pi copie del segnale al segnale stesso dopoun certo tempo (delay time). Nel caso di multiple delay (pi semplicemente un effetto eco) pi copievengono aggiunte con ampiezza decrescente fino a raggiungere linudibilit (attenuazione di 60 dBo pi) dopo il tempo di decadimento (decay time). Un multitap delay un delay che ha pi linee diritardo autonome, di ognuna delle quali possibile determinare tempo di ritardo e loffset (il puntodella linea di ritardo da cui viene prelevato il campione ritardato). In sostanza si decidono di piritardi simultanei i punti di inizio del segnale ritardato. A differenza che in chorus, flanger e phaser,nel delay il tempo di ritardo fisso: non modula periodicamente nel tempo, ne soggetto avariazioni progressive come nei riverberi.

    Esempio4.10a-c

  • In Figura 4.15 al segnale originale di Figura 4.15a viene aggiunta un copia con delay di 200 msec(17b); in 4.17c, un multiple delay (sempre 200 msec): ogni copia ha ampiezza pari all80% dellaprecedente.

    Risultato e utilit: il delay pu produrre un vastissimo raggio di risultati. Pu introdurre unadimensione ambientale in un segnale particolarmente asciutto, magari perch registrato in unambiente molto piccolo, o con attrezzature di scarso valore. Pu simulare le eco multiple percepibiliin un grande spazio riflettente come un canyon. Come effetto in s, di uso comune nella musicarock e pop ( il caso delle caratteristiche note ribattute, sia negli strumenti intonati che nellepercussioni), ed responsabile di molti effetti alieni (anche nellaudio cinematografico), graziealla riverberazione metallica che pu essere generata, ad esempio, tramite un tempo di decadimentomedio-lungo.

    Figura 4.15a-c. Segnale originale (a); delay (b) e multiple delay (c).

    Esempio4.11a-c

    Esempio4.14a-c

    Esempio4.12

    Esempio4.13

  • Parametri: la variet di effetti possibili dipende del tutto dal valore di due variabili: il tempo diritardo e quello di decadimento. I tempi di ritardo (dt) tipici sono distinguibili in brevi, medi e lunghi(Roads 1996: 435): 1
  • Risultato e utilit: il riverbero utilissimo nel simulare la presenza di un ambiente acustico. Nellamusica pop-rock viene spesso impiegato per aumentare la dimensione ambientale delle percussioni,oltre che come effetto in s. La spazializzazione prodotta dalla riverberazione pu migliorareradicalmente segnali di bassa qualit, sia perch registrati con attrezzature insufficienti, sia perchmagari reperiti in formato di minore definizione (22.050 Hz, 8 bit, mono) o compresso (si pensi afile scaricati dalla rete), sia perch originati sinteticamente, e perci sprovvisti costitutivamente didimensione ambientale.Parametri: il tempo totale di riverberazione il tempo necessario perch il segnale rivereberato siattenui fino allinudibilit: proporzionale alla dimensione dello spazio simulato. Il tempo di attacco il tempo che intercorre tra linizio del segnale originale e il momento in cui compare lariverberazione: fondamentale nella percezione dellambiente, pi o meno proporzionale alledimensioni di questultimo. Si considerino analogamente anche le caratteristiche delle primeriflessioni. Gli assorbimenti delle frequenze acute definiscono invece la caratteristiche internedellambiente: pi questo denso di oggetti, maggiore sar lassorbimento degli acuti.Sono presenti in commercio unit di riverbero che, invece di simulare le riflessioni prodotte da unambiente attraverso la regolazione dei tempi di ritardo, forniscono un modello fisico, nel quale iparametri da regolare sono direttamente quelli relativi alle caratteristiche acustiche di un ambiente(dimensioni, forma, fattori di smorzamento, colore, posizione del segnale e del microfono). Infine,alcune unit combinano i due modelli, offrendo parte di entrambi i tipi di controllo (Figura 4.1712).

    Operazioni sulla dinamica

    Un segnale si presenta con un certo inviluppo dampiezza, a cui percettivamente corrisponde uncerto volume. Agire sulla dinamica implica operare sul segnale in modo tale da ottenere un risultatola cui differenza rispetto alloriginale venga percepita in termini di volume, anche nel caso in cui si in parte modificato lo spettro del segnale (e dunque, il timbro).

    Amplificazione/Inviluppo

    Definizione: una delle operazioni pu semplici che possono essere svolte su un segnale in formanumerica moltiplicare il valore di tutti i campioni per una costante. Il risultato un aumento

    12 Lelaborazione tratta da TC|Native Reverb della TC|Works.

    Figura 4.17. Unit di riverberazione.

    Esempio4.17a-d

    Esempio4.16

  • dellampiezza del segnale, che non ne modifica il contenuto spettrale, e che percettivamente risultain un aumento del volume. Una funzione predisposta da tutti gli editor audio proprio quella diamplificazione che consente di operare sullampiezza del segnale: usualmente la misurazione dellavariazione dellampiezza fornita in dB. Se in questo modo lintero inviluppo dellampiezza(envelope) viene modificato unformemente, per anche possibile effettuare una regolazionedinamicamente variabile nel tempo. Ad esempio, si pu ottenere una dissolvenza in entrata (fade in)o in uscita (fade out): lampiezza del segnale nellarea selezionata varia linearmente da 0 al valoreoriginale, o viceversa. Musicalmente, equivale ad un crescendo/decrescendo dal/al niente. Comeintuibile, non necessariamente il valore di partenza/arrivo deve essere pari a zero: si pu realizzareuna progressione lineare tra due valori qualunque. Algoritmi pi sofisticati consentono poi dicontrollare dinamicamente landamento dellampiezza nel tempo, cio di costruire un vero e proprioinviluppo. Al suono percussivo di Figura 4.18a stato imposto la curva dinviluppo di Figura 4.18b:al contrario di quanto avveniva nelloriginale, linviluppo del segnale risultante (Figura 4.18c)presenta un attacco graduale e una fase di sostegno prolungata, come tipico di un suono tenuto.

    Risultato e utilit: il controllo sullampiezza di un file tra le operazioni di pi ovvia utilit: sipensi alla predisposizione dei materiali audio per un prodotto multimediale, dove sono richiesteomogeneit o variazioni funzionali nel volume percepito. Le dissolvenze costituiscono poi unelemento tipico nella costruzione della cornice di un evento, operando tipicamente in apertura o inchiusura dello stesso. Il controllo pi minuto sullintero inviluppo pu essere utile per due ragioni:

    Figura 4.18a-c. Suono percussivo (a); curva di inviluppo(b); risultato dell'applicazione della curva (c).

    Esempio4.18a

    Esempio4.18b

  • da un lato, in funzione di eventuali immagini, pu simulare un movimento nello spazio della fontesonora a cui viene attribuito (secondo lequazione percettiva vicino = forte, lontano = piano);dallaltro, limposizione di un inviluppo in grado di fornire un notevole miglioramento ad unsegnale di sintesi, anche semplicemente sinusoidale.Parametri: tipicamente, il valore di incremento dellampiezza (costante o di arrivo e partenza, incaso di dissolvenza). Laddove sia possibile controllare precisamente linviluppo, usualmentepresente un grafo che presenta in ascissa il tempo e in ordinata lampiezza, sul quale si pu costruirela spezzata che rappresenta linviluppo applicato al segnale (cio, proprio landamentodellampiezza nel tempo).

    Normalizzazione

    Definizione: la normalizzazione consiste nella massima amplificazione possibile del segnale senzache si produca distorsione digitale (il clipping). In alcuni casi, gli editor offrono la possibilit dideterminare una percentuale di amplificazione rispetto al segnale normalizzato (al 100% corrispondela normalizzazione vera e propria).Risultato e utilit: spesso utile lavorare con segnali la cui ampiezza sia quella massima possibilesenza distorsione. Ad esempio, quando si intende ricampionare abbassando la quantizzazione(magari per motivi di peso del file), proprio la parte del segnale a bassi livelli dinamici chesubisce la maggiore degradazione. Un discorso analogo vale in caso di compressione: questa infattiproduce spesso un incremento del rumore di fondo, che si traduce in una minore SNR (cfr. cap. 2).Non solo: laumento manuale dellampiezza non consente di sapere, se non per prove ed errori, senel segnale risultante saranno presenti o meno dei clip. Anche qualora non si voglia ottenerelamplificazione massima, ma non si possa immettere direttamente una percentuale damplificazionerispetto al segnale normalizzato, allora possibile in prima istanza normalizzare il segnale, e insecondo battuta scalare eventualmente dallampiezza massima cos ottenuta.Parametri: il valore (in dB o in percentuale) di incremento dellampiezza, dove il valore massimoequivale allamplificazione massima possibile non distorcente. In alcuni casi, possibile regolarelincremento non definendolo in termini di ampiezza assoluta, ma di RMS (cfr. pi sopra): in questomodo laumento prescelto in relazione diretta con il volume percepito. Si pensi al caso in cui simixano/incollano pi file: La dimensione pertinente non solo lampiezza assoluta: importanzacruciale ha il volume relativo, che spesso non coincide con lampiezza relativa.

    Panning

    Definizione: con panning si intende sia il posizionamento che il movimento laterale del suono sudue (o pi) canali. Nellimmagine stereofonica, dato dal bilanciamento (costante o variabile) delfronte tra i due altoparlanti. Costituisce con la riverberazione, uno dei due modi fondamentali didistribuzione spaziale (reale o virtuale) del suono (Roads 1996: 452).Risultato e utilit: la ripartizione dinamica del segnale sui due canali consente di simulare unospostamento nel tempo delle fonti sonore o dellascoltatore: si crea cio uno spazio sonoro virtuale.Si pensi, come nel caso dellinviluppo, allassociazione con un oggetto visivo mobile. Oltre adincrementare la dimensione ambientale del segnale, il panning pu servire a costruire lillusione diun immagine stereofonica in segnali mono: duplicato sui due canali stereo il file originario, si puvariare la quantit del segnale sui due canali.Parametri: tipicamente, gli editor offrono un controllo grafico sul fronte stereo. Si tratta di ungrafico che presenta in ascissa il tempo (con eventuale preview dellla forma donda del segnale) e inordinata ai due estremi in alto e in basso sinistra e destra (di solito). Si pu definire una spezzata che

    Esempio4.19a-e

  • identifica la ripartizione del segnale tra gli estremi, dove un punto che giace su una delle posizioniestreme verticali indica un posizionamento completo del segnale su uno dei canali.

    Processamento dinamico (dynamics processing)

    Definizione: la funzione tipica di un processamento dinamico quello di variare il livello di uscitadi un segnale sulla base del livello dentrata.Risultato e utilit: di solito si definiscono quattro tipi standard di processamento dinamico:compressione, limitazione, espansione, noise gating. Nelle Figura 4.19a-d lasse delle ascisse indicalampiezza del segnale in entrata, lasse dellordinate quella in uscita. La retta a 45 implica nessunaalterazione dinamica del segnale (ad ampiezza x in entrata, corrisponde ampiezza y in uscita). Se lacurva sopra la retta, allora c una espansione in uscita (y>x), se sotto, viceversa, c unacompressione (y

  • Il risultato una omogeneizzazione visibile della forma donda del segnale. utile nel mantenere unlivello dinamico uniforme: si pensi ad esempio alla preparazione di un file audio come sfondo. Se ilfile originale presenta troppa escursione dinamica, tender a sparire nei piano, o a risultare troppopresente nei forte: possiamo allora comprimerne utilmente la dinamica.Un limitatore (di solito: limiter, Figura 4.19b) si occupa di limitare la parte del segnale la cuiampiezza supera una certa soglia. Solo quando il segnale in input supera il valore di soglia vieneriportato ad una valore inferiore. Serve per evitare i picchi (e magari il conseguente clipping), senzaper questo dover proporzionalmente diminuire lintera ampiezza del segnale. Si pensi ad un fileaudio con pochi picchi di brevissima durata ma molto elevati, magari causati dallattacco di suonipercussivi: presumibilmente la limitazione non causer alterazioni udibili, ma eviter distostorsionio eccessive sollecitazioni degli altoparlanti.Un espansore (di solito: expander, Figura 4.19c) svolge una funzione opposta ad un compressore:dilata lescursione dinamica di un segnale, aumentando lampiezza in uscita per i valori pi elevatiin entrata e diminuendola per i valori pi bassi. Dato un segnale estremamente omogeneo nelledinamiche (si pensi ad un file audio di bassa qualit), pu incrementarne la ridotta variet dei pianidinamici.Un noise gate (Figura 4.19d) agisce in modo opposto ad un limiter, diminuendo (generalmente finoallinudibilit), la parte del segnale inferiore ad una certa soglia. utilissimo nel tagliarecompletamente un rumore di fondo dampiezza costante presente in un segnale. sufficientediminuire pressoch a zero il valore in uscita della parte del segnale dampiezza inferiore alla sogliadefinita da quella del rumore: cos possibile rendere completamente silenziosi rumori di fondocostanti, ma udibili solo durante il silenzio (si pensi ad esempio alle pause in un discorso).Parametri: possibile che i quattro tipi che abbiamo presentato vengano proposti dalleditor comemoduli separati. Soprattuto il noise gate spesso autonomo: il parametro fondamentale in questocaso la frequenza di soglia sotto la quale opera la drastica riduzione dinamica. Spesso fornito ungrafo cartesiano come quelli che abbiamo riportato: la spezzata costruibile definisce landamento delprocessamento e ogni alterazione rispetto alla diagonale (che rappresenta i valori inalterati) assegnaallampiezza in entrata un diverso valore in uscita. Esistono poi moduli che consentono di svolgerele operazioni citate su una specifica banda di frequenza: lalterazione dinamica affligge solo in unadeterminata area spettrale, che viene definita dallutente.

    Il primo segmento orizzontale della curva di Figura 4.20a riduce a zero la parte di segnale inferioreal valore del suo estremo destro. Il risultato della sua applicazione al segnale di Figura 4.20b

    Figura 4.20a-c. La curva di processamento dinamico (a), applicata al segnale (b), produce (c).

    Esempio4.21a e b

  • illustrato in Figura 4.20c: un taglio completo di tutta la parte inferiore al valore di soglia. Nellacircostanza, i tempi di attacco (attack) e di rilascio (release), cio i due intervalli di tempo necessaririspettivamente per il passaggio dal segnale non processato a quello processato e viceversa, sonopari a 0: di qui il taglio netto visibile nella forma donda.

    Distorsione

    Descrizione: Con distorsione si possono intendere due diversi concetti, in realt correlati. Da unlato, distorsione indica il fatto che la forma donda di un segnale, a causa di una qualche forma didisturbo, possa venire modificata, con conseguente alterazione delle sue caratteristiche timbricheoriginarie: quanto avviene tipicamente in caso di malfunzionamento di un altoparlante, magari persovraccarico. quanto si intende anche quando si parla di saturazione di un amplificatore valvolare:la distorsione impiegata dai chitarristi sfrutta proprio questo tipo di risposta non lineare in uscita daparte dellamplificazione al segnale in entrata. Nella computer music, si intende invece condistorsione un metodo di sintesi (cfr. cap. 9) che, dato un segnale, mappa il valore di ogni campionead un altro valore attraverso una funzione distorcente. Il risultato una alterazione (distorsione)della forma dellonda originaria che pu produrre un timbro assai diverso. Nellediting audio vienesimulato leffetto di distorsione di uso comune soprattutto nella musica rock attraverso una funzionedi distorsione, che visivamente tende a squadrare la forma dellonda.Risultato e utilit: la distorsione ha lo scopo principale di riprodurre digitalmente il tipico effettochitarristico. Pi in generale, pu simulare il funzionamento di un cattivo microfono o altoparlante,di un megafono o la presenza di disturbi di trasmissione.Parametri: possibile trovare un pi generico controllo sul livello di distorsione (Treshold), coscome un grafo che consente manipolazioni pi complesse. In questultimo caso, si pu assegnare adogni valore dampiezza del segnale originale in entrata (asse delle ascisse) un nuovo valore in uscita(asse delle ordinate), disegnando la funzione di distorsione.

    Operazioni basate sullanalisi FFT

    Modifica frequenza/durata

    Descrizione: lanalisi attraverso lFFT ha come caratteristica quella di dissociare le due dimensionidello spazio e del tempo. Come gi osservato, una FFT produce, come risultato dellanalisi disegmenti finestrati del segnale, una sequenza di frame (fotogrammi, come in un film), di solito inparte sovrapposti per assicurare una pi alta precisione (overlapping): teoricamente, data lasequenza originale dei frame, possibile procedere ad una risintesi perfettamente identica delsegnale originale. Se invece allarghiamo lo spazio tra un frame e il successivo, nulla cambia (oquasi) nel contenuto spettrale (perci nellaltezza), ma il segnale risulta dilatato in durata. Se invecesi scalano le frequenze componenti ogni frame, si modifica la frequenza senza intaccare la durata: sead esempio le si moltiplica per un fattore due, si ottiene una trasposizione dottava. A differenza diquanto avveniva con un segnale analogico, allora possibile modificare una delle due dimensionisenza modificare necessariamente laltra.Risultato e utilit: si tratta di due operazioni tra le pi potenti messe a disposizione dal trattamentodigitale dei segnali audio. allora possibile realizzare aggiustamenti minimi sulla frequenza esullaltezza, a seconda delle circostanze. Nel primo caso, si pensi alla gestione simultanea di pitracce: nel caso di inserimento di una traccia registrata a parte, che si rivela in fase di missaggio dipoco stonata, possibile risolvere agevolmente il problema con un trasposizione daltezza. Nelsecondo caso, si pensi piuttosto alla realizzazione di un file audio, magari un loop, che seppur di

    Esempio4.23a e b

    Esempio4.22a e b

    Esempio4.24a e b

  • poco non coincide con la durata del video su cui deve essere montato. Le due operazioni possonopoi essere impiegate autonomamente in se stesse come effetti sonori.Parametri: come intuibile, la frequenza e la durata di arrivo, espresse usualmente in termini assoluti(Hz e/o semitoni, secondi) o relativi (ratio, percentuale). Si tenga presenta che le alterazioni efficacisono quelle di portata ridotta. Per quanto concerne la frequenza, va ricordato che la trasposizionemodifica il contenuro complessivo dello spettro, non solo la frequenza fondamentale. Le qualitspettrali del suono originale si mantengono pressoch inalterate solo in caso di spostamento ridotto.Per capirci: un do3 di un fagotto spostato artificialmente di unottava sopra spettralmente (esoprattuto percettivamente) diverso dallo stesso do direttamente suonato allottava. Lescursioneconsigliata perci (salvo effetti particolari) 1 tono, e comunque dipende dalle caratteristichespettrali del suono modificato: la voce umana o un insieme politimbrico consentono manipolazioni(realistiche, se questo lobiettivo) di portata molto pi ridotta, ad esempio, di una semplicemelodia di clarinetto. Per quanto concerne la durata, va rilevato che un eccessivo restringimentopu causare una perdita delle caratteristiche dellinviluppo del suono, con conseguente innaturalit,mentre un allungamento pu produrre buchi nel segnale, oltre a una modificazione spettrale (unvero e proprio filtraggio). Di solito conviene mantenersi attorno ad un 20% di variazione rispettoalla durata originale.

    Riassumendo

    Nel capitolo abbiamo avuto modo di osservare da vicino lelaborazione digitale dellaudio. Ci siamopreoccupati nono solo di definire e introdurre le tecniche principali di elaborazione (filtri, ritardi, epi in generale i cosidetti effetti) ma anche di capire come le informazioni vengano presentate daglieditor, sia in forma grafica che scritta. Le possibilit offerte da un editor audio sono di granderilevanza: comprendono la registrazione da fonti esterne come la sintesi diretta, lelaborazione comeil restauro audio. Lutilizzo di queste possibilit si rivela di fondamentale importanza non solo,come ovvio, per il musicista, ma anche per il creatore multimediale: lanimazione di un prodottomultimediale, nella sua accezione pi lata, passa infatti per locchio come per lorecchio. Oltre asvolgere operazioni di utilit essenziali (come la conversione tra diversi formati, compresi quellicompressi), un editor audio allora uno strumento indispensabile per la manipolazione sia di fontimusicali che di fonti pi genericamente sonore: si pensi alla modificazione dellampiezza(regolazione dei volumi, normalizzazione, realizzazione di dissolvenze di vario tipo), delladimensione ambientale (delay, chorus, riverbero, panning), della dimensione timbrica (simulazionedi un microfoni, incremento dellenergia associata a precise regioni spettrali). Ma si pensi anche allacreazione ex novo di suoni funzionali e ambientali (dai loop ai suoni per pulsanti) attraverso lusocongiunto di campionamento da fonti esterne o preregistrate e di elaborazione/missaggio:unoperazione che richiede certo una comprensione dello strumento software che si sta impiegando,ma che permette, grazie allintuivit di molte operazioni ed al controllo diretto sul risultato ottenuto,anche a chi non ha una formazione specialistica di ottenere risultati sonori di grande interesse ecomplessit.

    Per approfondireElenco di testi, CD-ROM, e siti per lapprofondimento dei concetti illustrati nel capitolo.

    Riccardo Bianchini e Alessandro Cipriani, Il Suono Virtuale, ConTempo, Roma 1998 (2 ed. prev.dicembre 2001).

    Esempio4.26a-d

    Esempio4.27a-d

    Esempio4.25a-d

  • Giovanni De Poli, Audio Signal Processing by Computer, in Goffredo Haus (ed.), MusicProcessing, Oxford UP, Oxford 1993.

    Hans Mikelson, Modeling a Multieffects Processor in Csound, in Richard Boulanger (ed.), TheCsound Book, MIT, Cambridge, Mass. 2000.

    Curtis Roads, The Computer Music Tutorial, MIT, Cambridge, Mass. 1996.John Strawn (ed.), Digital Audio Signal Processing. An Anthology, William Kaufman, Los Altos,

    Ca. 1985.

    Siti:http://www.harmony-central.com/Effects/