Sistemi Di Elaborazione Per La Musica Dispense del corso

download Sistemi Di Elaborazione Per La Musica Dispense del corso

of 301

Transcript of Sistemi Di Elaborazione Per La Musica Dispense del corso

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    1/301

    Sistemi di Elaborazione per la Musica

    Dispense del corso

    Marzo 2000

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    2/301

    2

    Indice

    Capitolo 1 - Musica informatica e teoria musicale

    1.1 - Dalla musica elettronica alla musica informatica1.2 - Musica informatica1.3 - La notazione musicale

    Allegati - Capitolo 1

    - MIDI- La notazione musicale tradizionale

    Capitolo 2 - Elementi di acustica e di psicoacustica2.1 - Acustica: introduzione2.2 - Oscillazioni e onde2.3 - Inviluppo dei suoni2.4 - Propagazione del suono2.5 - Intensit del suono2.6 - Psicoacustica: introduzione2.7 - Caratteristiche fisiche del suono e sensazioni uditive2.8 - Lorgano delludito2.9 - Sovrapposizione di suoni puri

    2.10 - Elaborazione dello stimolo uditivo nel sistema nervoso2.11 - Misure di intensit acustica2.12 - Mascheramento dei suoni2.13 - La percezione del timbro

    Capitolo 3 - Modelli dellinterpretazione musicale

    Allegati - Capitolo 3

    - Analisi dellinterpretazione - parte I- Analisi dellinterpretazione - parte II- Analysis by synthesis of the expressive intentions in musical performance

    Capitolo 4 - Analisi ed elaborazione del suono

    4.1 - Analisi di Fourier4.2 - Short Time Fourier Transform (STFT)4.3 - Il modello sinusoidale4.4 - Fondamenti matematici per lelaborazione del suono

    Allegati - Capitolo 4

    - Musical sound modeling with sinusoids plus noise

    - Elaborazione del suono

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    3/301

    3

    Capitolo 5 - Sintesi dei segnali audio

    5.1 - Introduzione

    5.2 - Metodi di generazione diretta5.3 - Sintesi non lineari5.4 - Sintesi per modelli fisici5.5 - Modelli per la sintesi dei segnali di controllo

    Capitolo 6 - Effetti audio digitali

    6.1 - Introduzione6.2 - Effetti tradizionali6.3 - Riverbero6.4 - Spazializzazione

    6.5 - Appendice: percezione di eventi spaziali

    Capitolo 7 - Sintesi per modelli fisici

    7.1 - Introduzione7.2 - Elementi concentrati: modelli a tempo continuo7.3 - Elementi concentrati: metodi numerici7.4 - Elementi distribuiti: lapproccio waveguide7.5 - Un esempio completo: il clarinetto

    Allegati - Capitolo 7

    - Physically based sound modeling- Acoustic modeling using digital waveguides

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    4/301

    Capitolo 1

    Musica Informatica e Teoria Musicale

    Alvise Vidolin

    Copyright c

    1999 by Alvise Vidolin. All rights reserved.

    1.1 Dalla musica elettronica alla musica informatica

    1.1.1 Introduzione

    Sotto il termine musica elettronica vengono spesso raggruppate esperienze musicali molto diversefra loro: diverse come linguaggio musicale, metodologia compositiva, concezione estetica, organi-co di apparecchiature e strumenti impiegati, tecnica esecutiva, scelta di pubblico e funzione socialedella musica, scelta del luogo e dello spazio di ascolto, ecc. Tali esperienze, comunque, trovanoun denominatore comune nellutilizzazione dei mezzi elettroacustici e nellaccettazione del pensierotecnologico-scientifico come supporto concettuale alla realizzazione dell opera per diventare talvoltafonte di stimoli prettamente musicali. La musica elettronica, comunque, non nasce tanto per la spintaegemonica della cultura scientifica rispetto a quella umanistica, quanto per un processo di convergen-za che maturato nel corso della prima met del novecento e che ha cominciato a dare i primi frutti nelsecondo dopoguerra. Gi alla fine del secolo scorso troviamo in maniera sempre pi frequente acca-vallarsi visioni profetiche, dimostrazioni scientifiche, sperimentazioni musicali, innovazioni tecnolo-giche, esposizioni di esigenze, azzeramenti e formulazioni di nuove teorie che si possono considerarele premesse allesperienza elettronica.

    1.1.2 Musica concreta e musica elettronica

    dagli anni 50, comunque, che si comincia a parlare di musica concreta, musica elettronica, tapemusic. I luoghi di nascita sono Parigi, Colonia, alcuni centri dellAmerica, seguiti da numerosi altriStudi che, spesso allinterno di emittenti radiofoniche, continuano tale esperienza apportando, comil caso dello Studio di Fonologia della Rai di Milano, un contributo originale e determinante. A Pa-rigi, rifacendosi alle proposte di Russolo e di Varese, si elabora elettronicamente qualsiasi materialesonoro preesistente, sia rumore che musica tradizionale, per costruire, con una tecnica che sa moltodel collage, opere musicali definite concrete che segnano un primo momento di rottura con il processoevolutivo della musica occidentale, basata essenzialmente sul controllo dei parametri altezza e durata.

    1.1

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    5/301

    1.2 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    A Colonia viene rivolta lattenzione esclusivamente ai mezzi elettronici, con un rigore che deriva daun lato da Schoemberg e Webern e dallaltro dalla prassi della ricerca scientifica. Pi che arrivare allamusica attraverso una "selezione" (dal rumore), si preferito determinarla per mezzo della "costru-

    zione", partendo dallonda sinusoidale ed agendo con una mentalit totalmente strutturalista. Questeimpostazioni opposte, e in un certo senso complementari di Colonia e Parigi, sono presenti negli studiche sorgono negli anni successivi in Europa e nel mondo, trovando spesso anche un giusto equilibrioe un naturale sviluppo. In questi anni il compositore lavora artigianalmente operando soprattutto con imagnetofoni, mediante tagli di nastro, sovrapposizioni di eventi sonori con successivi missaggi, varia-zioni di velocita dello scorrimento del nastro, ecc. Gli elettronici puri ottengono il materiale sonoro dapochi generatori di forme donda o dal rumore bianco. I concretisti lo ottengono soprattutto medianteregistrazione con microfono. In generale manca un sistema di notazione musicale in quanto non necessario eseguire pi volte lopera, fissata una volta per tutte su nastro magnetico. Ci che EdgarVarese auspicava nel 1922, "Il compositore ed il tecnico dovranno lavorare insieme", finalmente sirealizza. Inizia una ricerca interdisciplinare sia nel campo degli strumenti elettronici che nel campo

    della percezione e dellacustica. Gli anni 50 sono dominati da un clima di entusiamo avvenieristico:il superamento dello strumento meccanico e dei suoi condizionamenti storici; lapertura di infiniticampi di indagine non pi limitati dalle dodici note del sistema temperato; il contatto diretto del com-positore con il materiale sonoro; leliminazione - almeno teorica - dellesecutore e della trasmissionedel pensiero musicale attraverso un metalinguaggio quale la partitura; la fiducia nella tecnologia,nellamatematica, nella logica e nella scienza in genere.

    Superato lentusiasmo iniziale, molti compositori si rendono conto che le infinite possibilit teori-che offerte dai mezzi elettronici sono notevolmente ridotte in fase di realizzazione pratica e che certecostruzioni formali non sono assolutamente percepite da orecchi viziati da secoli di musica acusti-ca. Le apparecchiature usate sono poco docili alla volont del musicista in quanto costruite per altreapplicazioni, e la mole di lavoro richiesta per la realizzazione dellopera molto spesso non viene ri-pagata dal risultato finale. Va aggiunto che il compositore si muove su un terreno a lui sconosciuto,come daltra parte il pubblico non trova la chiave di lettura delle opere proposte, limitandosi spessoallascolto degli aspetti pi eclatanti e marginali.

    1.1.3 Dagli automatismi al sintetizzatore

    Assistiamo cos negli anni 60 ad un lento ma graduale processo di integrazione fra musica elettronicae musica strumentale ed allo sviluppo della cosiddetta musica mista caratterizzata da composizioniper strumenti e nastro magnetico, oppure con elaborazioni dal vivo dei suoni acustici per mezzo diapparecchiature elettroniche. Anche composizioni per un organico tradizionale risultano influenzatedalle esperienze elettroniche e dallapprofondimento teorico sui processi musicali che ne seguito.Coloro che rifiutano questo ritorno al "meccanico" si dedicano ad uno studio sistematico delle pos-sibilit offerte dai mezzi elettronici, inventando nuove tecniche compositive e perfezionando quellegi in uso. Una innovazione tecnologica di enorme importanza si affianca alle possibilit operativegi esistenti: il voltage control che apre la strada ai processi automatici di generazione dei suoni. Na-scono i primi sintetizzatori che tendono a ragruppare le principali apparecchiature di uno Studio inun unico strumento. Se da un lato il sintetizzatore si rivelato essere riduttivo rispetto agli insiemidi apparecchiature specializzate, dallaltro, per le sue caratteristiche di trasportabilit ed i costi rela-tivamente contenuti, ha permesso sia il sorgere di laboratori privati sia lesecuzione dal vivo e quindiuninterazione pi diretta con il pubblico. Grazie a tali peculiarit, il sintetizzatore viene utilizzatoanche dal mondo della musica jazz e pop condizionandone pesantemente levoluzione, tanto che la

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    6/301

    1.1. DALLA MUSICA ELETTRONICA ALLA MUSICA INFORMATICA 1.3

    produzione industriale dei successivi modelli viene sempre pi orientata verso la simulazione deglistrumenti tradizionali acustici ovvero integrando nellorgano elettronico i pi eclatanti effetti speciali.

    1.1.4 La musica elettroacustica

    Negli anni 60 le vecchie diatribe fra musicisti "concreti" e puristi "elettronici" sono gi abbondan-temente superate ed il termine pi appropriato per identificare la musica prodotta utilizzando sia ma-teriali acustici che sintetici sembra essere quello di musica elettroacustica. Quando viene prodotta instudio, ossia in tempo differito, si sopperisce alla mancanza del rapporto esecutore-pubblico inventan-do altre forme di spettacolo o di applicazione. Pur rimanendo sempre valida lideologia che ponevail mezzo radiofonico come veicolo privilegiato per la diffusione di massa della musica creata in labo-ratorio, aumentano i rapporti con le forme artistiche della visione, quali film e video; con il teatro edil balletto; si compongono musiche per la sonorizzazione di specifici spazi architettonici, si inventanoforme di spettacolo concettuale con i suoni e viene recuperato il vecchio legame fra musica e poesia

    anche se trasformato completamente sotto laspetto fonologico.

    1.1.5 Lelaboratore elettronico

    Sotto il profilo storico lelaboratore viene utilizzato in musica ancora negli anni 50 in un campo che molto pi vicino allintelligenza artificiale che alla liuteria elettronica. Le prime ricerche, infatti,non mirano alla produzione dei suoni bens alla generazione automatica di partiture eseguibili daglistrumenti tradizionali. Infatti il computer, grazie alle sue capacit logiche di elaborazione dellin-formazione, pu immagazzinare regole musicali e "comporre" in maniera automatica seguendo, ingenere, metodi aleatori. Nasce cos la musica stocastica e si sviluppano le ricerche nella direzionedella composizione automatica. Parallelamente si studia come rappresentare il suono in forma nume-

    rica ed avvalersi dellelaboratore nella generazione sintetica di fenomeni acustici. Verso la fine deglianni 60 il computer diventa uno strumento musicale molto versatile in grado di produrre qualsiasisonorit che potesse venire descritta in termini formali. Cambia completamente il modo di pensare edi realizzare la musica e si inizia un serio lavoro di ricerca su basi scientifiche coinvolgendo parecchiediscipline quali la fisica acustica, la psicoacustica, la matematica, la scienza dellinformazione, le-lettronica digitale, ecc. Se per i pionieri della musica elettronica le sedi di sperimentazione erano glistudi radiofonici, i ricercatori di computer music lavorano nei centri di calcolo e nei laboratori di ricer-ca universitari. Allapproccio artigianale delle prime esecuzioni con i mezzi analogici si contrapponeora la rigorosa metodologia imposta dallelaboratore, per cui i compositori ricominciano a scrivere lamusica attraverso una partitura, anche se completamente diversa da quella tradizionale.

    1.1.6 Il live electronics

    La musica generata mediante computer con le tecnologie degli anni 70 doveva essere necessariamen-te registrata su nastro magnetico per lascolto in pubbico, in quanto gli elaboratori utilizzati erano digrosse dimensioni e intrasportabili. Questo entrava in conflitto con le esigenze dello spettacolo mu-sicale e riportava la computer music nella stessa dimensione esecutiva della musica elettronica deglianni 50. Di conseguenza, se le potenzialit foniche dei mezzi digitali erano enormemente superiori aquelle della precedente generazione analogica, per molti compositori lascolto di lavori per nastro so-lo non era assolutamente soddisfacente mentre lesecuzione di musiche miste, per strumenti e nastro,restava vincolata dalla tirannia temporale del supporto magnetico. Il live-electronics, invece, consenteallesecutore tradizionale di interagire con il mezzo elettronico durante lesecuzione stessa per cui il

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    7/301

    1.4 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    suono acustico e la sua immediata trasformazione elettroacustica diventano la base della composizionemusicale. Lesecutore, o il cantante, si trova a suonare uno strumento completamente nuovo, compo-sto dalla parte tradizionale e dalla estensione elettronica la quale pu variare notevolmente, anche nel

    corso dellesecuzione, in dipendenza dal processo di elaborazione effettuato. Viene richiesta quindiuna nuova sensibilit musicale tipicamente basata sullascolto e sulla capacit di trasformare la prassiesecutiva in relazione al contesto elettronico. I sistemi tecnologici utilizzati nel live-electronics sonochiamati sistemi ibridi in quanto utilizzano apparecchiature elettroniche analogiche controllate me-diante processori numerici. Generalmente la parte analogica effettua le operazioni di trasformazione,miscelazione, amplificazione e diffusione dei segnali acustici mentre la parte digitale svolge le azionidi collegamento fra le varie apparecchiature e le variazioni automatiche di taluni parametri di control-lo dei dispositivi di trattamento del suono. Nelle esecuzioni dal vivo di fondamentale importanza laregia del suono che sovrintende lesecuzione e tutti i processi di elaborazione e spazializzazione deisuoni.

    1.1.7 Musica informatica in tempo reale

    Grazie al progresso della tecnologia digitale, verso la fine degli anni 70 molte funzioni che potevanoessere realizzate con i sistemi ibridi visti in precedenza possono ora essere effettuate per via numericautilizzando particolari computer appositamente progettati per la composizione e lesecuzione dellamusica in tempo reale. Si pu cos ottenere in tempo reale ci che con gli elaboratori in tempo differitorichiedeva un tempo dattesa pi o meno lungo, e, per di pi, si pu intervenire direttamente sul suononel momento stesso in cui viene generato ovvero sulla trasformazione di eventi acustici esterni. Inaltre parole si pu pensare la musica senza lintermediazione del nastro magnetico e/o le limitazionidel mezzo analogico, sfruttando, parallelamente, le possibilit del live-electronics, della generazionenumerica del suono e della intelligenza artificiale in un ambiente compositivo/esecutivo integrato.Ovviamente questo il campo di ricerca dei nostri giorni e molti compositori si stanno muovendo inquesta direzione. Forse troppo presto per dire se questa la strada del futuro, sicuramente quelladelloggi.

    1.1.8 BIBLIOGRAFIA

    Testi in italianoAA.VV., La Musica Mlettronica, a cura di Henri Pousseur, Milano, Feltrinelli, 1976.AA.VV., Musica e Elaboratore, a cura di Alvise Vidolin, Venezia, 1980, ed. La Biennale di

    Venezia; distribuzione Vallecchi, Firenze.

    Branchi Walter, Tecnologia della Musica Elettronica, Cosenza, Lerici, 1977.Gentilucci Armando, Introduzione alla Musica Elettronica, Feltrinelli, Milano, 1976.Haus Goffredo, Elementi di Informatica Musicale, Milano, Editoriale Jackson, 1984.Prieberg Fred, Musica ex Machina, Einaudi, Torino, 1963.Raccolte in italianoAtti del II Colloquio di Informatica Musicale, Milano, 1977. Richiedere a: Goffredo Haus, Istituto

    di Cibernetica, via Viotti 5, 20133 Milano.Atti del III Colloquio di Informatica Musicale, Padova, 1979. Richiedere a: Giovanni De Poli,

    C.S.C. Universit di Padova, via San Francesco 11, 35100 Padova.Atti del IV Colloquio di Informatica Musicale, Pisa, 1981. Richiedere a: Libreria del CNUCE via

    S. Maria 36, 56100 Pisa.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    8/301

    1.2. MUSICA INFORMATICA 1.5

    Atti del V Colloquio di Informatica Musicale, Ancona, 1983. Richiedere a: Luciana Martino,Universit di Ancona, Facolt di Ingegneria, via della Montagnola, 60100 Ancona.

    Atti del Convegno "Musical Grammars and Computer Analysis, a cura di M. Baroni e L. Callegari,

    Firenze, Olschki, 1984. Richiedere a: Edizioni Olschki, viuzza del Pozzetto, 50100, Firenze.Automazione e Strumentazione, rivista mensile dell ANIPLA, n.2, 1980; numero interamente

    dedicato allinformatica musicale. Segreteria: viale Premuda 2, 20129 Milano.Bibliografia nazionale di Informatica Musicale, a cura di Herold Roberto, Notiziario Musicale n.4

    del CIDIM, 1984. Richiedere a: CIDIM, Via Vittoria Colonna, 18, Roma.LIMB (Quaderni 1,2,3,4,5), bollettino del Laboratorio per lInformatica Musicale della Biennale

    di Venezia, anni 1981,82,83,84,85. Richiedere a: LIMB, c/o ASAC, C Corner della Regina, S. Croce2214, 30125 Venezia.

    Informatica: Musica/Industria, Quaderni di M/R 1, Milano, UNICOPLI, 1983. Richiedere a:Edizioni UNICOPLI, via Bonghi 4, 20141 Milano.

    Numero e Suono, catalogo della International Computer Music Conference, Venezia, ed. LaBiennale di Venezia, 1982. Distribuito da: ERI - Edizioni RAI, via del Babuino 51, 00187 Roma.

    Studi Musicali, pubblicazioni della Divisione Musicologica del CNUCE, via S. Maria 36, 56100Pisa.

    Testi in lingua stranieraAppleton Jhon, Perera Ronald, The Development and Practice of Electronic Music, Prentice Hall,

    Englewood Cliff, N.J., 1975.Bateman Wayne, Introduction to Computer Music, New York, John Woliey & Sons, 1980.Chamberlain Hal, Musical Applications of Microprocessors, Rochelle Park, New Jersey, Hayden

    Book Company Inc., 1981.Chion Michael, Reibel Guy, Les Musiques Electroacoustiques, Edisud, Paris, 1976.

    Eimert Herbert, Humpert Hans Ulrich, Das Lexicon der electronischen Musik, Gustav BosseVerlag, Resensburg, 1973.Howe Hubert jr., Electronic Music Synthesis: concepts, facilities, and techniques, Dent & sons,

    London, 1975.Mathews Max V., The Technology of Computer Music, Cambridge, Mass., MIT Press, 1969.Schaeffer Pierre, Trait des Objets Musicaux, Le Seuil, Paris, 1966.Schwartz Elliott, Electronic Music: a listeners guide, Praeger, New York, 1973.Riviste specializzateComputer Music Journal, MIT Press, Cambridge, Mass., USA.Interface: Journal of New Music Research, Swets Pub., Amsterdam.Cahiers de recherche/musique, INA-GRM, 116 Avenue du President Kennedy, 75016 Paris.

    Rapports IRCAM, IRCAM, 31 rue Saint Merri, 75004 Paris.La Musica Elettronica, EDICAR, via Ortica 27, 20134 Milano.Quaderni di Informatica Musicale, Studio Edgar Varese, via Caboto 31, 65100 Pescara.

    1.2 Musica Informatica

    1.2.1 Introduzione

    Con lo sviluppo delle tecnologie multimediali la musica diventata una delle fonti dinformazionetrattate dallinformatica, al pari dei numeri, dei testi, della grafica e della visione. Ci ha favorito losviluppo di importanti applicazioni in campo musicale e ha portato i sistemi informatici a diventare

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    9/301

    1.6 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    uno "strumento" musicale di riferimento, come lo fu il pianoforte nel XIX secolo. Il termine strumen-to non ha qui laccezione musicale corrente, in quanto il complesso delle funzioni svolte dai sistemiinformatici molto pi ampio di quello di uno strumento tradizionale. Lelaboratore non genera solo

    suoni, ma elabora tutta linformazione musicale, dal microlivello (il suono) al macrolivello (la forma).Ci ha comportato una sostanziale trasformazione dei metodi del far m. con il coinvolgimento di tuttii settori: della creazione alla produzione musicale, favorendo la nascita di nuove figure professionali.Un sistema informatico completo di opportuni programmi e periferiche svolge molte funzioni musi-cali. strumento musicale polifonico e politimbrico; simula i suoni degli strumenti acustici oppurediventa il mezzo per comporre nuove sonorit elettroniche; svolge le funzioni di uno studio di regi-strazione audio per editing, elaborazione, montaggio di suoni e di brani musicali, stampa di CD audio;viene utilizzato nelleditoria musicale, nella ricerca musicologica, nellarchiviazione e nellesecuzio-ne automatica di partiture. Il compositore, oltre a ci, dispone di una grande variet di strumenti diaiuto alla composizione che lo assistono nelle varie fasi del processo creativo e realizzativo dellopera.Inoltre, con levoluzione dei sistemi informatici multimediali, molte di queste funzioni possono essere

    messe in stretta relazione con il mondo della grafica, del video, dello spettacolo, della realt virtualee delle telecomunicazioni per ottenere prodotti artistici e culturali multimediali. Infine, alcuni derivatidei progetti di ricerca o dei programmi professionali trovano un ampio consenso nel vasto mondo deimusicisti dilettanti e dellintrattenimento informatico, alimentato dallindustria dei personal computere dal successo di Internet. La musica informatica nasce nella seconda met degli anni 50 seguendoallinizio due differenti linee di ricerca: una orientata al trattamento simbolico dellinformazione mu-sicale, studia la codifica dei testi musicali, la generazione automatica di partiture per la composizione,le tecniche informatiche di analisi musicologica; laltra (computer music), pi attenta allaspetto acu-stico e percettivo della m., affronta la codifica numerica dei suoni, la progettazione dei convertitoriper dotare lelaboratore di uninterfaccia audio con lesterno, e, quindi, le tecniche di analisi, sintesied elaborazione dei suoni. Fino alla fine degli anni 70 le principali ricerche si svolgono in centri di

    ricerca scientifica utilizzando elaboratori collettivi (mainframe) e programmi che imponevano lunghitempi di attesa fra la formalizzazione dellidea musicale e il suo ascolto. Nei concerti si presentavanomusiche registrate su nastro che talvolta accompagnavano solisti o piccoli ensemble di esecutori tradi-zionali o cantanti. La mancanza di un rapporto diretto e immediato con il suono ha in parte ostacolatola produzione musicale mentre al contrario ha favorito lo sviluppo di solide basi teoriche e di alcuniprogrammi per la sintesi dei suoni ancora oggi utilizzati in campo scientifico e musicale. Con lav-vento degli elaboratori a monoutenza (minicomputer) i tempi di attesa diminuiscono e grazie ad essisi sviluppano i primi prototipi di sintesi e trattamento dei suoni in tempo reale utilizzando perifericheparticolari. Grazie a questi nuovi sistemi in tempo reale la m. pu rientrare nella tradizione dellesecu-zione dal vivo anche se al mezzo informatico viene assegnato un ruolo pi ampio e soprattutto diversoda quello del singolo strumento. Si sviluppano i concerti di live electronics in cui i sistemi in temporeale generano eventi sonori complessi o trasformano dal vivo i suoni di voci o strumenti tradizionali.Negli anni 80 due innovazioni contribuiscono alla diffusione delli. nel mondo musicale, special-mente nelle sue applicazioni pi semplici: lavvento dellelaboratore personale (personal computer) ela definizione del codice di comunicazione MIDI. Questultimo segna lingresso dellindustria deglistrumenti musicali elettronici nel mondo della m.i.: nellarco di pochi anni i sintetizzatori analogicidella m. elettronica diventano obsoleti, nascono i campionatori, i sintetizzatori digitali e unampiagamma di dispositivi accessori di ausilio al musicista (sequencer, multiprocessori di effetti). Grazieal MIDI tali strumenti possono essere collegati fra loro creando una rete di apparecchiature digitaliin cui lelaboratore personale spesso il cuore del sistema. I risultati della ricerca scientifica deglianni 70 vengono rapidamente trasferiti dallindustria su strumenti a basso costo ed offerti a unampiautenza musicale. Nel corso degli anni 90 aumenta il predominio della tecnologia digitale nella m.,

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    10/301

    1.2. MUSICA INFORMATICA 1.7

    sia a livello professionale che amatoriale. Lelaboratore personale sempre pi potente, amichevole edeconomico viene dotato di periferiche e programmi specifici e diventa il nuovo "strumento musicale"in grado di assistere il musicista nello svolgimento delle pi svariate attivit: dalla ricerca astratta alla

    produzione commerciale. Il termine m.i. che fino alla fine degli anni 70 identificava un settore dellam. contemporanea con precisi ambiti linguistici ed estetici, a partire dagli anni 80 perde progressiva-mente questa identit per assumere un significato di pura connotazione tecnica, data la diffusione delmezzo informatico in tutti i generi musicali.

    1.2.2 Rappresentazione dellinformazione musicale

    Linformazione tratta la musica con due principali forme di rappresentazione: audio, che codifica ilsuono in sequenze discrete di numeri; simbolica, che codifica linformazione percettiva, esecutiva eastratta prendendo come riferimento il sistema tradizionale di notazione musicale. La codifica delsuono si realizza convertendo il segnale analogico in segnale digitale, ovvero campionando la forma

    donda del suono. Tale operazione si basa su due fattori caratteristici: la frequenza di campionamentoe il numero di bit con cui si rappresentano i campioni. Il primo fattore incide sulla frequenza massimarappresentabile dal segnale digitale, mentre il secondo fissa il rapporto segnale disturbo e quindi iltasso di rumore aggiunto nella fase di conversione. I valori di riferimento sono quelli del CD audio(44100 c/s, 16 bit), anche se si usano valori ridotti per la codifica della voce e per i segnali di allarme,o valori superiori per laudio professionale di qualit. Entrambi i fattori incidono sulla quantit di in-formazione necessaria a rappresentare il flusso sonoro della m. Per ridurre il volume dei dati musicalisi sono sviluppate efficaci forme di compressione che si basano sulle caratteristiche della percezioneuditiva umana. La codifica simbolica trova nel codice MIDI il sistema pi diffuso per rappresentare igesti elementari dellesecuzione musicale. Per la codifica del sistema tradizionale di notazione musi-cale esistono vari linguaggi simbolici o sistemi grafici di scrittura che si differenziano in base al tipo

    di applicazione: editoria musicale, analisi musicologica, aiuto alla composizione.

    1.2.3 Sintesi dei suoni

    La sintesi dei suoni consiste nel generare mediante un procedimento di calcolo un segnale acustico etrova due campi di applicazione musicale: la simulazione dei suoni prodotti dagli strumenti musicalitradizionali e la generazione di suoni soggetta alle scelte estetiche del musicista in quanto atto com-positivo. Anche se gli obiettivi sono diversi, in entrambi i campi si utilizzano le stesse tecniche disintesi poich queste si fondano su basi teoriche generali. I modelli di sintesi del suono si distinguonoin modelli di sorgente e in modelli di segnale. I primi simulano con il mezzo informatico il modellofisico della sorgente sonora mentre i secondi la forma donda che raggiunge lascoltatore. I modellidi segnale hanno avuto la maggiore diffusione per la loro semplicit ed efficienza computazionale.Vediamo i principali. Il modello di segnale pi semplice il campionamento, che a rigore non unmetodo di sintesi bens una tecnica di riproduzione. Tale tecnica sta alla base degli strumenti digita-li chiamati campionatori e nella simulazione di strumenti tradizionali di tipo percussivo offre buonirisultati. I suoni di uno strumento vengono campionati nei vari registri e con le principali tecnicheesecutive (dinamica e gesto) in modo da creare un repertorio di campioni il pi completo possibileper un dato strumento. Durante lesecuzione viene riprodotto il suono campionato pi vicino allanota suonata, effettuando eventuali trasformazioni, quali trasposizione di altezza, variazioni di dura-ta (looping), inviluppo di ampiezza, filtraggio statico o dinamico, interpolazione fra pi campioni.Alla semplicit computazionale della sintesi per campionamento corrisponde una elevata richiesta dimemoria che aumenta in funzione della qualit richiesta. La sintesi additiva si basa sul teorema di

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    11/301

    1.8 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    Fourier per generare suoni complessi mediante somma di suoni sinusoidali la cui ampiezza e frequen-za sono variabili nel tempo. un modello molto generale che fornisce i migliori risultati nella sintesidi suoni pseudoarmonici con basso tasso di rumore. Alla generalit si contrappone un elevato numero

    di parametri di controllo e una complessit computazionale che aumenta con la densit spettrale delsuono. La sintesi additiva, per gli evidenti legami con larmonia musicale, ha trovato molti esempi diapplicazione nella composizione astratta di suoni. La sintesi granulare, al pari di quella additiva, uti-lizza pi suoni elementari per costruirne uno complesso. Questo dato da una successione di suoni dibreve durata (qualche centesimo di secondo) chiamati grani. Tale tecnica ricorda il processo cinema-tografico in cui il movimento dato da una rapida successione di immagini statiche. I grani possonoessere porzioni di suoni acustici campionati oppure suoni astratti generati per via algoritmica. Inoltresi distingue la sintesi granulare sincrona con il periodo del suono, da quella asincrona utilizzata pergenerare tessiture sonore. La sintesi sottrattiva prevalentemente una tecnica di trasformazione di unsuono dato, il quale ha generalmente uno spettro molto ricco e pu essere campionato o generato tra-mite semplice algoritmo. Nella formulazione pi generale si utilizza un banco di filtri per evidenziare

    o sopprimere precise zone nello spazio della frequenza del suono dato. I filtri possono essere staticio dinamici. Nel primo caso si mantengono le caratteristiche temporali del suono dato, mentre nelsecondo si ottiene una combinazione delle due. La sintesi per modulazione di frequenza (FM) rientranelle tecniche non lineari di trasformazione. Nella formulazione pi semplice un oscillatore sinusoi-dale detto portante con frequenza p viene modulato in frequenza da un oscillatore sinusoidale, dettomodulante, di ampiezza d e frequenza m. Lo spettro risultante composto da frequenze p+km, con kintero che varia da -I a +I, essendo I=d/m lindice di modulazione. Questultimo determina il numerodi componenti parziali che costituiscono lo spettro risultante; mentre il rapporto p/m determina il tipodi spettro: per rapporti interi e semplici si ottengono spettri armonici. Quindi con due soli oscillatori possibile generare suoni complessi che possono variare nel tempo il numero di componenti spettralisemplicemente variando il valore di I. Grazie alla semplicit di calcolo e alla efficienza sonora, la

    sintesi FM ha avuto moltissime applicazioni musicali ed stata scelta nei primi sintetizzatori digita-li commerciali. La sintesi per distorsione (waveshaping) anchessa una tecnica di trasformazionenon lineare in cui un suono semplice (spesso una sinusoide) viene arricchito di armonici tramite unafunzione distorcente generalmente definita come somma di polinomi di Chebishev. Anche in questocaso, controllando lindice di distorsione possibile ottenere spettri variabili nel tempo. Per ottenerespettri inarmonici spesso si moltiplica il suono distorto per una sinusoide (modulazione ad anello -ring modulation) ottenendo una traslazione dello spettro attorno alla frequenza portante di modulazio-ne. Vediamo ora i modelli di sorgente che rientrano nella sintesi comunemente chiamata per modellifisici. La maggior parte di essi si basa sullinterazione fra eccitatore (la causa della vibrazione, concomportamento non lineare) e risonatore (il corpo dello strumento, con comportamento lineare). Lin-terazione pu essere feedforward quando leccitatore non riceve informazioni dal risonatore oppurefeedback quando i due interagiscono. Tali modelli si classificano in relazione al modo in cui la realtfisica viene rappresentata, simulata, o discretizzata. Esistono inoltre dei modelli di sorgente chiamatipseudo-fisici i quali traggono solo ispirazione da fenomeni fisici del mondo reale per simulare pro-cessi generativi arbitrari. Vediamo i principali modelli di sorgente. I modelli meccanici dividono ilsistema fisico in piccoli pezzi (normalmente elementi massa-molla) per ottenere le equazioni diffe-renziali che ne descrivono struttura e interazione. Tali equazioni si risolvono con tecniche numericheche impongono successive approssimazioni e sono fonte di alti costi computazionali. Una particolareinterpretazione della scomposizione del sistema fisico in singoli elementi viene data nella sintesi mo-dale in cui i modi di vibrazione vengono realizzati mediante la somma di oscillatori smorzati. Taletecnica si basa sulla scomposizione modale studiata dalla teoria dei sistemi. I modelli a guide donda(waveguide) sono modelli computazionali che simulano, mediante linee di ritardo, il comportamento

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    12/301

    1.2. MUSICA INFORMATICA 1.9

    di unonda che si propaga allinterno di un mezzo (ad esempio un tubo o una corda). Le discontinuitdel mezzo vengono simulate con giunzioni di dispersione mentre altre strutture fisiche possono esseresimulate mediante filtri. Data la loro efficienza computazionale questi modelli hanno trovato validi

    esempi di applicazioni musicali. I modelli della sorgente si sono rivelati particolarmente efficaci nellaresa dei gesti musicali tipici delle frasi ricche di spunti agogici. Si differenziano da quelli del segnaleperch si avvalgono di parametri di controllo che corrispondono alle azioni che il musicista compiesullo strumento fisico anzich a parametri astratti quali frequenza di un oscillatore o larghezza di ban-da di un filtro. Ci inevitabilmente porta a due conseguenze: il modello deve disporre di controlligestuali potenti e il musicista deve imparare a suonare la sorgente virtuale con le tecniche tradizionalidi apprendimento musicale.

    1.2.4 Elaborazione dei suoni

    La elaborazione numerica dei suoni (Digital Signal Processing) si ottiene mediante un procedimento

    di calcolo che trasforma il segnale. Vediamo le principali tecniche utilizzate in relazione agli effettiche si ottengono nei parametri musicali di tempo, altezza, dinamica, timbro e spazio. La traslazionedi un suono nel tempo si ottiene mediante una linea di ritardo che produce uneco semplice. Lecopu essere iterato se il ritardo chiuso in un anello di retroazione. Inserendo in tale anello altri ele-menti di trasformazione si possono ottenere ripetizioni ogni volta diverse. Se i tempi di ritardo sonodellordine di qualche decina di secondo tale schema di ripetizione simula la struttura musicale a ca-none con variazione. La durata del suono pu essere variata in diversi modi e con tecniche analoghealla variazione di altezza. Rallentando e accelerando un suono, tramite una variazione della frequen-za di campionamento, si ottiene rispettivamente unaltezza pi grave e una pi acuta. Le tecnichedi analisi/sintesi quali Phase vocoder (PV), Wavelet e Linear prediction coding (LPC) consentono dimodificare la durata in maniera indipendente dallaltezza e viceversa. Il processo di elaborazione

    diviso in due fasi: la prima di analisi, dalla quale si estraggono i dati per la fase successiva, la secondadi sintesi. Il PV analizza il suono mediante una successione (con sovrapposizione) di trasformate diFourier a tempo breve (STFT). Gli spettri risultanti sono utilizzati come dati per sintetizzare il suonoin sintesi additiva. Elaborando tali dati si possono ottenere compressioni o stiramenti temporali finoal congelamento di un suono, come pure trasposizioni daltezza. Combinando opportunamente i datidi analisi di due suoni diversi possibile creare la cosiddetta sintesi incrociata, ovvero sintetizzare unsuono ibrido dei due suoni originali. La tecnica di trasformazione Wavelet concettualmente simileal PV, ma cambia il metodo di analisi. Diversa la tecnica LPC, nata per la codifica del parlato nellecomunicazioni a banda limitata. La sintesi LPC non genera perci una fedele riproduzione dellori-ginale, ma offre diverse possibilit nella elaborazione dei suoni. In essa il suono viene consideratocome il prodotto di una funzione di eccitazione (corda vocale) il cui segnale viene sottoposto alletrasformazioni di una cavit risonante (tratto vocale) normalmente realizzata con un filtro a soli polivariabile nel tempo che simula i formanti della voce. Il processo di analisi determina landamentonel tempo dei parametri del filtro ed estrae alcune caratteristiche generali per leccitazione: individuase il suono rumoroso (consonanti) oppure ad altezza determinata (vocali), nel qual caso forniscela frequenza della fondamentale. Nella fase di sintesi facile alterare laltezza del segnale di ecci-tazione come pure accelerare o rallentare la scansione temporale dei parametri del filtro. Anche conLPC possibile creare suoni ibridi scegliendo in modo arbitrario il suono di eccitazione che vieneplasmato dal filtro variabile seguendo i parametri estratti dallanalisi di un altro suono. Le variazionidi altezza e di durata se effettuate su ampi valori di scala provocano rilevanti trasformazioni anchesul piano timbrico. La dinamica del suono si modifica non solo variando lampiezza del segnale maanche trasformandone alcuni tratti timbrici (spettro, tramite filtraggio; transitorio di attacco, mediante

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    13/301

    1.10 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    inviluppo di ampiezza) in modo da rendere il suono pi morbido per dinamiche piano e viceversa piaggressivo per dinamiche forti. Le tecniche pi comuni per lelaborazione del timbro, oltre a quanto si gi detto, sono: il filtraggio (filtri passa-basso, passa-alto, passa-banda, taglia-banda; banchi di filtri

    equalizzatori; filtri a pettine ricorsivi che provocano vari effetti variando il tempo di ritardo: effettocoro, flanger, phasing); la modulazione (ad anello, che sposta lenergia del suono attorno alla frequen-za della portante sinusoidale soppressa; a banda singola, che trasla il segnale in frequenza rendendoinarmonico un suono armonico); la granulazione (che estrae piccoli grani di suono moltiplicando ilsegnale per brevi inviluppi dampiezza) e la convoluzione che effettua il prodotto spettrale di due suo-ni. Questultima si dimostrata efficace nella simulazione di spazi sonori: se si ascolta il prodotto diconvoluzione fra un suono registrato in una sala anecoica e la risposta allimpulso di una sala, si ha lasensazione che il suono sia stato registrato in quella sala. Questo un metodo efficace per realizzareriverberatori che simulino precisi spazi reali. Altre tecniche di riverberazione meno onerose sul pianocomputazionale prevedono lutilizzazione di gruppi di filtri a pettine, passa-tutto e la simulazione me-diante linee di ritardo delle riflessioni prodotte dalle pareti di una sala. Particolarmente efficaci sono le

    tecniche di simulazione delle sorgenti sonore in movimento mediante le quali si possono collocare efar muovere i suoni nello spazio seguendo percorsi e variazioni di velocit. Nella spazializzazione deisuoni si distinguono le tecniche di simulazione per lascolto binaurale (in cuffia o con due altoparlanti)dai sistemi multicanale che avvolgono lascoltatore con una rete di altoparlanti. Anche nel caso dellospazio, si distinguono i modelli che simulano la collocazione dei suoni in spazi reali e che rientranonelle tecniche definite di auralizzazione, dai sistemi che utilizzano la tecnologia i. per inventare spazisintetici frutto di scelte artistiche.

    1.2.5 Sistemi MIDI

    Il MIDI (Musical Instrument Digital Interface) un protocollo di comunicazione seriale a 8 bit e ve-

    locit di trasmissione di 31250 bit/s, ideato per codificare i gesti esecutivi che il musicista compiequando suona una tastiera elettronica sensibile al tocco e trasmetterli in tempo reale ad altri disposi-tivi. Sulla stessa linea di comunicazione possono transitare sedici canali di dati; da un punto di vistamusicale significa poter suonare contemporaneamente sedici strumenti polifonici. I principali coman-di sono: di nota, in cui viene indicato il tasto e la relativa velocit di pressione; i controlli continui,per la variazione continua di parametri; il cambio di programma, generalmente usato per la selezionedel timbro; i controlli in tempo reale, per la sincronizzazione di pi dispositivi; i controlli esclusivi disistema, la cui sintassi e funzione definita dal costruttore dello strumento. Un elementare sistemaMIDI costituito da una tastiera elettronica muta (master keyboard) collegata ad uno o pi sintetiz-zatori di suoni (expander) e ad un elaboratore personale nel quale generalmente opera un programmachiamato sequencer. I gesti esecutivi del musicista pilotano la generazione sonora dellexpander epossono essere registrati nellelaboratore e, in momenti diversi, essere corretti, modificati e integratida successive esecuzioni sincronizzate fra loro. Il sequencer svolge una funzione analoga al regi-stratore audio multitraccia con la differenza che questultimo registra i suoni mentre il primo registrasequenze di comandi chiamate MIDIfiles. Esistono in Internet ampie banche dati di sequenze MIDIche contengono i principali titoli del repertorio classico e leggero. La maggior parte dei sequencerconsente di registrare la m. anche in tempo differito con diverse interfaccie utente: una delle qualiutilizza il tradizionale sistema di notazione su pentagramma. Questo consente di passare in modoautomatico dalla partitura visualizzata sullo schermo alla sua esecuzione sonora. possibile anche ilcontrario, ovvero visualizzare (e stampare) la m. che viene suonata dal vivo e trascritta in tempo reale.Va rilevato che non esiste una corrispondenza biunivoca fra il linguaggio di notazione musicale e ilcodice MIDI. Pertanto tali trascrizioni non sono una fedele riproduzione delloriginale soprattutto per

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    14/301

    1.2. MUSICA INFORMATICA 1.11

    quanto riguarda laspetto temporale. La necessit di quantizzare la scansione del tempo porta a gros-solane semplificazioni oppure a eccessive suddivisioni se linterprete modula il tempo a fini espressivi.Infatti, ad esempio, se lesecuzione non fornisce un riferimento temporale esplicito, cambi di tempo

    quali accelerandi o rallentandi vengono inevitabilmente riportati in partitura non come variazioni dimetronomo, ma come alterazione delle figure ritmiche originali, rendendo complessa la notazione diparti musicali anche molto semplici. Nonostante il MIDI sia molto lento, abbia una codifica dei datispesso insufficiente, e in molti casi si sia rivelato inadeguato alla trasmissione del massiccio flusso deidati di una esecuzione musicale, il protocollo di comunicazione universalmente adottato dallindu-stria degli strumenti musicali informatici. Grazie alla sua semplicit e alla vasta diffusione, il MIDIviene utilizzato per il controllo di processi anche molto diversi da quelli per cui era stato ideato tantoche viene adottato anche per applicazioni non prettamente musicali del mondo dello spettacolo.

    1.2.6 Sistemi per lesecuzione

    Come noto, lesecutore tradizionale suona strumenti codificati e stabili da secoli, impara per imita-zione dal maestro e sviluppa una abilit gestuale che sfrutta lo strumento come fosse una estensionedel proprio corpo. Nel mondo della musica informatica, invece, i dispositivi si evolvono seguendoil passo della tecnologia che in costante accelerazione. Inoltre pochi apparecchi sono autonomi,come invece lo sono gli strumenti musicali acustici. Ognuno di essi fa parte di un insieme di appa-recchiature digitali che opportunamente collegate fra loro e programmate, costituiscono lentit chepu essere assimilata al vecchio concetto di strumento e che nel mondo tecnologico viene chiamatasistema. Generalmente il sistema prende come ingresso i segnali audio da elaborare, dotato di di-spositivi di controllo che consentono di variare i parametri di trattamento o di generazione del suono,di visualizzare vari aspetti del segnale audio e dei parametri di controllo e infine fornisce in uscita isegnali elaborati. Con laumento della potenza di calcolo dei processori e la miniaturizzazione del-

    lhardware, molti elementi del sistema sono stati integrati come componenti software o come schedeaggiuntive di un solo elaboratore ottenendo cos soluzioni alquanto compatte. Per lesecuzione di unbrano il musicista informatico progetta lambiente esecutivo che gli consente di trasformare un siste-ma tecnologico in strumento musicale, rendendo i controlli del sistema funzionali allesecuzione, conunit di misura sonologico-percettive o musicali e un campo di variabilit predefinito che segue unalegge determinata. Molto spesso i controlli sono multifunzionali per ottenere da un singolo gesto unavariazione contemporanea e coerente di pi parametri del sistema. Questo consente una riduzionedei controlli dellesecutore, favorisce un accesso immediato alle principali funzioni esecutive e unrapido apprendimento dellambiente esecutivo. Per taluni parametri, inoltre, pi efficace luso didispositivi di controllo gestuale con reazione, che estraggono pi informazioni da un singolo gesto eche addirittura impongono una fatica fisica allinterprete quando cerca di raggiungere le zone estremedi esecuzione. Infine, la tecnologia degli ambienti multimodali interattivi (AMI) consente di rilevaree analizzare il movimento, la voce, i suoni prodotti da uno o pi esecutori per controllare in temporeale vari dispositivi, quali strumenti per la sintesi dei suoni, algoritmi di composizione automatica,effetti visuali, ecc. Gli AMI sono dei "trasduttori cognitivi" che osservano, reagiscono ed espandonola realt e pertanto sono efficaci nella costruzione di strumenti musicali virtuali (iper-strumenti).

    1.2.7 Ricerche di musicologia

    Linformatica ha dato un notevole impulso ad alcuni filoni di ricerca in campo musicologico per lapossibilit di verificare mediante la realizzazione di un modello informatico teorie musicali impossi-bili da validare con i metodi tradizionali. Il principale metodo analitico chiamato di analisi mediante

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    15/301

    1.12 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    sintesi e viene applicato per lo studio delle regole compositive nei diversi periodi storici. Lo stessometodo si utilizza anche nello studio dellinterpretazione musicale per validare modelli che descri-vono teoricamente prassi esecutive dei diversi stili. Linformatica, inoltre, contribuisce in maniera

    determinante al restauro di materiali audio deteriorati dal tempo e dalla cattiva conservazione. Leprincipali funzioni svolte dai programmi di restauro audio sono la riduzione del rumore di fondo eleliminazione dei disturbi di tipo impulsivo.

    1.2.8 Programmi di aiuto alla composizione

    I programmi di aiuto alla composizione (CAC, Computer Aided Composition) trasformano lelabora-tore in una sorta di assistente musicale che aiuta il compositore nelle varie fasi di creazione dellopera.Essendo il processo creativo estremamente libero, tali programmi sono difficilmente di uso genera-le e pertanto soddisfano solo alcune fra le varie tendenze estetiche o prassi compositive: in alcuni

    casi, infatti, si rivelato pi efficace ricorrere ad un linguaggio di programmazione di uso generale.Pertanto ci troviamo davanti a un panorama molto vasto e articolato che deve soddisfare le esigenzedel compositore tradizionale che scrive per strumenti acustici come pure del musicista informaticoche compone m. elettroacustica, ma anche di compositori professionisti che operano con linguaggie generi musicali molto lontani fra loro, senza contare il pi vasto panorama dei musicisti dilettantiche utilizzano lelaboratore come strumento di intrattenimento musicale personale. Va rilevato che lam. nel corso della sua storia si spesso prestata alla sperimentazione di teorie astratte nate in campidisciplinari diversi. Linformatica ha particolarmente rafforzato il legame fra m. e scienza per cuisono nati programmi CAC che consentono di tradurre in fatti musicali processi generativi determini-stici o stocastici. In particolare troviamo applicazioni derivate da sistemi personali di regole, teoriedel caos, grammatiche formali, intelligenza artificiale, automi cellulari, sistemi esperti, reti neurali,

    ecc. I processi generativi messi in atto possono essere applicati a singoli aspetti della composizionecome a parti pi ampie per giungere nei casi estremi alla composizione automatica dellintera opera.La maggior parte dei programmi CAC operano a livello simbolico e consentono lascolto dei risultativia MIDI utilizzando campionatori e sintetizzatori. I programmi orientati alla composizione tradi-zionale trasformano innanzitutto lelaboratore in un editor di testi musicali mediante il quale vienescritta, corretta, eseguita e stampata la partitura. Oltre alle solite funzioni di editing si possono ap-plicare operatori o processi di trasformazione al testo musicale come pure generare algoritmicamenteparti o elementi della partitura. Anche se la m. verr suonata in concerto da musicisti tradizionali utile per il compositore poter sperimentare e verificare diverse soluzioni compositive disponendo deirisultati parziali sia in forma di notazione grafica che acustica. Il compositore di m. elettroacustica,invece, ha esigenze diverse in quanto egli lavora direttamente sul suono e utilizza strumenti che gliconsentono di registrare, editare, generare, trasformare e montare i suoni. Il montaggio avviene conlaiuto di una partitura grafica che fa corrispondere alla disposizione dei simboli grafici in uno spaziobidimensionale la collocazione dei corrispondenti segmenti sonori nel tempo. Per quanto riguarda lasintesi e la elaborazione dei suoni esistono programmi di aiuto alla composizione che integrano lamaggior parte delle tecniche esposte in precedenza. Alcuni programmi consentono di trattare con-temporaneamente linformazione simbolica e quella acustica offrendo un ambiente integrato di aiutoalla composizione musicale. Infine esistono dei programmi di composizione algoritmica che sonoorientati alla composizione in tempo reale. Il musicista anzich suonare delle note controlla dal vivo iparametri che gestiscono uno o pi processi di generazione automatica di eventi musicali. Tali proces-si possono trattare sia linformazione musicale simbolica che quella acustica e quindi essere utilizzatiautonomamente oppure per trasformare dal vivo i suoni prodotti da altri musicisti.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    16/301

    1.3. LA NOTAZIONE MUSICALE 1.13

    1.2.9 BIBLIOGRAFIA

    M. Mathews, The Technology of Computer Music, MIT Press, Cambridge, 1969

    A.V.Oppenheim, R. Schafer, Digital Signal Processing, Prentice-Hall, Englewood Cliffs, 1975M. Baroni, L. Callegari, Musical Grammars and Computer Analysis, L. Olschki, Firenze, 1984C. Dodge, T. A. Jerse, Computer Music. Synthesis, Composition, and Performance, Schirmer

    Books, New York, 1985J. R. Pierce, La scienza del suono, Zanichelli, Bologna, 1987C. Ames, Automated composition in retrospect: 1956-1986, in Leonardo 20(2):169-186, 1987J. B. Barrire, Le timbre, mtaphore pour la composition, Bourgois-Ircam, Parigi, 1991I. Xenakis, Formalized Music, Pendragon Press, Stuyvesant, 1992C. Roads, The Computer Music Tutorial, Cambridge, 1996J. Chadabe, Electric Sound. The Past and Promise of Electronic Music, New Jersey, 1997C. Roads, S. T. Pope, A. Piccialli, G. De Poli, Musical Signal Processing, Swets & Zeitlinger

    B.V., Lisse, 1997.

    1.3 La notazione musicale

    1.3.1 La notazione classica

    Vedi allegato.

    1.3.2 La notazione nella musica elettronica

    La maggior parte delle composizioni di musica elettronica priva di partitura in quanto il compo-

    sitore produce personalmente la musica nella forma acustica definitiva, memorizzata su un supportodi registrazione, che per tradizione il nastro magnetico. Il nastro quindi contiene lidea composi-tiva, linterpretazione e lesecuzione musicale dellopera. Questa regola trova molte eccezioni, e diconseguenza esistono diversi esempi di n., con tecniche di scrittura e funzioni differenti. Si possonoindividuare quattro tipologie di partitura.

    Partitura esecutiva - utilizzata per lesecuzione dal vivo di parti elettroniche e strumentali. Il ri-ferimento temporale pu essere assoluto se lelettronica (generalmente registrata) guida lesecuzione,oppure metrico se le parti registrate sono brevi e/o lelettronica realizzata in tempo reale (live elec-tronics). La n. delle parti elettroniche, anche se si integra con la n. tradizionale delle parti strumentali, funzionale alle azioni che lesecutore deve compiere e non tanto al risultato che si deve ottenere. Adesempio si veda Omaggio a Gyrgy Kurtag (1983/86) di L. Nono.

    Partitura operativa - finalizzata alla realizzazione sonora dellopera (o di sue parti) memorizzatasu nastro. Il compositore definisce tecniche e processi esecutivi. Per la natura stessa della musicaelettronica, tali partiture ricorrono a forme di rappresentazione nate in ambienti scientifici che intro-ducono in maniera implicita il concetto di modello. La partitura composta dalla definizione di unmodello e dei dati, ovvero dalla definizione dei processi di sintesi e/o di elaborazione dei suoni e daivalori che i parametri di controllo del modello assumono nel tempo. Il modello pu essere definito invari modi: testo, diagramma di flusso a blocchi funzionali, formula matematica, linguaggio formale.I dati sono spesso definiti mediante funzioni nel tempo continue o discrete, rappresentabili con ungrafico, una sequenza ordinata di valori, la traccia dellazione gestuale su un dispositivo di control-lo, un procedimento algoritmico. Nella maggior parte dei casi i dati si riferiscono a parametri fisici(tensione elettrica, frequenza di filtraggio, ecc.) e pertanto la partitura appare pi vicina alle antiche

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    17/301

    1.14 CAPITOLO 1. MUSICA INFORMATICA E TEORIA MUSICALE

    intavolature per strumenti, che fissavano azioni esecutive, piuttosto che alle partiture tradizionali incui sono codificati i risultati percettivi dellesecuzione (altezza, dinamica, ecc). Ad esempio si vedaStudie II (1953) di K. Stockhausen in cui il modello definito nel testo introduttivo mentre i dati sono

    stabiliti in una partitura grafica.Partitura descrittiva - La realizzazione sonora dellopera viene indicata dal compositore notando

    il risultato percettivo desiderato. Poich la musica elettronica, rispetto a quella tradizionale, utilizzaun vocabolario sonoro molto pi ampio (che comprende fra laltro suoni inarmonici e rumori chesi evolvono in uno spazio temporale continuo e offre al compositore la possibilit di creare i propri"strumenti" virtuali e quindi le proprie sonorit) non esiste un linguaggio di n. che, analogamentea quello tradizionale, metta in corrispondenza univoca il suono percepito con il segno o il simbolo.Tali partiture pertanto sono poco precise e lasciano molto spazio al libero arbitrio del realizzatore.In molti casi la partitura, se accompagna la realizzazione musicale del compositore, pu considerarsialla stregua di una partitura dascolto o di appunti sonori utili per mettere in luce lidea musicale e glielementi strutturali dellopera. Ad esempio si veda Traiettoria (1982-84) di M. Stroppa.

    Partitura dascolto - Non finalizzata allesecuzione dellopera bens serve da supporto visivo eanalitico allascoltatore. Normalmente realizzata a posteriori da un musicologo basandosi sulla-scolto del nastro. Un primo significativo esempio la partitura di Artikulation (1958) di G. Ligetirealizzata da R. Wehinger. Queste quattro tipologie spesso si integrano e convivono in ununica par-titura. significativo il caso di Kontakte(1959/60) di K. Stockhausen che esiste in due versioni: unaelettronica con la relativa partitura operativa e laltra per pianoforte, percussioni e suoni elettronicicon la partitura esecutiva. Questultima pu essere utilizzata come partitura dascolto della versioneelettronica e in taluni punti anche partitura descrittiva. Nella musica informatica spesso la partitura lunico mezzo per ottenere dallelaboratore il risultato sonoro. questo il caso dei programmi MUSICN la cui partitura un buon esempio di partitura operativa, oppure dei programmi pi recenti di aiutoalla composizione basati su sistemi grafici.

    1.3.3 BIBLIOGRAFIA

    Le partiture delle opere elettroniche di K. Stockhausen: Universal, Vienna,1953-69 e StockhausenVerlag dal 1970

    F. Evangelisti, Incontri di fasce sonore, Universal, 1957 G.M. Koenig, Essay, Universal, 1957J. Cage, Imaginary Landscape N.5, Henmar, New York, 1961R. Kayn, Cybernetics II, Suvini Zerboni, Milano, 1968R. Wehinger, Ligeti, Artikulation, Schott, Mainz, 1970M. Stroppa, Traiettoria deviata, Ricordi, Milano, 1982P. Boulez, Dialogue de lombre double, Universal, 1985;

    S. Sciarrino, Perseo e Andromeda, Ricordi, 1990L. Nono, Omaggio a Gyrgy Kurtag, Ricordi,1983-96.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    18/301

    Capitolo 2

    Elementi di Acustica e Psicoacustica

    Carlo Drioli Nicola Orio

    Copyright c1999 by Carlo Drioli and Nicola Orio. All rights reserved.versione 2004

    2.1 Acustica: introduzione

    La percezione sonora e normalmente legata alle vibrazioni del timpano nellorecchio. Queste vi-brazioni sono provocate da piccole variazioni di pressione nellaria. La variazione di pressione del-laria e quindi lequivalente fisico del suono. Questo fenomeno puo essere visualizzato appoggiandoun foglio di carta sopra il cono di un altoparlante: quando viene emesso un suono, il foglio inizia avibrare. Infatti il movimento verso lesterno della membrana dellaltoparlante determina un aumentodi pressione e quindi spinge in fuori il foglio di carta. Inversamente il movimento verso linternodella membrana determina una diminuzione di pressione ed attrae il foglio verso laltoparlante. Lamembrana del timpano ha un comportamento analogo a quello del foglio di carta: un incremento di

    pressione spinge la membrana del timpano verso linterno, mentre una diminuzione di pressione laattrae verso lesterno. I movimenti del timpano sono quindi trasmessi alla coclea che li trasforma inimpulsi elettrici che vengono inviati al cervello attraverso le terminazioni nervose.

    2.2 Oscillazioni e onde

    Dato che il suono corrisponde a variazioni di pressione nellaria, e naturale che le proprieta di questevariazioni determinino le proprieta del suono percepito. Molti suoni musicali presentano variazioniregolari di pressione. In particolare la regolarita implica che un determinato andamento della pressionesi ripeta nel tempo. Viene definitaforma dondala ripetizione di tale andamento. In questo caso ilsuono e dettoperiodicoe la durata della singola forma donda e dettaperiodo, indicato con il simboloTe misurato in secondi. Se la funzionep(t)indica landamento della pressione nel tempo in un puntodello spazio, per un suono periodico si ha la relazione:

    p(t) =p(t+ T)

    Nel caso opposto, in cui landamento della pressione e privo di qualsiasi regolarita, il segnale associatoviene percepito comerumore. Il rumore puo essere diviso di due classi principali:

    2.1

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    19/301

    2.2 CAPITOLO 2. ELEMENTI DI ACUSTICA E PSICOACUSTICA

    rumore impulsivo: e determinato da rapide variazioni di pressione circoscritte nellarco di pochimillisecondi. Un tipico esempio di rumore impulsivo si ha quando un corpo rigido viene per-cosso. Va notato che il rumore impulsivo viene regolarmente generato durante la produzione disuoni musicali, si pensi ad esempio al suono di chitarra nel quale e chiaramente percepibile ilrumore prodotto dal plettro sulla corda; oppure al suono di pianoforte dove e fondamentale peril riconoscimento del timbro il rumore prodotto dal martelletto sulla corda.

    rumore stazionario: ha generalmente una elevata estensione temporale ma e comunque pri-vo di regolarita. Tipici esempi di rumore stazionario sono il rumore prodotto dal vento oquello proveniente da uno schermo televisivo in assenza di segnale (effetto neve). Per questogenere di segnali audio si ricorre generalmente ad una descrizione statistica dellandamentodella pressione.

    I suoni periodici1 sono alla base della musica occidentale e di molti altri repertori, per cui a questiverra posta particolare attenzione.

    2.2.1 Suoni periodici

    E noto, dal teorema di scomposizione in serie di Fourier, che ogni funzione periodica puo essere

    suddivisa nella somma di funzioni elementari. Per segnali reali, come nel caso dellandamento dellapressione in un mezzo trasmissivo, vale la relazione:

    p(t) =a0+

    n=1

    an sin(2ntT

    + n)

    Dalla formula risulta quindi che un suono periodico, di periodoT, e scomponibile nella somma, pesatadai terminian, di sinusoidi di periodoT,T/2,T/3,T/4, . . .Nella formula e inoltre presente il terminenche tiene conto della fase iniziale di ognuna delle sinusoidi, che in generale puo essere diversa perogni funzione elementare. Considerando che il suono solitamente si propaga in aria, ove e gia presenteun termine costante dato dalla pressione atmosferica e tenendo conto che lorecchio e sensibile allevariazioni di pressione, il termine a

    0 viene usualmente trascurato. In Figura2.1vengono riportati

    gli andamenti delle forme donda rispettivamente associate a una sinusoide, ad un segnale periodicocostituito da una somma di 16 sinusoidi in rapporto armonico tra loro e ad un segnale rumorosostazionario.

    In campo musicale si e soliti descrivere un suono periodico in termini difrequenza, usualmenteindicata con il simbolo fe misurata in Hertz (Hz). Il legame tra periodoTe frequenza fe descrittodalla formula

    f=1T

    La scomposizione di un suono periodico di frequenza fin forme donda elementari, indica che questeavranno rispettivamente frequenze f,2f,3f,4f, . . .La sinusoide di frequenza f, pari alla frequenzadel suono periodico di partenza, e dettafondamentalementre le sinusoidi di frequenza multipla intera

    difvengono detteparziali. Si fa riferimento alle forme donda elementari che costituiscono un suonocon il terminearmoniche.

    La frequenza e associata alla sensazione di altezza (pitch) di un suono: maggiore e la frequenza,maggiore risulta laltezza del suono, in altre parole il suono risulta piu acuto. Gli esseri umani sono

    1Spesso viene compiuta dagli autori la distinzione tra suono e rumore in base alla presenza o meno di periodicita. Inquesto contesto si e preferito usare la terminologia alternativasuono periodicoesuono aperiodico.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    20/301

    2.2. OSCILLAZIONI E ONDE 2.3

    0 20 40 60 80 100 120 140 160 180 200

    tempo (ms)

    [a]

    0 20 40 60 80 100 120 140 160 180 200

    tempo (ms)

    [b]

    0 20 40 60 80 100 120 140 160 180 200

    tempo (ms)

    [c]

    Figura 2.1: Andamento nel tempo di tre segnali rispettivamente con andamento: [a] sinusoidale, [b]periodico (somma di 15 sinusoidi), [c] aperiodico

    in grado di percepire suoni nellintervallo di frequenze da circa 20 Hz a circa 16 kHz, anche se alcunisoggetti sono in grado di percepire suoni in intervalli piu ampi, ma comunque contenuti tra i 16 Hze i 20 kHz. Lestensione di un pianoforte, cos come lestensione di unorchestra sinfonica, va da27.5 Hz a 3729.3 Hz. Al di sotto di 15 Hz, le variazioni di pressione non vengono piu percepitecome un singolo suono ma come una rapida successione di impulsi. Frequenze al di sopra dellasoglia di udibilita (ultrasuoni) non vengono percepite, quindi il filtraggio del segnale audio al disopra dei 20 kHz non ne altera la qualita percepita. E per questa ragione che, ricordando il teoremadel campionamento di Shannon, la frequenza di campionamento dei Compact Disc (44.1 kHz) e

    sufficiente per una perfetta ricostruzione del segnale analogico originario dal punto di vista percettivo.

    2.2.2 I suoni reali

    Come si e visto, la sinusoide e la piu semplice forma donda perche non e ulteriormente scomponibile.I suoni prodotti dagli strumenti musicali acustici non hanno pero mai un andamento cos semplice. Isuoni naturali infatti sono sempre costituiti da serie di armoniche, che contribuiscono a dare ricchezzaai suoni musicali. Si prendano come esempio i modi di vibrazione di una corda, fissata ai due estremi,a sezione costante e lunghezzaL. Si puo dimostrare, ricordando nozioni di fisica sul moto oscillatorio,che la corda vibra alle frequenze:

    fi=i

    S/L

    L

    doveSe la tensione della corda e L e la massa per unita di lunghezza. Quindi la forma donda diun suono prodotto da una corda e la risultante di un insieme di sinusoidi a frequenza multipla di unafrequenza fondamentale. Analogamente, considerando i modi di vibrazione di un tubo acustico, sipuo dimostrare che un tubo aperto da entrambe le estremita puo vibrare alle frequenze:

    fi=ic

    L

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    21/301

    2.4 CAPITOLO 2. ELEMENTI DI ACUSTICA E PSICOACUSTICA

    dovec e la velocita del suono in aria eL e la lunghezza del tubo. Da entrambi gli esempi propostirisulta chiaro inoltre che una delle tecniche piu efficaci per lanalisi dei suoni e lanalisi di Fourier,ovvero la scomposizione dei suoni prodotti dagli strumenti musicali acustici in elementi fondamentali(le sinusoidi).

    In realta, i suoni prodotti dagli strumenti musicali non hanno mai un comportamento cosi rego-lare. Innanzitutto le armoniche hanno un rapporto che solo approssimativamente puo essere espressocome rapporto tra interi. Ad esempio la corda reale si differenzia dalla corda ideale principalmente a

    causa di questa inarmonicita: le parziali risultano avere dei rapporti leggermente maggiori dei numeriinteri previsti dalla teoria (si dice in questo caso, usando il lessico musicale, che le parziali sonocres-centirispetto alla fondamentale). Per esempuio nel pianoforte le frequenze delle parziali sono date dafk=k f0

    1 +B k2 doveBe il coefficiente di inarmonicita, che dipende dai parametri della corda.

    Alcuni suoni reali inoltre sono caratterizzati proprio dellassenza di armonicita; e il caso dellecampane, nelle quali non e nemmeno presente il termine relativo alla fondamentale e le armonichehanno rapporti solo approssimativamente armonici. Una seconda caratteristica dei suoni reali e chequesti non sono mai esattamente periodici: le forme donda si ripetono nel tempo assumendo degliandamenti simili, ma non del tutto uguali. Lorecchio percepisce quindi un andamento approssimati-vamente periodico, ma percepisce anche le variazioni nella forma donda, che contribuiscono a daredinamicita al suono prodotto. Infatti una delle caratteristiche dei suoni di sintesi e appunto leccessiva

    regolarita del loro sviluppo temporale. Questo spesso si traduce nella percezione di un suono cherapidamente diventa poco interessante per lascoltatore.

    2.3 Inviluppo dei suoni

    Considerando la musica come una forma di comunicazione ottenuta attraverso lorganizzazione deisuoni, risulta evidente che un suono perfettamente periodico in senso matematico (ovvero un suonoche si ripete indefinitamente) non consente alcuna forma di comunicazione. I suoni musicali vengonoquindi organizzati nella scala dei tempi; in particolare ogni suono ha un inizio e una fine che vengonopercepiti dallascoltatore. Grossa importanza nella comunicazione musicale ha levoluzione nel tempodella forma donda. Come si e visto un suono e caratterizzato principalmente da una frequenza, legata

    alla percezione del pitch, e da una ampiezza delle oscillazioni della pressione, legata alla percezionedi intensita. Una forma donda elementare che evolve nel tempo puo quindi essere espressa dallaformula:

    s(t) =A(t) sin(2f t)dove f e la frequenza del suono eA(t) e linviluppo di ampiezzadel segnale. Per meglio chiarireil concetto di inviluppo di ampiezza, prendiamo come esempio la generazione di un suono da unacorda di violino eccitata con larchetto. In condizioni di riposo la corda ha ovviamente vibrazionenulla, e quindi non produce alcun suono. Quando il violinista inizia a sfregare larchetto sulla corda,questa inizia a vibrare abbandonando la situazione di riposo. Esiste un periodo di tempo nel quale leoscillazioni della corda, da nulle, si fanno sempre piu ampie. Questa viene definita fase di attacco esolitamente indicata con il corrispondente termine ingleseattack. Questa fase dura solitamente pochicentesimi di secondo, in relazione al tipo di strumento musicale. La fase successiva a quella di at-tack e definita con il termine inglesedecay: corrisponde ad un rapido assestarsi della ampiezza ad unvalore stabile dopo una sovraelongazione a cui e stata portata dalla fase di attack. Anche il decay emolto rapido. A questo punto, esaurito il transitorio di attacco, si e realizzato un accoppiamento tralo sfregamento dellarchetto e le oscillazioni della corda. Questo corrisponde alla fase disustain, chepuo durare anche parecchi secondi, nella quale il suono viene appunto sostenuto dal musicista, che

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    22/301

    2.4. PROPAGAZIONE DEL SUONO 2.5

    0 50 100 150 200 250 300 350 400

    tempo (sec)

    attack

    decay

    sustain

    release

    Figura 2.2: Evoluzione del segnale musicale nel tempo: sono evidenziate le parti di attack,decay,sustainerelease

    continua a fornire lenergia necessaria per mantenere le vibrazioni. Lultima fase, che ha inizio nelmomento in cui il musicista smette di mantenere eccitato il sistema di vibrazione, viene denominatarelease(ovvero rilascio) e corrisponde al tempo in cui il corpo vibrante (nel nostro esempio la cordadi violino) smorza lentita delle vibrazioni, fino a portarsi nuovamente nello stato di quite. In Figu-ra2.2sono illustrate le quattro diverse fasi descritte. In questo caso la funzione inviluppoA(t)e stataapprossimata con la successione di quattro segmenti, ma in generale puo assumere degli andamentimolto piu complessi, solitamente seguendo una curva esponenziale. Va peraltro sottolineato che spes-so, in sede di sintesi, si preferisce approssimare linviluppo con delle spezzate, poiche si e visto chela qualita sonora dei risultati non viene compromessa da questa approssimazione.

    2.4 Propagazione del suonoCome detto, il suono ha natura oscillatoria: lo studio dellacustica musicale fa quindi riferimento allateoria delle onde. Il periodo e la frequenza sono quindi le caratteristiche principali a cui si fara riferi-mento per lanalisi del comportamento di unonda acustica. Torniamo a fare riferimento al movimentodella membrana di un altoparlante, tenendo conto che considerazioni analoghe possono essere com-piute, ad esempio, sul movimento oscillatorio di una colonna daria allinterno di un tubo acustico osulla membrana di uno strumento a percussione. Il movimento della membrana dellaltoparlante causacompressione e rarefazione dellaria, che appunto corrispondono a variazioni di pressione acustica.Quando la membrana si sta muovendo verso lesterno, le molecole presenti nellaria vengono com-presse, determinando quindi un incremento della pressione locale. Questa incremento di pressione sipropaga agli strati daria adiacenti. Inversamente quando la membrana si muove verso linterno, sicrea una diminuzione di pressione che si propaga agli strati adiacenti. Ne risulta che le particelle dariasono spinte leggermente in avanti e indietro nella direzione di propagazione del suono. Oscillazionidi questo tipo vengono definitelongitudinali, e sono tipiche della trasmissione del suono nellaria. Leoscillazioni possono anche essere perpendicolari alla direzione di propagazione del suono. Ad esem-pio in una corda percossa la deformazione, che e perpendicolare alla corda, si propaga lungo la cordastessa.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    23/301

    2.6 CAPITOLO 2. ELEMENTI DI ACUSTICA E PSICOACUSTICA

    Se andiamo a misurare la pressione dellaria lungo la direzione di propagazione di un suono pe-riodico, notiamo quindi una successione di aumenti e diminuzioni di pressione. Questa distribuzioneviene definita onda sonora. La distanza piu piccola tra due punti corrispondenti dellonda sonora (adesempio tra due massimi consecutivi) e dettalunghezza donda. Essa e comunemente indicata con ilsimbolo. La lunghezza donda dipende dal periodo e dalla velocita di propagazione del suono. Lavelocita del suono in aria viene solitamente indicata con la letterace, a temperatura ambiente (20o C),e di circa 344 m/sec, ovvero 1238 km/h. La relazione tra periodoT, velocita del suonoce lunghezza

    dondae=c T

    Utilizzando la definizione di frequenza data in precedenza, si ottiene la seguente relazione:

    f=c

    che pone in evidenza come la frequenza sia inversamente proporzionale alla lunghezza donda. Siriconosce questa relazione in molti strumenti musicali. Ad esempio le corde corrispondenti alle notegravi del piano sono lunghe, mentre quelle corrispondenti alle note acute sono corte. Negli organi lenote basse sono generate dalle canne piu lunghe. Ricordando che le frequenze udibili sono contenutenellintervallo da 20 Hz a 16 kHz, sostituendo i valori numerici nella formula che lega frequenza e

    lunghezza donda, otteniamo che le lunghezze donda dei suoni udibili vanno da circa 17 m (suonograve) a 21 cm (suono acuto). La velocita del suono nellaria dipende dalla temperatura, aumentadi circa 0.6 m/sec per grado centigrado, mentre e indipendente dalla pressione atmosferica e dallafrequenza del suono.

    La velocita dipende inoltre anche dal mezzo in cui si propaga. In Tabella2.1vengono riportatele velocita di propagazione, a 0o C, per alcuni mezzi trasmissivi. Queste differenze implicano che lalunghezza donda di un suono ad una data frequenza vari a seconda del mezzo in cui si propaga. Adesempio, poiche la velocita di propagazione in acqua e circa 4.35 volte maggiore di quella in aria, ledue lunghezze donda in acqua e in aria manterranno la stessa proporzionalita.

    Mezzo trasmissivo Velocita (m/sec)

    Gomma 70Ossigeno 317Aria 331Azoto 337Idrogeno 1270Acqua marina 1440Acciaio 5050Vetro 12000 - 15000

    Tabella 2.1: Velocita di propagazione del suono a 0o C in alcuni mezzi trasmissivi

    2.4.1 Onde sferiche e onde piane

    La sorgente sonora piu semplice da analizzare e la sfera pulsante. Si tratta evidentemente di unasituazione ideale in cui una sfera si contrae e si espande radialmente attorno ad una posizione media.La variazione di pressione causata dalle pulsazioni della sfera si espande con la stessa efficienza intutte le direzioni, dando luogo ad unaonda sferica. Unaltra semplice sorgente sonora puo essere

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    24/301

    2.4. PROPAGAZIONE DEL SUONO 2.7

    considerato un pistone che si muove allinterno di un tubo. Se vengono trascurati gli effetti ai bordidel tubo, il movimento del pistone causera una variazione di pressione solamente lungo la direzionedel movimento. Avremo in questo caso unaonda piana, che si proponga in ununica direzione. Adistanze sufficientemente elevate, il raggio di curvatura di unonda sferica puo essere consideratotrascurabile, e anche in questo caso londa si considera piana.

    In situazioni non ideali, la propagazione del suono non ha un andamento cos semplice. In par-ticolare, la propagazione in un mezzo non omogeneo da adito ad alcuni fenomeni analoghi a quelli

    riscontrati nella propagazione della luce. Tra questi i principali sono la diffrazione e la riflessione.

    2.4.2 Diffrazione

    Nel caso di una sorgente reale, come ad esempio il cono di un altoparlante o la campana di una tromba,lefficienza di irradiamento dipende dalla lunghezza donda. Questo effetto viene definitodiffrazione.Se la dimensione della sorgente (ad esempio il raggio dellaltoparlante) e piccola rispetto alla lunghez-za donda, la sorgente puo essere considerata puntiforme e irradiante in tutte le direzioni con la stessaefficienza, generando quindi onde sferiche. Nel caso la lunghezza donda sia confrontabile con ledimensioni della sorgente, il suono viene irradiato con efficienza diversa a seconda della direzione. Inparticolare se la lunghezza donda e minore della dimensione della sorgente vi e un angolo al di sopra

    del quale non vi e praticamente irradiamento. In Figura2.3viene illustrata la diversa diffrazione nelcaso la dimensione dellaperturaDsia, rispettivamente, minore o maggiore della lunghezza donda .

    Figura 2.3: Effetto della diffrazione nei casi>Din[a]e

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    25/301

    2.8 CAPITOLO 2. ELEMENTI DI ACUSTICA E PSICOACUSTICA

    giormente riescono ad aggirare lostacolo, ma queste non sono sufficienti per rendere intelligibile ilparlato (in particolare, come si vedra, non vengono riconosciuti i formanti).

    2.4.3 Riflessione

    In generale avviene una riflessione ogni volta che cambiano le caratteristiche del mezzo trasmissivo.La causa piu comune della riflessione e la presenza di una discontinuita, ad esempio quando unonda

    che si propaga in aria incontra un ostacolo. Ponendosi nel caso piu semplice, si puo supporre lostacolocome una parete liscia di dimensioni sufficientemente grandi rispetto alla lunghezza donda. In questocaso si ha che londa viene parzialmente riflessa e parzialmente assorbita, e che langolo di riflessionee uguale allangolo di incidenza. La percentuale di onda assorbita dipende dal tipo di materiale.

    Nel caso londa si rifletta su di una superficie irregolare, ove le irregolarita abbiano dimensioniparagonabili alla lunghezza donda, si ha un tipo di riflessione detta eco diffuso, dove la direzionedi propagazione varia a seconda della lunghezza donda e della forma dellostacolo. Leffetto dellariflessione e estremamente importante nella progettazione di sale da concerto e di teatri, e l acusticaarchitettonicae divenuto un ramo molto importante dellacustica. A causa della riflessione alle pareti,allascoltatore infatti non giunge solamente il suono proveniente dagli strumenti musicali (o dalla vocedegli attori), ma anche una successione di onde riflesse che, a causa della maggiore distanza percorsa,

    giungono allascoltatore con un dato ritardo. Questo fenomeno e noto con il nome diriverberazione,il cui controllo e uno dei principali obiettivi dellacustica architettonica.Sono state progettate inoltre particolari camere nelle quali la riflessione delle pareti e resa massima

    (camere ecoiche) o minima (camere anecoiche). In una camera ecoica, lelevata riflessione dellepareti, fa si che il suono in un punto giunga con lo stessa intensita da tutte le direzioni: le camereecoiche sono quindi utilizzate per effettuare misure della potenza acustica di un sistema. Al contrario,in una camera anecoica, la riflessione alle pareti e pressoche nulla e quindi il suono che giunge inun determinato punto proviene esclusivamente dalla sorgente: le camere anecoiche sono appuntoutilizzate per studiare le caratteristiche delle sorgenti sonore.

    2.5 Intensita del suono

    Si e detto che lequivalente fisico del suono e la variazione di pressione nellaria (la pressione si misurain pascal, simbolo Pa). Lentita delle variazioni di pressione e legata alla percezione di volume sonoro(loudness): maggiore e la variazione di pressione, maggiore e il volume sonoro percepito. Spesso, piuche non ai picchi nella variazione di pressione, si fa riferimento allapressione efficace, simbolop e f f,che e la media quadratica delle variazioni di pressione. In inglese viene chiamatap rmsEssa e definitacome

    pe f f= 1t2 t1

    Z t2t1

    p(t)2dt

    dove lintegrazione avviene su un periodo per suoni periodici e su un intervallo idealmente infinitoper suoni non periodici. Nel caso di un andamento sinusoidale della pressione del tipo

    p=P0 sin(2tT

    )

    si hape f f=P0/

    2. La minima pressione efficace che puo essere percepita e di 0.00002 Pa, mentre lasoglia del dolore varia intorno ai 20 Pa, in relazione alla frequenza del suono come vedremo in seguitoparlando di psicoacustica.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    26/301

    2.5. INTENSITA DEL SUONO 2.9

    Si consideri di dover determinare il volume sonoro prodotto da una sorgente. Lesperienza co-mune ci dice che la pressione efficace di un suono varia in relazione alla distanza della sorgente;inoltre, come si e visto parlando della diffrazione, una sorgente sonora puo irradiare in maniera di-versa in differenti direzioni. Infine il fenomeno della riflessione puo ulteriormente complicare lamisurazione, rendendola sensibile, non solo alla distanza e alla posizione rispetto alla sorgente, maanche alla presenza di ostacoli o elementi riflettenti. E per questa ragione che una sorgente sonoraviene caratterizzata in base alla propriapotenza acustica, ovvero in base al lavoro prodotto nellunita

    di tempo. Come ogni potenza, anche la potenza acustica si misura in watt (W). In Tabella 2.2vieneriportata la potenza acustica del parlato e di alcuni strumenti musicali. Gli strumenti musicali sonocomunque caratterizzati da una bassissima efficienza, ovvero il rapporto tra i watt acustici e i wattspesi si aggira intorno all1%.

    Sorgente sonora Potenza (W)

    Parlato (normale) 105

    Parlato (litigio) 103

    Cantante lirico 0.03Clarinetto 0.05Tromba 0.3

    Pianoforte 0.4Trombone 6Orchestra 60

    Tabella 2.2: Potenza massima prodotta da alcune sorgenti sonore

    Si definisceintensita acustica(simboloI) la potenza media trasmessa per unita di superficie nelladirezione di propagazione dellonda. Si puo dimostrare che, per onde piane e onde sferiche, vale larelazione:

    I=p2e f f

    c

    dove e la densita del mezzo trasmissivo (in aria, a temperatura ambiente e a pressione atmosfericastandard =1.21 kg/m3) e, al solito,pe f fe la pressione efficace ece la velocita del suono nel mezzo.Considerando lintervallo di valori assunti dalla pressione efficace, si nota che lintensita acusticaassume valori in un range molto elevato, andando da circa 1012 W/m2 per la soglia di udibilita acirca 1 W/m2 per la soglia del dolore.

    2.5.1 Decibel e misure del suono

    I valori di pressione, potenza e intensita acustica dei suoni si distribuiscono in un intervallo di valori

    molto esteso. Per questa ragione queste grandezze sono comunemente espresse in scala logaritmica.Va inoltre osservato che la scala logaritmica ha un andamento piu vicino a quello delle scale percettiveche verranno illustrate nel capitolo2.11.Viene definito comelivello di pressione acustica(in inglesepressure level, con simbolo PL) il logaritmo del rapporto tra la pressione misurata e una pressione diriferimento. In formule:

    PL=20 log10p

    pre f

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    27/301

    2.10 CAPITOLO 2. ELEMENTI DI ACUSTICA E PSICOACUSTICA

    dove si fa implicitamente riferimento alla pressione efficace. Il valore diPL e adimensionale eviene espresso indecibel(dB). In tabella2.3sono riportati alcuni valori in decibel di rapporti usatifrequentemente in acustica e in ingegneria.

    decibel 0 6.02 10 20 -20 40 60rapporto 1/1 2/1

    10 10/1 1/10 100/1 1000/1

    Tabella 2.3: Valori in decibel di rapporti usati frequentemente in acustica e in ingegneria.

    In generale non e necessario utilizzare una pressione di riferimento standard. Puo risultare co-munque conveniente utilizzare come riferimento la minima pressione efficace udibile p0=0.00002Pa; in questo caso si parla diSound Pressure Level(SPL) che viene quindi definito come:

    SPL=20 log10p

    p0=20 log10

    p

    0.00002 SPL=20 log10p + 94

    Valori diSPLpossono essere convertiti in valori di pressione acustica mediante la formula inversa

    p=p010Lp/20

    Analogamente, anche la potenza e lintensita acustica vengono espresse in decibel utilizzando unvalore di riferimento. Illivello di potenza acustica (in inglese soundpower level, simbolo LW) edefinito dalla formula:

    LW=10 log10P

    Pre f

    dove P e la potenza acustica misurata in watt, e Pre f e una potenza di riferimento, normalmenteassuntaPre f =P0=1 1012 [W]. Si noti il fattore 10 invece che 20 dovuto al fatto ceh le potenzesono proporzionali al quadrato delle pressioni. Illivello di intensita acustica (in inglese intensitylevel, simbolo IL) e definito dalla formula:

    IL =10 log10 IIre fAnche in questo caso non e necessario scegliere un riferimento standard. Spesso si sceglieIre f=I0=1 1012 [W/m2]. Dalla formula si ricava agevolmente il raddoppiamento dellintensita corrispondead un aumento di 10 log2=3 dB.

    La scelta di moltiplicare il logaritmo per un coefficiente 10 e dovuta alla semplicita di notazioneche ne consegue: utilizzando come riferimento la minima intensita udibile, la scala in decibel assumevalori da 0 (soglia di udibilita) a 120 (soglia del dolore) e risulta quindi piu pratica della scala in Bel.Si pone in evidenza che il fattore moltiplicativo e diverso per la misura di pressione e di intensita erispecchia la relazione di proporzionalita tra lintensita e il quadrato della pressione precedentementeespressa (si ricorda che lelevamento al quadrato nei logaritmi corrisponde alla moltiplicazione per 2).In Tabella2.4vengono riportati i valori in dB prodotti da un orchestra a seconda delle indicazioni divolume nella partitura e da diverse sorgenti sonore.

    Anche se la soglia del dolore e intorno a 120 dB, una prolungata esposizione a sorgenti sonoredi elevata intensita puo causare danni permanenti allorecchio. In particolare e considerata a rischiolesposizione a 100 dB, mentre le leggi sulla sicurezza obbligano luso di apposite cuffie negli ambientidi lavoro nel caso di prolungata esposizione ad un livello di intensita superiore a 85 dB.

  • 7/24/2019 Sistemi Di Elaborazione Per La Musica Dispense del corso

    28/301

    2.5. INTENSITA DEL SUONO 2.11

    Indicazione Sorgente sonora Intensita (dB)

    Silenzio 0Spillo che cade 10Sussurro a 1m 20Sala vuota 30

    ppp Libreria 40pp Interno auto silenziosa 50p Conversazione pacata 60mp Traffico 70mf Fabbrica 80f Metropolitana 90ff Discoteca 100fff Concerto rock 110

    Jet in partenza a 500m 120

    Tabella 2.4: Livello di intensita associato alle indicazioni di partitura (prima colonna) e prodotto daalcune sorgenti sonore (seconda colonna)

    I valori riportati in Tabella2.4vanno presi come puramente indicativi. In particolare le indicazionidi partitura hanno solo una corrispondenza approssimativa con i valori in dB, poiche dipendono dallarumorosita della sala, dalla dinamica degli strumenti e dalle diverse scelte esecutive. Inoltre si e giaaccennato al fatto che il valore dellintensita e della pressione variano con la distanza. Si prendaad esempio una sorgente approssimativamente puntiforme, a cui corrisponde la propagazione di unonda sferica. Dalla definizione di intensita sappiamo che, a parita di potenza della sorgente, questarisulta proporzionale allinverso della superficie attraversata dallonda. La dimensione della superficiesfericaSdipende dal raggiore quindi dalla distanza dalla sorgente, secondo la re