Haus p. 25_37

13
MONDO DIGITALE •n.1 - marzo 2009 1. INFORMAZIONE MUSICALE E INFORMATICA MUSICALE Lapplicazione dei metodi e delle tecno- logie informatiche in campo musicale consente la rappresentazione, la conserva- zione, la trasmissione, la riproduzione, l’ela- borazione, l’analisi e la sintesi dell’informa- zione musicale. È opportuno ricordare che l’informazione musicale può essere conside- rata a vari livelli di rappresentazione che ca- ratterizzano le attività musicali più comuni: strutturale composizione e analisi musicologica: strut- ture e relazioni strutturali, musica descritta in termini di oggetti musicali ad alto livello, forme, regole, procedimenti ecc.; simbolico esecuzione ed interpretazione, editoria mu- sicale: successioni e sovrapposizioni ordina- te e temporizzate di eventi; esecutivo orchestrazione, strumentazione, organologia, liuteria: generazione e controllo di vibrazioni udibili, flussi temporizzati di parametri per il controllo di modelli timbrici e interpretativi; sonoro registrazione, riproduzione, produzione, po- stproduzione: flussi temporizzati di segnali audio digitali. È altresì opportuno ricordare che un’infor- mazione può essere rappresentata tanto da diverse codifiche quanto da diversi procedi- menti che possono produrla, secondo il vecchio slogan dell’informatica “algorit- mi+dati=progammi” [1]. Per cui è stata di volta in volta una scelta, quella di rappre- sentare una certa informazione musicale come tabelle di dati piuttosto che come re- gole per generarle. Per esempio, si pensi al- la tabella dei valori di una forma d’onda si- nusoidale piuttosto che all’algoritmo per calcolarli, o anche si pensi alla scrittura su partitura di un certo contrappunto piutto- sto che alle regole sintattiche per generarlo. Il viaggio nel tempo che si svolge nei prossi- mi paragrafi mostrerà come l’applicazione di metodi e tecnologie informatici all’informa- zione musicale si sia estesa progressivamen- te, arrivando oggi a interessare praticamente tutti gli aspetti della musica. L’applicazione di metodi e tecnologie dell’informatica in campo musicale ha progressivamente interessato tutti gli aspetti della fruizione, della perfor- mance, della produzione, dell’educazione e del supporto alle attività creati- ve. L’attenzione delle ricerche, degli strumenti e dei media più avanzati è oggi posta sull’interazione e sulla personalizzazione delle modalità di ac- cesso e trattamento dell’informazione musicale nelle sue varie tipologie (spartiti, audio, video, testi), soprattutto se tra loro integrate e correlate. Goffredo Haus INFORMATICA MUSICALE DAGLI ALBORI AL PROSSIMO FUTURO 25 4.7

Transcript of Haus p. 25_37

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1. INFORMAZIONE MUSICALEE INFORMATICA MUSICALE

L’ applicazione dei metodi e delle tecno-logie informatiche in campo musicale

consente la rappresentazione, la conserva-zione, la trasmissione, la riproduzione, l’ela-borazione, l’analisi e la sintesi dell’informa-zione musicale. È opportuno ricordare chel’informazione musicale può essere conside-rata a vari livelli di rappresentazione che ca-ratterizzano le attività musicali più comuni:strutturalecomposizione e analisi musicologica: strut-ture e relazioni strutturali, musica descrittain termini di oggetti musicali ad alto livello,forme, regole, procedimenti ecc.;simbolicoesecuzione ed interpretazione, editoria mu-sicale: successioni e sovrapposizioni ordina-te e temporizzate di eventi;esecutivoorchestrazione, strumentazione, organologia,liuteria: generazione e controllo di vibrazioniudibili, flussi temporizzati di parametri per ilcontrollo dimodelli timbrici e interpretativi;

sonororegistrazione, riproduzione, produzione, po-stproduzione: flussi temporizzati di segnaliaudio digitali.È altresì opportuno ricordare che un’infor-mazione può essere rappresentata tanto dadiverse codifiche quanto da diversi procedi-menti che possono produrla, secondo ilvecchio slogan dell’informatica “algorit-mi+dati=progammi” [1]. Per cui è stata divolta in volta una scelta, quella di rappre-sentare una certa informazione musicalecome tabelle di dati piuttosto che come re-gole per generarle. Per esempio, si pensi al-la tabella dei valori di una forma d’onda si-nusoidale piuttosto che all’algoritmo percalcolarli, o anche si pensi alla scrittura supartitura di un certo contrappunto piutto-sto che alle regole sintattiche per generarlo.Il viaggio nel tempo che si svolge nei prossi-mi paragrafi mostrerà come l’applicazione dimetodi e tecnologie informatici all’informa-zionemusicale si sia estesa progressivamen-te, arrivando oggi a interessare praticamentetutti gli aspetti della musica.

L’applicazione di metodi e tecnologie dell’informatica in campo musicale

ha progressivamente interessato tutti gli aspetti della fruizione, della perfor-

mance, della produzione, dell’educazione e del supporto alle attività creati-

ve. L’attenzione delle ricerche, degli strumenti e dei media più avanzati è

oggi posta sull’interazione e sulla personalizzazione delle modalità di ac-

cesso e trattamento dell’informazione musicale nelle sue varie tipologie

(spartiti, audio, video, testi), soprattutto se tra loro integrate e correlate.

Goffredo Haus

INFORMATICA MUSICALEDAGLI ALBORIAL PROSSIMO FUTURO

25

4.7

0

2. GLI ALBORI (DAGLI ANNICINQUANTA AGLI ANNISESSANTA)

Ben prima della disponibilità dei computer siera pensato alla manipolazione dell’informa-zione musicale a livello di simboli: si pensiper esempio ai famosi “giochi” di composi-zione automatica di Haydn [2] e Mozart [3]della fine del settecento. Ma è proprio lacomparsa del computer che ha permesso diavere lo strumento per l’esecuzione di proce-dimenti automatici.Andando oltre i simboli e arrivando al suono,sin dalla presentazione al pubblico nel 1946dell’ENIAC, il primo computer digitale, si pen-sò a generare suoni sfruttando i diversi statidei componenti. Ma le prime applicazioni delcomputer che possano essere propriamenteetichettate come musicali risalgono alla finedegli anni cinquanta. I primi esperimenti fu-rono orientati alla composizione automatica,al controllo di componenti oscillatori per lasintesi del suono, alla trascrizione degli spar-titi per l’esecuzione automatica al computer,al computer come esecutore diretto del pen-siero compositivo.

2.1. Generazione di testi musicaliAl 1957 si può datare il primo esperimentodi applicazione musicale del computer. Ilcompositore Lejaren A. Hiller, aiutato dalmatematico Leonard Isaacson, programmòuna composizione elettronica, “Illiac Suite”[4], sul computer ILLIAC all'Università dell’Il-linois a Champaign; si tratta di un quartetto

d’archi composto sulla base di un gioco pro-babilistico (catene di Markov e metodo diMontecarlo tra gli strumenti formali utilizza-ti) in quattro sezioni derivate da quattroesperimenti diversi. Il musicista Hiller, fru-strato dall'imprecisione e dall'inattendibi-lità dei sistemi analogici, nel computer digi-tale trovò il mezzo per creare suoni precisa-mente e completamente definiti.

2.2. Generazione di suoni digitaliSempre nel 1957, negli USA, presso i labora-tori della Bell Telephone, Max Mathews rea-lizzò il primo programma per la sintesi delsuonoMUSIC I a cui seguono poi tutte le ver-sioni successive fino aMUSIC V [5].MUSICV fu poi ripreso da altri programmatori-musicisti portando alla definizione di linguag-gi più recenti come – in ordine temporale - ilMUSIC 360 (Barry Vercoe), MUSIC1000 (DeanWallraff), CMUSIC (Gareth Loy), CSOUND (au-tori vari) e i derivati, fino ai più recenti adMPEG4SASLe SAOL.

2.3.Trascrizione al computer e composizionepseudocasualePietro Grossi, il pioniere dell’informaticamusicale italiana, fu un precursore tantodell’informatica musicale quanto della per-sonalizzazione nella fruizione e nella gene-razione di arte multimediale (testo, musica,visuale).Dapprima, ebbe l’intuizione di applicarequesta possibilità alla musica. Nel 1967, ailaboratori ricerca della Olivetti General Elec-tric, programmò un computer GE-115 percontrollare in frequenza e in durata un ban-co di oscillatori ad onda quadra al fine diprodurre suoni musicali. Grossi trascrisseper GE-115 il 5° Capriccio di Paganini e altribrani classici. Inoltre con la medesima tecni-ca di sintesi del suono, realizzò alcune com-posizioni elettroniche. Tutte queste operesperimentali furono registrate e stampatesu un disco 45 giri denominato ComputerConcerto in occasione delle festività natali-zie del 1967 (Figura 1).Grossi proseguì nelle sue attività sperimen-tali sviluppando principalmente il filone delletrascrizioni e della personalizzazione dell’e-secuzione di brani classici e serie di composi-zioni basate sumetodi pseudocasuali.

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

0

0

1

26

FIGURA 1Il lato A del 45 giri

“ComputerConcerto” del

M° Pietro Grossi

2.4. Computer: strumentoper il compositore/interpreteNel 1970, ancora Max Mathews realizzaGROOVE (Generated Real-time Output Ope-rations onVoltage-controlled Equipment) [6],il primo sistema ibrido sviluppato per la sin-tesi del suono, utilizzando un computer Ho-neywell DDP-224, dotato di tastieramusicalea 24 tasti, tastiera alfanumerica, 4 potenzio-metri e joystick: il tutto per controllare fre-quenze, ampiezze, durate, evoluzione tem-porale delle timbriche in tempo reale. Conquesto prototipo Mathews intendeva creareun sistema per la programmazione e l’esecu-zione in tempo reale. Con il sistema GROOVEnon ci sono intermediari, il compositore pro-duce il suono direttamente trattando l’infor-mazionemusicale nella sua completezza.Ancora oggi si prosegue a progredire se-guendo questa linea tracciata da Mathewsche a buon titolo può essere considerato unodei padri fondatori della computer music.

3. CRESCITA DELL’INFORMATICAMUSICALE (DAGLI ANNISETTANTA AGLI ANNI NOVANTA)

Le tecnologie informatiche degli anni cin-quanta e sessanta imponevano forti limita-zioni alle applicazioni musicali possibili, so-prattutto per la componente multimediale -audio e video - dell’informazione musicale:non si poteva elaborare il suono in temporeale, non si poteva interagire con i contenutimusicali di un brano non essendo possibilericonoscere in tempo reale le principali pro-prietà musicali, non erano disponibili memo-rie digitali ad accesso diretto per registraresuoni e relativi video, non erano disponibilicanali per la trasmissione dei dati audio e vi-deo di banda sufficiente ecc..I metodi, i modelli, le tecniche e le tecnologiespecifiche per l’informatica musicale hannotratto dall’evoluzione generale stimolo perevolvere a loro volta e giungere per moltiaspetti a piena maturazione.È bene ricordare che il testo musicale - parti-ture, spartiti ecc. - è codificabile con pochecentinaia di simboli per pagina e poteva quin-di essere elaborato fin da allora da processorigeneral purpose, essendo la complessitàcomputazionale richiesta paragonabile a

quella del testo in linguaggio naturale. Il suo-no invece richiede decine di migliaia di nume-ri al secondo e necessita perciò di un costocomputazionale superiore di alcuni ordini digrandezza. Per questo motivo, l’evoluzionedei processori general purpose, dei digital si-gnal processor, delle memorie, dei dispositiviper l’interazione uomo-macchina, e in genera-le delle architetture, seguita dall’introduzionedel web e dei dispositivi mobili, ha aperto lastrada al trattamento del suono e più in gene-rale dell'informazionemultimediale.Per comprendere come questa evoluzione ab-bia influito sull'informatica musicale, alcuniaspetti specifici meritano di essere brevemen-te messi in luce: la sintesi digitale dei suonimusicali, le architetture dedicate al trattamen-to dei suoni musicali, l’editoria elettronica deltesto musicale; questi tre aspetti sono stati diparticolare rilievo, anche perchè hanno carat-terizzato i principali cambiamenti nella prassidi alcune professionimusicali tipiche.

3.1. Modelli e tecniche per la generazionedigitale di segnali audio musicaliQuello che in principio non era possibile, poiè diventato gradualmente sempre più allaportata dei laboratori di ricerca, poi degli stu-di di produzione, poi degli esperti e infine de-gli appassionati: la programmazione timbri-ca, meglio nota come Computer Music o Mu-sica Informatica [7, 8].Si possono distinguere fondamentalmentetre approcci alla generazione sintetica delletimbriche musicali:�modelli per campionamento;�modelli matematici;�modelli fisici.Nel primo caso, suoni naturali di strumentimusicali od altre sorgenti sonore sono regi-strati digitalmente e poi riprodotti. Un approc-cio qualitativamente apprezzabile richiedeperò molta memoria, poiché molte variantitimbriche sono proprie del repertorio sonorodiunostrumentoal variaredell’altezza,dell’in-tensità, della durata edella tecnica strumenta-le adoperata per produrre il suono. In ogni ca-so il costo computazionale è irrilevante. I limitidi questo metodo sono evidenti - principal-mente staticità dei timbri registrati e scarsepossibilità di controllo delle varianti - ed è uti-lizzato principalmente per abbattere i costi dei

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

27

0

0

0

1

0

suoni naturali prodotti “ad hoc” da musicisti.Quasi tutti i PC odierni dispongono di schedeaudio dotate di campionatore audio.I modelli matematici si basano sulla simula-zione di una forma d’onda data medianteuna formula che la approssimi, generalmen-te polinomiale. Questi modelli si distinguonoper la quantità di termini presenti nella for-mula e per la semplicità omeno nella genera-

zione di timbriche predeterminate. Da citarealmeno duemodelli di questa famiglia:� la sintesi additiva: èbasata sull’ideacheunaforma d’onda complessa può essere costruitasommando con opportuni “pesi” – eventual-mente variabili nel tempo– formad’onda sem-plici, tipicamente sinusoidi (Figura 2); permet-te di costruire in modo accurato una formad’ondadata che, unavolta analizzataper iden-tificare le sue componenti in frequenza, puòpoi essere ricostruita sommando tali compo-nenti; peraltro, richiedemolti termini per esse-re qualitativamente apprezzabile, e da questoderiva la sua scarsa semplicità d’uso – troppiparametri per controllare il suono – e quindi ilsuo successo commerciale pressoché nullo;� la sintesi permodulazione di frequenza o difase [9]: è basata sull’idea che una formad’onda semplice può essere molto arricchitaspettralmentemodulando con termini tempo-varianti la sua frequenza o la sua fase (i duemetodi sono riconducibili uno all’altro); il fat-to che con poche onde sinusoidali si possanocostruire timbriche musicali dinamiche e ric-che ha determinato il grande successo com-merciale dei sintetizzatori basati su questatecnica; si pensi al sintetizzatore YamahaDX7; oggi, quasi tutti i PC dispongono di libre-rie standard di timbriche FM.I modelli matematici sono stati tra gli annisettanta e novanta il punto di riferimento peri compositori di computer music, ma hannomostrato significativi limiti rispetto alla varia-zione delle timbriche in funzione dei gesti in-terpretativi, proprio per il fatto di partire dal-la simulazione di una forma d’onda che è giàil risultato del processo di interazione tra chisuona e lo strumento che viene suonato.Per questo motivo, l’approccio dei modelli fi-sici ha subito indicato di essere quello su cuipuntare per la piena soddisfazione nella ge-nerazione e nel controllo delle timbriche mu-sicali [10]. L’idea di fondo è di simulare il com-portamento dei corpi vibranti (corde, ponti-celli, casse armoniche ecc.) e delle loro intera-zioni, sia tra di essi stessi che con il musicista.In questo modo, il modello fisico può essere“suonato bene” o “suonato male” (Figura 3),come accade con gli strumenti tradizionali;tutte le soluzioni del liutaio diventano “pro-grammabili”, potendo andare anche oltre ciòche è fisicamente possibile o ragionevole. Si

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

0

0

1

28

0.00 0.29 0.58 0.88 1.17 1.47 1.76 2.05 2.35 2.64 2.94 3.23 kHz

0102030405060708090100

Ampiezza segnale

Frequenza (kHz)

FIGURA 2Modello tridimensionale di rappresentazione grafica del suono per la sintesiadditiva: le tre variabili sono la frequenza, il tempo e l’ampiezza; ogni linea delgrafico rappresenta la composizione del suono ad un certo istante di tempocome spettro di diverse frequenze, ciascuna dotata di una propria ampiezzarelativa a quell’istante

Esecutore

Gesto Suono

VisioneoTatto

Sensore+ADC

DAC+Motore

DAC

DAC

Algoritmodi sintesi

FIGURA 3Schema del modello di interazione tra esecutore umano e strumento musicalevirtuale basato su modelli fisici dei corpi vibranti: oltre alla retroazione costituitadai suoni prodotti suonando lo strumento virtuale e alla visualizzazione grafica diforma d’onda e composizione spettrale, è presente la componente tattile,retroazione indispensabile affinché l’esecutore possa suonare adattando i proprigesti, proprio come accade con gli strumenti tradizionali

può - per esempio - programmare un tamburodi 200 km. di diametro o una chitarra con cor-de di un nanometro di spessore, perfino co-struiti con unmateriale qualsivoglia.Imotivi per cui questo approccio nonha anco-ra trovato piena applicazione negli strumentimusicali offerti dal mercato sono individuabilinella grossa richiesta di capacità computazio-nale richiesta, e ancor più per il fato che non èancora matura la letteratura scientifica suimodelli fisici degli strumentimusicali. Per ora,lamaggior parte delle applicazioni concrete diquesto approccio si è limitata a usare modellifisici “parziali”, che simulano solo una o co-munque poche componenti della catena digenerazione del suono; come – per esempio -gli amplificatori digitali a modelli fisici che si-mulano i diversimodelli di amplificatori valvo-lari, o le unità di effetti che applicate ai suonidegli strumenti tradizionali ne alterano le so-norità simulandobanchi di effetti analogici, o ivari tipi di chitarre (acustiche, elettriche, bas-si) cheproducono le sonorità di decine di altrechitarredi cui lo strumentodigitale implemen-ta imodelli fisici per trasformare il suonodellachitarra “fisica” nel suono di una delle chitar-re “virtuali” di libreria.

3.2. Evoluzione delle architetture hardwareGli avanzamenti nella modellistica e nelle tec-niche per il trattamento dell’informazione mu-sicale, specialmente considerando i livelli ese-cutivo e sonoro, sono andati di pari passo conla disponibilità di nuove tecnologie hardware.Al tempo dei mainframe si era arrivati a consi-derare come prima ipotesi operativa quella diusare il computer a livello simbolico e struttu-rale per controllare mediante parametri unaserie di dispositivi analogici esterni per la sin-tesi e il trattamento del suono (oscillatori, sin-tetizzatori, mixer, banchi di filtri ecc.): sono icosiddetti sistemi ibridi, dove le quantità diinformazione più modeste (strutturale e sim-bolico) sono gestite digitalmente e quelle in-vece più considerevoli (modelli timbrici e se-gnali audio) sono controllate da computer magestite da periferiche analogiche.Il motivo di questa soluzione è che non sussi-steva ladisponibilità di unapotenza computa-zionale che permettesse di trattare il segnaleaudio senza interruzioni o ritardi. In questa fa-se i compositori di computer music potevano

solo usare linguaggi operanti in tempo differi-to (tipo i linguaggi MUSIC-n); una volta datetutte le direttive al computer su come produr-re i suoni corrispondenti a una composizione,veniva calcolato il segnale audio finale, in untempo non predeterminabile e senza intera-zione con il compositore.Negli anni settanta furono sviluppati i primisintetizzatori digitali prototipali in alcuni cen-tri di ricerca statunitensi (Stanford, Cambrid-ge, Berkeley, Urbana), ed è nel 1978 che la Di-gitalMusic Systems, una piccola ditta spin-offdelMIT, produce il primo sintetizzatore digita-le – denominato DMX-1000 - programmabileda un qualunque minicomputer o mainframe[11]. Diventa realtà il controllo interamente di-gitale dell’informazionemusicale ai vari livelli:un computer general purpose si occupa del-l’informazione strutturale, simbolica e dei pa-rametri che – inviati al DMX-1000 – permetto-no la generazione in tempo reale dei suoni. Sitratta di un’architettura digitale mista: tecno-logia general purpose per controllare la tec-nologia più spinta necessaria per il trattamen-to digitale dei segnali audio.Solo tre anni dopo, il fisico Giuseppe Di Giu-gno progetta e realizza all’IRCAM di Parigi unsintetizzatore digitale – denominato 4X - ca-pace di gestire una grande quantità di stru-menti virtuali contemporaneamente e di sop-portare un grande carico computazionale[12]. I modelli timbrici implementabili diven-tano così molto complessi, paragonabili aquelli richiesti per il controllo di un’orchestradigitale intera. Un grosso passo avanti, se-guendo il tipo di architettura digitale mistaintrodotta con il DMX-1000.Un cambiamento di rotta fu introdotto nel1983 con la pubblicazione dello standard MI-DI [13] e la comparsa degli strumenti musica-li digitali che ne sfruttavano imodi di comuni-cazione: l’informatica musicale diventa re-pentinamente “individuale”, non servonopiù i grandi centri di ricerca per avere a dispo-sizione l’hardware necessario a produrre ilsuono digitale. Ai centri di ricerca resta dasviluppare nuove soluzioni più avanzate e dafar progredire modelli e tecniche per poi tra-durli in applicazioni software. L’accoppiataPC+MIDI si afferma decisamente sul merca-to. Questa diffusione improvvisa porta peròcon sé tutti i limiti dello standard MIDI: tra-

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

29

0

0

0

1

0

smissione seriale, velocità di trasmissionebassa (poco più di 30.000 bit/s), pochi cana-li (16 al massimo), scarsa programmabilitàdei modelli timbrici.Infatti è l’hardware dei sintetizzatori MIDI adeterminare intrinsecamente imodelli esegui-bili: Yamaha con lamodulazione di frequenza,Casio con la distorsione non lineare, AKAI coni campionatori, Roland con soluzioni miste.Peraltro i ricercatori capaci di costruiremodel-li timbrici erano e restavano pochi; la grandeutenza si è sempre accontentata dei suoni dilibreria forniti dalle case costruttrici, oltre a co-piare le librerie di set timbrici degli amici.Quindi diffusione sì, ma progresso scientificoben poco grazie al MIDI. Si sviluppa moltissi-mo la possibilità di registrare i gesti dell’inter-prete su dispositivi cha hanno l’aspetto distrumenti musicali ma che servono a produrredati MIDI; dati che vengono registrati con ap-plicazioni software chiamate sequencer, pro-grammi che sono registratori multitraccia didati MIDI: si esegue e si registra, poi si può in-tervenire per correggere, modificare, aggiun-gere, togliere ovvero fare editing dei dati MIDIorganizzandoli in molte tracce, anche centi-naia. Si può sempre scegliere in un secondomomento quali di queste tracce usare e comecombinarle tra loro; un po’ come quando dallaregistrazionemultitraccia audio analogica si failmixdownalmaster stereo.Tant’è chenel girodi qualche anno i sequencer MIDI sono statiarricchiti delle tracce audio digitali e la regi-strazione multitraccia combina tracce MIDI etracce audio, in certi casi anche tracce video.Ma quello che inizialmente era arricchire il PCdella possibilità di produrre suoni digitalmen-te con periferiche MIDI esterne, diviene poigradualmenteuna soluzioneunicae integrata,per cui nel PC – dopo un primo esperimentocon gli Atari – viene fornita di serie l’interfacciaMIDI, librerie di campioni sonori, librerie ditimbri FM, software musicali di editing e se-quencingmusicale, e perfino processori spe-cial purpose per l’audio, poi confluiti nellemo-dernemotherboard con una o più CPU e diver-si coprocessori integrati. Oggi, CPU standard,coprocessori per l’audio, per il video, per la co-municazione interna ed esterna, MIDI equant’altro, fanno parte di un’unica soluzioneintegrata. Tanto che i PC di oggi sono in gradodi eseguire applicazioni software musicali che

in tempo reale eseguono tutti i tipi di tecnicheper la sintesi digitale del suono; perfino i tantodispendiosimodelli fisici, purché conopportu-ne limitazioni, ma senza bisogno di hardwareaggiuntivo. È forse il controller musicale (tipotastiera, chitarra, strumento a fiato, percussio-ni o anchemicrofono) la parte specifica più co-mune che serve ancora aggiungere.Infine, va menzionato il fenomeno delleworkstation musicali: iniziato alla fine deglianni settanta con il NEDCO Synclavier e poi ilFairlight CMI, consiste nella produzione diworkstation in cui sono integrate:• tecnologie general purpose di tipo PC;• tecnologie special purpose tipo Audio Digi-tal Signal Processor eMIDI;• applicazioni software per l’edizione di par-titura;• applicazioni software per il sequencing el’editingMIDI e in un secondo momento an-che audio e video;• librerie di suoni digitali di qualità profes-sionale.Questa tipologia di strumento è molto costo-sa, destinata generalmente a professionistiche vogliono trovare i problemi tecnici già ri-solti in una postazione fornita “chiavi in ma-no” per il musicista. È sempre stata da allorauna nicchia ad alto valore aggiunto, comespesso accade con gli strumenti professiona-li. La lorodiffusioneèstata comunque limitatanon solo dai costi alti, ma anche dal fatto chele stesse funzionalità di queste workstationintegrate potevano essere implementate inte-grando le diverse componenti in modo anchepiù flessibile ed economico a patto di affron-tare le problematiche tecniche del caso.

3.3. Il testo musicale: editoria e riconosci-mento automaticoLa scrittura di testi in linguaggio naturale (texteditor ewordprocessor) è stata senz’altro unadelle prime e più diffuse applicazioni del com-puter. Il riconoscimento automatico dei testistampati (OCR:Optical Character Recognition)èmenopopolare,ma–nonostante l’intrinsecacomplessità - ha raggiunto damolti anni pienamaturità, in altre parole è quasi infallibile.Applicazioni di grande interesse per la mino-ranza di utenti del computer che si occupa dimusica è l’equivalente capacità di scriverespartiti (score editor) e di riconoscere auto-

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

0

0

1

30

maticamente i simboli musicali dei testistampati (OMR:Optical Music Recognition).Ametà degli anni ottanta sono comparsi i pri-mi software per scrivere spartiti al computer;ben presto sia gli editori che i singoli musici-sti hanno apprezzato questa tipologia di ap-plicazioni al punto da considerarla come lostrumento prevalente per scrivere e stampa-re musica. Già agli inizi degli anni novanta latecnologia (font, editor, formatter, publisher)era matura e il mercato soddisfatto. Anche imusicisti più ostili all’uso del computer se nesono fatti una ragione, per l’affidabilità, laconvenienza economica, l’autonomia acqui-sibile con il software per l’edizione musicale.Per quanto riguarda la lettura ottica dellamu-sica, nonostante siano comparsi negli stessianni del software di edizione i primi applicati-vi, l’affidabilità nel riconoscimento automati-co non è ancora così soddisfacente. Soprat-tutto, la percentuale di errori è fortemente di-pendente dalle caratteristiche del singolo te-sto musicale considerato – per esempio, ladensità di simboli musicali, la quantità di casidi sovrapposizione di simboli diversi nellamedesima posizione - e in generale la com-plessità grafica del testo musicale, in combi-nazione con gli investimenti limitati tipici del-le problematiche di nicchia, fan sì che si pos-sa oscillare tra un 10% e un 50%di simboli ri-conosciuti in modo scorretto. Nei casi peg-giori, è ancora più conveniente inserire il te-sto musicale nel computer a mano, ovverocon unmusic editor.La maturazione delle tecnologie di OMR è at-tesa con grande interesse, per poter renderedisponibile una grande quantità di archivimusicali online, non più solo in forma grafica,ma anche in forma simbolica, editabile, di-sponibile per rielaborazioni, trasposizioni,estrazione delle parti strumentali, etc. So-prattutto per l’enorme patrimonio culturaledi testi musicali che non sono più soggetti al-la normativa sul diritto d’autore.

4. INFORMATICA MUSICALEOGGI

Nell’arcodella sua ancora giovane vita, l’infor-matica musicale ha visto la realizzazione dinumerosi progetti di ricerca i cui risultati dimaggior interesse sono poi stati trasferiti al-

l’industria e all’editoria. Sono abbastanza de-lineate le linee evolutive che sono in corso inquesti ultimi anni ed è altresì identificabilel’insieme dei problemi rimasti ancora aperti.Peraltro, non tutte le innovazioni fornite dallaricerca sono state sfruttate a livello produtti-vo, generalmente permotivi economici.Per concludere questa escursione nelle te-matiche dell’informatica musicale ecco quin-di lo stato dell’arte odierno e quello che è og-gettivamente prevedibile nel medio periodo.Si ricordi che da almeno vent’anni un PC arric-chito con opportuni dispositivi specializzaticostituisce la base di quasi tutte le tipologie distazioni di lavoro individuali, editoriali e in ge-nere produttive. In questo contesto devonoessere considerati alcuni aspetti particolar-mente significativi per l’informatica musicale:l’interazione con l’informazione musicale, il ri-conoscimento automatico dei contenuti, inter-net, i dispositivimobili. L’interazione con i con-tenuti multimediali è al centro dell’evoluzioneinformatica di questi anni, ma: cosa vuol direinteragire con l’informazionemusicale?Si consideri che l’informazione musicale puòessere espressa ad uno dei livelli di rappre-sentazione sopra indicati in accordo con laforma più appropriata per l’interazione. Peresempio, se si vuole fornire all’utente un’ap-plicazione capace di estrarre automatica-mente le parti strumentali da una partituraorchestrale risulterà opportuno trattarel’informazione musicale mediante la formagrafica di partitura; oppure, se si vuole per-mettere all’utente di una libreria digitalemultimediale di ascoltare un brano di musicadi cui l’utente non conosce né titolo, né auto-re, né altri metadati, ma l’utente è in grado dicanticchiarlo poiché lo ha già sentito in un’al-tra circostanza, allora bisognerà predisporreun’interfaccia per interagire tramite il cantodel’utente, che naturalmente funzionerà inmodo efficace solo se l’utente è capace di in-tonare correttamente il frammento musicaleche cerca. Detto questo, è necessario un pic-colo approfondimento per capire cosa impli-ca quanto ipotizzato.Sia per il trattamento ad un certo livello, cheper la trasformazione da un livello ad un altrodell’informazione musicale è necessaria ladisponibilità di un insieme integrato di di-spositivi software e hardware specifici capaci

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

31

0

0

0

1

0

di trattare (memorizzare, elaborare, trasmet-tere, rappresentare) i flussi informativi corri-spondenti.Per esempio, per il trattamento dell'informa-zione musicale a livello di suono ad alta fe-deltà sono generalmente richiesti dispositivihardware speciali per l'acquisizione e la pro-duzione di suoni, insieme con memorie cen-trali di grande dimensione ememorie dimas-samolto capaci e con velocità di trasferimen-to dati molto alta. Ricordiamo infatti che unsecondo di suono stereofonico di qualitàCompact-Disc audio contiene una quantità diinformazione pari a circa 90 pagine di testo inlinguaggio naturale.

4.1. Il riconoscimento dei contenutimusicaliL’analisi dell’informazione musicale può por-tare al riconoscimentoautomaticodi contenu-ti non espressi in modo esplicito: per esem-pio, a livello di simboli, si può riconoscere latonalità in cui è scritta una partitura, quali so-no i frammenti tematici più importanti, qual èla formamusicale, quali sono le regole rispett-tate e quali quelle infrante della sintassimusi-cale; oppure, a livello sonoro, si può ricono-scere quali strumenti stanno suonando, doveinizia e dove finisce la parte di suono che cor-risponde ad un simbolo di nota, una serie diparametri fisici che permettono di avere infor-mazioni,melodiche, ritmiche, dinamiche e an-che relative all’interpretazione operata da chiha prodotto i suoni allo strumento.Questo tipo di analisi è caratterizzata da unamole di calcoli molto elevata, damodelli ana-litici complessi e non è ancora giunta a pienamaturazione, ovvero ci sono ancora informa-zioni che non si riesce a riconoscere in modoautomatico.Già nel 1975, nella sua tesi di dottorato,Moo-rer [14] impostò il problema dalla base, ovve-ro come porsi ad osservare il segnale audioper estrarne informazioni musicali. Da alloramolti progressi sono stati compiuti, e tanto imodelli di interazione uomo-macchina piùavanzati quanto i metodi di classificazioneautomatica dei contenuti musicali nelle libre-rie digitali accessibili tramite il web [15] si ba-sano proprio sulla capacità dei computerodierni di riconoscere contenuti multimedialie, in particolare, musicali.

4.2. Interazione multimodalecon i contenuti musicaliGià nel 1985, Roger Dannenberg aveva realiz-zato un prototipo di sistema capace di ac-compagnare automaticamente un musicistadurante una performance [16]; il suo sistemaconosceva tutte le parti strumentali del bra-no da suonare ed era in grado di riconoscerele note suonate dal musicista ed eseguire inautomatico tutte le altre parti strumentali, inmodo sincrono all’umano. Prototipi in questadirezione sono stati via via sviluppati da variricercatori ma ben poco di queste esperienzeè arrivato a essere disponibile per il musici-sta o l’appassionato comune.Si è così approdati alla situazione odierna,dove la possibilità più innovativa offerta dal-le tecnologie informatiche per la musicacombina le possibilità di riconoscimento au-tomatico dei contenuti musicali con i formatiper la rappresentazione integrata dei conte-nuti informativi delle diverse tipologie di ma-teriali musicali: supporti audio, supporti vi-deo con tracce audio, pagine di musica scrit-ta, altri materiali “fisici” (foto, video, sceno-grafie ecc.), supporti magnetici e ottici conte-nenti codifiche simboliche immateriali (XML,MIDI, UNICODE, ASCII ecc.).Infatti, l’informazione musicale può essereespressa – e di solito è prevalentemente que-sto che accade nel caso degli standard piùdiffusi come MP3, AAC, vari tipi di MPEG - aduno specifico dei livelli di rappresentazioneconsiderati sopra, in accordo con la forma dirappresentazione più appropriata per l'inte-razione. Per esempio, se si vuole fornire all'u-tente un'applicazione capace di estrarre au-tomaticamente le parti strumentali da unapartitura orchestrale risulterà opportunotrattare l'informazione musicale mediante laforma grafica di partitura.Maoggi è diventato possibile integrare i diver-si livelli in un unico ambito di rappresentazio-ne, integrando audio, timbriche, partiture, for-me e strutture. Un gruppo di lavoro della IEEEStandards Association per lamusica hadefini-to per questouno specifico dialetto XMLper lamusica, denominato ufficialmente IEEE1599-2008, anche noto comunemente come “MX”;IEEE1599-2008 è uno standard internazionaleapprovato il 12 giugno 2008 [17], ottenuto gra-zie alla collaborazione tra LIM dell’Università

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

0

0

1

32

degli Studi diMilano (gruppo del Prof. Haus) eSUPSI di Lugano (gruppo del Prof. Baggi), conil supportoparzialedel progettoCTI 8357.1 “e-Music XML Standard” e nell’ambito del pro-gettomondiale IMS “e-Music XML”.Il formato IEEE1599-2008 consente di navi-gare e interagire tra/con i contenuti musicalimultimediali, come se questi materiali fosse-ro parte di un unico ambiente di conoscenzaintegrata. In altre parole, tale tecnologia in-novativa consente di:� trovare tutti i file di partituremusicali e tutti ifile audio digitali che contengano un datoframmento musicale, interrogando un sito In-ternet, un databasemultimediale ecc.; il fram-mento può essere uno spezzone audio, vocale(cantato)ostrumentale (suonato), oppureunasequenza di note scritta su pentagramma;� sincronizzare automaticamente varietàampie a piacere di file audio, video e di parti-tura per una fruizione integrata delle varieforme di comunicazione musicale (CD, DVD,file su PC ecc.); ognuno deimateriali conside-rati per la sincronizzazione permette di “gui-dare” la navigazione nei vari materiali inte-grando di fatto i diversi player in un unicoplayer multitraccia dove ogni traccia può es-sere usata per “navigare”;� interagire con l’informazione musicale, ag-giungendo ai controlli standard sul volume,sulla posizione stereo o sulle frequenze unampio repertorio di possibilità che contem-plano: scorrere un brano nota per nota, bat-tuta per battuta o frase per frase, modificarela partitura e di conseguenza i suoni corri-spondenti ecc.:Gli strumenti scientifico-tecnologici per pro-durre i materiali nel formato previsto dallostandard sono prevalentemente italiani: so-no stati sviluppati nell’arco di trent’annipresso il LIM - Laboratorio di InformaticaMu-sicale del Dipartimento di Informatica e Co-municazione dell’Università degli Studi diMi-lano ed sono stati applicati a livello prototi-pale con successo:� nel sistema MAIS (Music Archive Informa-tion System) sviluppato dal LIM tra il 1997 e il1999 per l’Archivio Musicale del Teatro allaScala [18];� nei dimostrativi tecnologici sviluppati per ilMinistero per i Beni e le Attività Culturali in oc-casione dellemostre su tematichemusicali te-

nute a Roma (dicembre 2005-gennaio 2006),Torino (febbraio-giugno 2006), Milano (dicem-bre 2006-gennaio 2007), Salisburgo (maggio-giugno 2007), Lucca (novembre 2007);� nei dimostrativi tecnologici sviluppati nel-l’ambito dei succitati progetti CTI e IMS con-giuntamente alla SUPSI di Lugano.IEEE1599-2008èuna codifica XMLmultistratoche integra le codifiche standarddelle partitu-re (file Finale, MusicXML, NIFF, e altri formati),dei metadati catalografici, dell’audio com-presso (MP3, AAC,WMA ecc.) e non compres-so (Compact-Disc Digital Audio,WAV, DVDAu-dio, etc.), delle performance (Csound, MIDI,SASL/SAOL ecc.), e dei dati di sincronizzazio-ne. Nella figura 4 si può vedere il principio checonsente di trattare in modo integrato e sin-crono i diversi materiali musicali considerati(nella figura di esempio si vedono audio,MIDIe partitura): una struttura di dati chiamataspine integra e sincronizza l’informazionespaziale delle pagine di musica scritta conl’informazione temporizzatadei processiMIDIe audio. Nella figura 5 si può vedere l’architet-

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

33

0

0

0

1

FIGURA 4Esempio di schema di corrispondenze tra la posizione spaziale dei simboli diuno spartito con gli istanti di tempo dei suoni correlati e dei gesti necessari perprodurre tali suoni: è la struttura portante, chiamata “spine” del nuovostandard musicale multilayer IEEE1599-2008

0

tura che mette in relazione i diversi “strati” diinformazione musicale, ciascuno in grado direcepire gli standard industriali di riferimento,nello standard IEEE1599-2008.Molti elementi di innovazione vengono intro-dotti da IEEE1599-2008 neimodi di interagiretra umani e informazione musicale; tra i piùevidenti e significativi, si rendono potenzial-mente disponibili i seguenti:a. fruizione sincrona di tutti i materiali musi-cali inerenti ad un brano (una o più partitureo parti strumentali, una o più interpretazioniaudio ed eventualmente video, il multitracciaaudio con uno o piùmixdowndisponibili, ico-nografia, elementi testuali);b. interazione con i materiali musicali di unbrano (definizione del subset di materiali perla fruizione, eliminazione di una o più “tracceaudio” dalla fruizione);c. navigazionemultimodale dei contenuti: uso

diunqualunquematerialemusicaleperguida-re la fruizione di tutti gli altri materiali sia neltesto (parole di una canzone e/o libretto d’o-pera), che nello spazio (materiali di partitura),che nel tempo (materiali audio e video);d. “allineamento” di tracce audio non sincro-ne, sia rispetto ad altre tracce audio sia con imateriali di partitura;e. dilatazione/contrazione di tracce audiosenza modifiche timbriche e di intonazione(cambi di metronomo, sovrapposizione ditracce non sincrone);f. indicizzazione dei materiali musicali (parti-ture, audio, video, testo letterario, iconogra-fia) per contenuti (frammenti audio, fram-menti di partitura, frammenti di testo).Le ipotesi di nuovi media come quelle qui so-pra formulate portano come effetto collate-rale una potenziale forte valorizzazione deipatrimoni editoriali; i materiali degli archivipossono essere riutilizzati per le nuove ini-ziative editoriali con un’articolata varietà dimodi e di potenziali ritorni economici.Vale la pena sottolineare che un auspicabileeffettodi valorizzazionedeipatrimoni editoria-li può essere ottenuto – prima ancora che pen-sandoanuovimedia –presentando, elaboran-do e riorganizzando i materiali musicali degliarchivi esistenti. Alcuni tipi di media, anche segià presenti sul mercato, possono essere con-cepiti in modo innovativo rispetto ai target delmercato di consumo, specie quando si consi-derino quelli professionale e formativo.A titolo di esempio, si considerino le scher-mate nelle figure 6 e 7. Rappresentano casiesemplari del rappresentare e rendere fruibi-li i contenuti di brani musicali classici, conmodalità multimodali e interattive.Le applicazioni software – realizzate al LIM -da cui sono state prese le schermate con-sentono di interagire con i contenuti musi-cali dei rispettivi brani musicali considerati,in diversi “modi”: partitura, strumentazio-ne, libretto, audio e video [19]. Ogni elemen-to informativo presente sullo schermo è at-tivo. La selezione con il mouse di una paroladel libretto produce la riproduzione in audioo in video/audio a partire dall’istante in cuiquella parola viene pronunciata, nonché ilposizionamento sulla partitura di un curso-re rosato che evidenzia la nota corrispon-dente al momento in cui la parola viene pro-

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

0

0

1

34

General Structural

LogicallyOrganizedSymbols

Spine

Music Logic

Notational Performance

Source material

MX

Audio

TIFF

WMF

JPEGCsound

SASL/SAOL

MIDI

AIFFI

MP3

MPEG

FIGURA 5Schema delle relazioni tra i layer del nuovo standardmusicale IEEE1599-2008: i file di notazione musicale,performance e audio con eventuale video sono tra lorointegrati e correlati pur restando nelle forme dicodifica degli standard propri delle varie tipologie didati multimediali

nunciata, nella parte che si è scelto di segui-re per la fruizione.Analogamente selezionare una nota sullapartitura con il mouse, posiziona automati-camente audio, video, libretto e quant’altroalla nota selezionata così come spostare ilcursore del player multimediale sposta con-correntemente e in modo sincrono i cursorisulla partitura, sul libretto e quant’altro.In particolarenella figura7, èmostratounmo-mento dell’interazione con le frasi melodichedel brano (un duetto tratto dalla Tosca di Puc-cini); i contenuti musicali sono percorsi me-diante le schematizzazioni di frasi che posso-no essere selezionate nell’apposito riquadroin alto a destra nello schermo. La selezione diuna frase posiziona il playermultimediale, ilcursore sulla partitura e il cursore sul librettoe avvia l’esecuzione della frase stessa eviden-ziando sulla partitura in colore giallo il seg-mento trasversale di partitura interessato.La frontiera più avanzata dell’interazione con-sente di modificare i contenuti musicali deibrani, a partire dagli elementi informativi indi-viduati e rappresentati. Ma questo discorso èper un futuro meno prossimo. Questa moda-lità di interagire con la struttura di un brano intempo reale – l’audio e i frammenti di partitu-ra vengono costruiti e riprodotti durante l’in-terazione senza ritardi – costituisce una solu-zioneper quando saràdisponibile unanorma-tiva sul diritto d’autore che disciplini questaforma di fruizione, oppure anche già subito,ma solo per le composizioni musicali che so-no già uscite dal periodo disciplinato dalle at-tuali norme sulla proprietà intellettuale e in-dustriale, o anche come strumento di produt-tività individuale. In questo caso la tecnologiaè ben più avanti del diritto.

4.4. La formazioneAccanto a nuove possibilità, nuove proble-matiche, nuove economie e nuove modalitàdi accesso alla cultura musicale, si delineasempre più la necessità di figure professio-nali interdisciplinari che abbiano competen-ze specifiche sulle tecnologie di interesse perla musica accompagnate da competenzepropriamente musicali. Se fino agli anni no-vanta erano sufficienti pochi professionisti ericercatori capaci di coniugare in virtù dei lo-ro interessi e delle loro esperienze la doppia

figura dell’informatico e del musicista, è oranecessario avere persone formate ad hoc e inquantità superiore. A questa esigenza cerca-no di rispondere alcune iniziative formative,sia a livello universitario che medio superio-re. Da citare il corso di laurea triennale in“Scienze e tecnologie della comunicazione

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

35

0

0

0

1

FIGURA 6Esempio di schermata di musica interattiva; l’autografo di un’opera di Paisiello,il libretto, due performance (una in audio e l’altra in audio e video) sono fruibiliin modo sincrono, tutti gli elementi informativi possono essere usati permuoversi “nel brano”, ogni nota della partitura, ogni parola del libretto, ogniistante di tempo della barra del player

FIGURA 7Esempio di schermata di musica interattiva: la riduzione canto e piano di unduetto della Tosca di Puccini, il libretto, tre diverse performance (due in audio ela terza in audio e in video) sono fruibili in modo sincrono e sono percorribilioltre che “per note”, “per parole” e per “istanti”, anche per “frammentimelodici” grazie alla finestra in alto a destra che evidenzia il materialetematico alla base del brano, consentendo di visualizzare con evidenziazionegialla come il singolo frammento è “mappato” nella partitura del brano ognivolta che il frammento viene presentato

0

musicale” attivo all’Università degli Studi diMilano dal 2002, che accetta 120 nuovi allieviogni anno e riesce portarli al mondo del lavo-ro proprio in relazione alle specificità profes-sionali acquisite in questo corso di studi.

5. PROBLEMI APERTIE PROSPETTIVE

A conclusione di questo percorso, è dovero-so citare:• cosa ancora non è possibile;• verso dove si sta andando.La ricerca di base deve ancora risolvere moltiproblemi, prima di passare le ipotesi di solu-zione alla ricerca sperimentale e poi all’indu-stria. I più rilevanti:�maturazione delle tecniche basate su mo-delli fisici degli strumentimusicali e riconosci-mento automatico delle relative timbriche;� definizione di modelli di compressionemultisensoriali, che sappiano sfruttare il mo-do in cui il nostro sistema fisiologico (cervel-lo + sistema nervoso + organi di senso) fun-ziona, al fine di ridurre la necessità di memo-ria per rappresentare l’informazione multi-mediale e musicale; in altre parole, integra-zione degli attuali modelli percettivi mono-sensoriali (audio e video soprattutto) in mo-delli percettivi multisensoriali;� definizione di modelli dell’interpretazionemusicale capaci di eseguire automaticamen-te una partitura come un umano; alcuneesperienze significative già sono state effet-tuate, ma non sono ancora pienamente sod-disfacenti [20]; andando nel senso contrario,definizione di modelli interpretativi inversi,ovvero capaci di riconoscere gli interpreti e ditrascrivere in partitura - fedele all’originale -le registrazioni audio;�metodi affidabili per effettuare la separazio-neautomaticadelle tracceaudioovvero il “mul-titraccia” con l’audio separato per ogni voce ostrumentoapartiremaoriginalimonoostereo.Alcune di queste problematiche sono più vi-cine a trovare soluzioni soddisfacenti, altresono più lontane, e riguardano perciò il “do-podomani” dell’informatica musicale.Si può invece considerare che il domani del-l’informaticamusicale debba senz’altro preve-dere che le prospettive di ulteriori avanzamen-ti, sia dal punto di vista degli arricchimenti del-

lemodalità di interazione uomo-macchina cheda quello della produttività e dell’economicitànellaproduzionedimaterialimusicali interatti-vi, passino attraverso la soluzione - o più vero-similmente la riduzione -di unaseriedi proble-mi aperti, verso cui orientare sforzi e risorse:� incrementi di efficienzaedaffidabilitàneipro-cedimenti di riconoscimento automatico di ca-ratteristiche dall’informazione multimediale;� individuazione di metodiche efficaci per laseparazioneautomatica di particolari “sorgen-ti di informazione”; per esempio: tracce audiodi parlatori, cantanti, strumenti, personaggistatici o inmovimento da immagini o video;�ulteriori incrementi della larghezza di ban-da nelle telecomunicazioni e nella capacità dimemoria dei supporti.Sintetizzando al massimo, grazie al contributodei progressi delle tecnologie informatichespecifiche, ci si può aspettare nel breve-medioperiodo una sempre maggior tendenza allapersonalizzazione nella fruizionemusicale, siaa livello amatoriale che professionale, fino alladisponibilità globale del patrimonio di cono-scenze musicali fin qui maturate, archiviate,pubblicate, suonate, scritte, discusse.

Bibliografia

[1] Wirth N.: Algorithms + Data Structures = Pro-grams. Prentice Hall PTR, Upper Saddle River,NJ, 1978.

[2] Haydn J.:MusikalischesWürfelspiel. Manoscrit-to originale, 1783.

[3] Mozart W. A.: Musikalisches Würfelspiel. K516f, 1787.

[4] Hiller L. A., Isaacson L. M.: Experimental Music:Composition With an Electronic Computer. Mc-Graw-Hill, New York 1959.

[5] Mathews M.V.: The technoloy of computer mu-sic. MIT Press, Cambridge, MA, 1969.

[6] Mathews M.V., Moore R.: Groove—A Programto Compose, Store, and Edit Functions ofTime. Communications of the ACM Vol. 12,1970, p. 715.

[7] Roads C.: The Computer Music Tutorial. MITPress, Cambridge, MA, 1996.

[8] Roads C., Strawn J., eds.: Foundations of Com-puter Music. MIT Press, Cambridge, MA, 1985.

[9] Chowning J.: The Synthesis of Complex AudioSpectra by Means of Frequency Modulation.Journal of the Audio Engineering Society, Vol.21, n. 7, 1973, p. 526-534.

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

0

0

1

36

[10] Computer Music Journal: Two Special Issues onPhysical Modeling. MIT Press, Vol. 16, n. 4 &Vol. 17, n. 1,Winter 92, Spring 93.

[11] Wallraff D.: The DMX-1000 Signal ProcessingComputer. Proceedings of the 1978 Internatio-nal Computer Music Conference. San Franci-sco: International Computer Music Associa-tion, 1978.

[12] Di Giugno G., Kott J., Gerzso A.: Progress Reporton the 4X Machine and Its Use. Proceedings ofthe 1981 International Computer Music Confe-rence. San Francisco: International ComputerMusic Association, 1981.

[13] International MIDI Association: MIDI MusicalInstrument Digital Interface Specification 1.0.North Hollywood: International MIDI Associa-tion, 1983.

[14] Moorer J. A.:On the Segmentation and Analysisof Continuous Musical Sound by Digital Com-puter. Ph.D. thesis, Dept. of Computer Science,Stanford University, 1975.

[15] Wold E., BlumT., Keislar D.,Wheaton J.: Content-

based classification, search and retrieval of au-dio. IEEEMultimedia, Vol. 3, 1996, p. 27-36.

[16] Dannenberg R.: AnOn-line Algorithm for Real-Ti-me Accompaniment. Proceedings of the 1984 In-ternationalComputerMusicConference.SanFran-cisco, CA: ComputerMusic Association, 1984.

[17] AA.VV. IEEE Std: 1599-2008: RecommendedPractice for Defining a Commonly AcceptableMusical Application Using XML. IEEE ComputerSociety Press, New York, 2008.

[18] Haus G.: Rescuing La Scala’s Audio Archives.IEEE Computer, Vol. 31, n. 3, IEEE CS Press,1988, p. 88-89.

[19] Baggi D., Baratè A., Haus G., Ludovico L.:NINA –Navigating and Interacting with Notation andAudio. Proceedings of the 2-nd InternationalWorkshop on Semantic Media Adaptation andPersonalization, London, IEEE Computer SocietyPress, 2007.

[20] Sundberg J., Askenfelt A., Frydén L.: Musicalperformance: A synthesis-by-rule approach.Computer Music Journal, Vol. 7, 1983, p. 37-43.

M O N D O D I G I T A L E • n . 1 - m a r z o 2 0 0 9

1

37

0

0

0

1

GOFFREDO HAUS è professore ordinario di Informatica all’Università degli Studi di Milano, dove è anche diretto-re di dipartimento e consigliere di amministrazione. Ha svolto ricerche di informatica applicata allamusica, al-l’audio e al multimedia, producendo più di 250 pubblicazioni. Goffredo Haus ha diretto e coordinato numero-si progetti, gruppi di lavoro, congressi. Tra questi, da citare i progetti per la IEEE Computer Society, il Teatro al-la Scala, il Teatro Bolshoi, il Ministero per i Beni e le Attività Culturali e il conseguimento del nuovo standardmusicale IEEE1599-2008.E-Mail: [email protected]