Il sound effects: elemento essenziale ma nascosto nel cinema

103
1 CONSERVATORIO DI MUSICA “G.VERDI” DI COMO Corso di diploma accademico di primo livello in discipline musicali Musica elettronica e Tecnologie del suono IL SOUND EFFECTS: UN ELEMENTO ESSENZIALE, MA NASCOSTO NEL CINEMA Il ruolo del sound designer in ambito cinematografico, dalla creazione e registrazione degli effetti sonori alla produzione definitiva della colonna effetti Relatore: Marco MARINONI Tesi finale di: Francesco SAITTA Matr. 2958 Anno Accademico 2014 - 2015

Transcript of Il sound effects: elemento essenziale ma nascosto nel cinema

  1  

CONSERVATORIO DI MUSICA “G.VERDI” DI COMO

Corso di diploma accademico di primo livello in discipline musicali

Musica elettronica e Tecnologie del suono

IL SOUND EFFECTS: UN ELEMENTO ESSENZIALE,

MA NASCOSTO NEL CINEMA

Il ruolo del sound designer in ambito cinematografico, dalla creazione e registrazione degli effetti sonori alla produzione definitiva della colonna effetti

Relatore: M° Marco MARINONI

Tesi finale di: Francesco SAITTA Matr. 2958

Anno Accademico 2014 - 2015

  2  

  3  

INDICE Introduzione p.5 Storia del cinema sonoro p.8 Sound designer p.19 Creare il sound design di un film p.25 Step per l’analisi e la creazione di un sound design per un film p.27 Sound effects, registrazione e creazione p.43 Tecniche di registrazione dei sound effects p.45 Il foley p.50 Tecniche di editing dei sound effects p.54 Relazione tra suono e immagine p.62 La colonna audio rapportata all’immagine p.66 Realizzazione di un cortometraggio p.76 Parte video La prova p.76 Parte audio La prova p.77 Tema musicale La prova p.80 Parte ritmica La prova p.83 Il trombone: timbro fondamentale p.86 Onde sinusoidali p.88 Foley vestiti p.92 Sound effects: footsteps p.93 Sound effects particolari p.94 Sincronismo tra audio e immagine di La prova p.97 Conclusione p.99 Bibliografia, sitografia p.100 Ringraziamenti p.102

  4  

http://www.buonavitacarpi.it/cinema-e-musica.html

“Il cinema è uno dei tre linguaggi universali; gli altri due sono la matematica e la musica”

Frank Capra

  5  

Introduzione La frase che avete appena letto, del defunto registra F. Capra, rispecchia in parte il mio pensiero nei confronti dell’arte, in quanto grazie a delle immagini o a dei suoni, il fruitore riceve direttamente dei concetti, delle emozioni e delle sensazioni. A volte, l’espressione e il significato che un artista vuole regalare al pubblico è filtrato da dogmi e regole ben precise, che vanno seguite affinché l’opera d’arte realizzata abbia un senso e possa essere etichettata in un determinato filone estetico, ma se questo non avviene, si va incontro all’incomprensione oppure ad una scissione con il pensiero passato artistico, diventando così icona di un nuovo movimento o di una nuova estetica. La frase affermata dal regista F. Capra ha però un concetto che mi vede totalmente contrastante, poiché non è vero che il cinema è un linguaggio universale, ma è figlio di altre arti ed è relativo al contesto culturale in cui si vive. La musica e la matematica invece, sono sullo stesso piano, in quanto la seconda risiede nelle prima. Il cinema durante la nascita del pianeta Terra non esisteva, mentre il suono e il principio dell’unicità e della pluralità si sono affermati subito. Potremmo parlare di un’ immagine fissa come ad esempio un disegno, un quadro o una fotografia, ma non si può affermare che il cinema è sullo stesso livello delle altre due, poiché da solo tende ad avere una mancanza. Esso nasce come un’interazione tra suono ed immagine in movimento, di conseguenza risulta essere il figlio di queste due arti. Un autore con cui mi trovo pienamente d’accordo è Béla Balàzs, il quale ha affermato che:

“è caratteristico il fatto che si nota subito l’assenza della musica, mentre non si bada affatto alla sua presenza. Qualsiasi musica va bene per qualsiasi scena….La musica infatti suscita visioni del tutto differenti che ostacolano quelle presenti sullo schermo, se entrano in contatto troppo intimo con esse”1

Il pensiero di Béla Balàzs va in contrasto con quello di F. Capra, poiché sta affermando esattamente che la musica ha una propria esistenza, nasce, cresce e muore come un essere umano o un organismo vivente; la musica vive. Al contrario il cinema non risiede nella natura, non possiede un principio di universalità e di esistenza propria. Siamo noi uomini che l’abbiamo creato unendo il

                                                                                                               1  http://www.wuz.it/appunti-­‐scuola/907/musica-­‐del-­‐cinema-­‐muto.html  

  6  

suono all’immagine, di conseguenza la frase di F. Capra ha ragione di esistere solo se al posto della parola cinema vi fosse la parola immagine. Il progetto che mi sono posto di sviluppare consiste nella realizzazione di un intero cortometraggio occupandomi sia della parte video che della parte audio. Questa idea mi è venuta facendo conciliare il mio indirizzo di studio con i miei hobby e i miei lavori passati in campo teatrale. Durante questi tre anni al conservatorio, ho affrontato degli argomenti inerenti soprattutto alla post-produzione audio-video e alla creazione di foley e vocal sketch. Durante il secondo anno di musica elettronica abbiamo lavorato ad un progetto che aveva come tema l’impatto ecologico e ambientale dell’acqua a Como e sotto la supervisione del maestro M. Marinoni ho realizzato la composizione “Energy”2, la quale rievoca in maniera semi-astratta i processi che avvengono nelle centrali idroelettriche. In questa creazione ho cercato di umanizzare l’acqua cercando di trasmettere al fruitore uno stato di angoscia dato dalla chiusura e dalla pressione a cui l’acqua è sottoposta. Sempre per questo progetto ho realizzato un video, il quale non aveva riferimenti descrittivi di ciò che realmente avveniva in una centrale idroelettrica, bensì era contrapposto al concetto, in quanto proponevo delle immagini opportunatamente modificate dell’elemento goccia-acqua. Un altro corso che ha influenzato parecchio la mia scelta è stato quello del maestro S. Delle Monache, con il quale abbiamo tenuto un laboratorio incentrato sul sound designer, che doveva sviluppare con determinate esigenze un sound design di un prodotto specifico aziendale. Durante una giornata di questo corso, il maestro ha suggerito all’intera classe di realizzare prima tramite vocal sketch, (produzione sonora tramite la bocca e la voce umana) e poi con la creazione di foley, la sonorizzazione di un piccolo cortometraggio animato con delle esigenze stabilite in partenza. Dopo vari tentativi ed esperimenti andati male, siamo riusciti a realizzare il suono del fuoco, il suono del vento e altri suoni commissionati per il cartoon. Un elemento che mi ha affascinato moltissimo è stato appunto questo, la creazione di un suono partendo da materiali non associabili alla vera fonte, come ad esempio il fuoco, ottenuto solo dal crepitio di una carta stagnola e dallo sfregamento delle unghie sopra una tavola di legno.

                                                                                                               2  https://www.youtube.com/watch?v=6Q3Bhs0nHBk  

  7  

Tutti questi laboratori mi hanno fatto maturare la scelta tematica per questa tesi finale e quello che andrò a dimostrare e ricercare, riprendendo il discorso fatto nelle prime pagine dell’introduzione, è l’importanza del suono all’interno del cinema. Per fare ciò realizzerò un cortometraggio della durata di circa cinque minuti con l’obiettivo di analizzare tutte le fasi che un sound designer di cinema svolge per creare una colonna effetti finita. Questo implica una ricerca approfondita sulla creazione e registrazione degli effetti sonori, sulle fasi di progettazione e studio dell’immagine del sound designer, sulla relazione che vi è tra suono e immagine e sul perché il suono è entrato a far parte dell’immagine cinematografica.

  8  

Storia del cinema sonoro Molte persone pensano e credono che il cinema sia un’ insieme di immagini successive e suoni sincronizzati nati insieme e sviluppati in ugual modo, ma questa affermazione è del tutto sbagliata. I film che andiamo a vedere in una sala cinematografica o in televisione in realtà sono il risultato di un processo di miglioramento e sviluppo continuo iniziato nei primi del ‘900. Spiegare sinteticamente e in modo dettagliato come nasce il cinema e come si è sviluppato negli anni diventa molto difficile, anche perché il fine di questa tesi non riguarda la storia del cinema, bensì tutto l’aspetto sonoro legato ad esso. Bisogna innanzitutto dire che il suono, al contrario di quello che molti pensano ad esempio del cinema muto, ha fatto sempre parte di questa nuova arte visiva anche se era messo in secondo piano. Nei capitoli successivi illustrerò in modo chiaro e sintetico, grazie anche al supporto del libro di Paola Valentini, Il suono e il cinema, l’evoluzione che ha avuto il sound in ambito cinematografico, partendo dal cinema muto sino ad arrivare ai giorni nostri, dove prende spazio il mestiere del sound designer.

Il cinema muto Durante gli anni del cinema muto vi furono delle sperimentazioni sonore per poter affiancare all’immagine dei suoni in maniera sincronizzata. Il primo a brevettare un apparecchio in grado di fare quest’azione fu Thomas Alva Edison, il quale nel 1895 creò il kinetoscopio e il cylinder recorder3. Durante l’esposizione universale di Parigi del 1900, Henri Lioret e Gratioulet Clément-Maurice mostrarono il Phono-Ciné-Théatre, presentando il film Le duel d’Hamlet4 (1908, C. Maurice). Questo strumento all’epoca permetteva in fase di produzione una sorta di doppiaggio degli attori dopo aver ripreso le immagini. Durante la proiezione al pubblico, il fonografo veniva messo nella buca dell’orchestra del teatro e l’addetto alla proiezione, doveva adattare la velocità della manovella dell’apparecchio affinché le immagini e il suono risultassero sincronizzate. Sempre all’esposizione universale di Parigi, però del 1898, venne presentato il Phonorama5 di H. Berthon, F. Dussad, F. Jaubert.                                                                                                                3 Una prima versione del futuro fonografo, ulteriori dettagli con foto http://en.wikipedia.org/wiki/Phonograph_cylinder 4  spezzone del film “Le duel d’Hamlet” https://www.youtube.com/watch?v=aXh9IbESHA0  

  9  

Questo brevetto permetteva una fruizione sonora differente, in quanto il suono veniva percepito dal pubblico tramite delle cuffie telefoniche, grazie a dodici fonografi sincronizzati con la pellicola proiettata. Il Chronophone6 è un altro sistema per la sonorizzazione e la diffusione sonora dei filmati, che fu inventato e commercializzato da Léon Gaumont sempre nel 1900. A questo brevetto si deve una maggiore amplificazione del fonografo durante la diffusione del suono nella sala di proiezione, permettendo una maggiore fruibilità per tutti gli spettatori. Anche in Italia vi furono delle sperimentazioni in questo settore e una di queste è sicuramente il brevetto del 1907 di Azeglio e Lamberto Pineschi, che consisteva nella sincronizzazione delle immagini con un grammofono. Tutte queste invenzioni e progetti però erano risultati vani nei primi decenni del 1900, poiché il cinema muto, per definizione stessa, non conteneva nessun dialogo e colonna sonora, ma siamo sicuri che questa tipologia di cinema era effettivamente silenziosa senza nessun suono udibile? Per coprire il rumore fastidioso del proiettore, spesso l’immagine sullo schermo veniva accompagnata da un pianista che eseguiva o improvvisava su determinati stili e generi musicali (il più utilizzato era il ragtime) delle melodie, armonie e ritmi totalmente sconnessi all’immagine. Un altro elemento sonoro che descriveva la narrazione di ciò che avveniva durante la proiezione dell’immagine era il bonimenteur. L’imbonitore aveva il compito di commentare le scene del film enfatizzando delle situazioni drammatiche oppure semplicemente leggendo ad alta voce le didascalie del video. Un altro aspetto molto importante durante questa fase storica del cinema, è l’introduzione dei rumoristi nella sala di proiezione. Essi avevano a disposizione numerosissimi attrezzi e materiali per creare e generare dei suoni simultanei alle scene proiettate del film. Uno dei pionieri di questo settore è un italiano, Luigi Russolo7, il quale ha avuto anche l’opportunità di sonorizzare a Parigi con il suo “Rumorarmonio” alcuni film della Fox Movietone, presso lo “Studio 28”. Come abbiamo potuto notare sin qua, l’idea che ci è stata trasmessa pensando che il cinema muto fosse privo di sonorità è totalmente sbagliata.

                                                                                                                                                                                                                                                                                                                                                         5  ulteriori informazioni e immagini su http://www.phonorama.fr/  6  http://en.wikipedia.org/wiki/Chronophone  7  esponente del Futurismo http://www.homolaicus.com/arte/futurismo/provocazione/russolo.htm; per un approfondimento sonoro: https://www.youtube.com/watch?v=VHLmitA3o6g  

  10  

Nel 1927 venne proiettato nei migliori cinema italiani il film “La grande parata” di K. Vidor; esso era accompagnato da rumoristi che, grazie a macchinari dell’esercito, riuscivano a riprodurre in maniera molto fedele i tipici rumori “bellici” della guerra, come ad esempio il crepitio della mitragliatrice, lo sparo del cannone, il sibilo delle pallottole, ecc… Riporto ora un pensiero condiviso di Paola Valentini sul cinema muto:

“Piuttosto che isolato e distante come la visione di un film muto suggerirebbe – una deformazione del tempo alimentata dalla sacralità e dal religioso silenzio con cui spesso sono state fruite queste pellicole nel buio dei cineclub, delle cineteche e degli archivi – lo spettatore delle origini appare quindi immerso in una bolla di suoni in cui un ruolo centrale gioca naturalmente la musica”8

Come avete potuto leggere l’ultima parola della citazione riportata è musica. La musica ricopre un ruolo fondamentale nel cinema, ma ha un tragitto indipendente rispetto ai sound effects e alla sonorizzazione dei film. Il 17 novembre 1908 a Parigi venne presentato il film L’assasinat du duc de Guise (1908, Charles-Gustave Auguste Le Bargy e André Calmettes). Questo lungometraggio scinde con la visione della musica come accompagnamento delle immagini, facendola diventare una risorsa centrale dello spettacolo cinematografico. La musica in questo film veniva eseguita dal vivo da un’imponente orchestra e questo generò un forte coinvolgimento emotivo per gli spettatori dell’epoca.

L’inizio del cinema sonoro Alla fine degli anni ’20, vi fu un passaggio radicale al cinema sonoro grazie alla realizzazione dei nuovi brevetti per la registrazione e la diffusione sonora. Sin dal 1900 vi furono delle sperimentazioni a riguardo, ma esse non ebbero un enorme successo. Il 6 agosto 1926, al Warner Theater di New York, venne proiettato il Don Juan (1926, Alan Crosland). Questo film rappresenta la scissione con il cinema muto, infatti permetteva un nuovo modo di fruizione sonora per il pubblico.                                                                                                                8  Valentina Paola, Il suono nel cinema. Storia, teorie e tecniche, (Collana Elementi), Venezia, Marsilio, 2006, 190 p.  

  11  

La Warner Bros in quegli anni stava per andare in bancarotta, ma grazie al successo avuto da questo brevetto chiamato sound-on-disc e al lavoro continuo di artisti e ingegneri della Western Electric, riuscì a realizzare il primo film sonoro e a risollevare le proprie finanze. Il Don Juan non possedeva alcun dialogo tra gli attori, ma era ricco di numerosi sound effects ed una colonna sonora registrata direttamente dalla New York Philarmonic. Dopo questo enorme successo ottenuto, i fratelli Warner decisero di finanziare un altro film che riuscì a far incassare alla compagnia tre milioni e mezzo di dollari. Il 6 ottobre 1927 venne proiettato sempre a New York Il cantante di jazz (1927, Alan Crosland, Gordon Hollingshead) che subito riscosse un alto gradimento del pubblico e riuscì ad accaparrarsi il primato di primo film sonoro. La differenza sostanziale tra il Don Juan e quest’ultimo è l’uso della parola, poiché in Il cantante di jazz oltre alla bellissima voce di Al Jolson, erano presenti tra gli stacchi di un brano e l’altro alcune frasi parlate, che l’attore rivolgeva al pubblico durante la scena. Una di queste locuzioni proverbiali è una metafora del passaggio dal cinema muto al cinema sonoro: “Non avete ancora sentito nulla!”9. Con questa introduzione del suono, dopo qualche anno si cambiò sistema di acquisizione sonora, infatti si passò dal sound-on-disc, un disco fonografico sincronizzato al film con una registrazione meccanica, al sound-on-film, registrazione fotoelettrica (suono ottico). Dopo Il cantante di jazz si produssero tantissimi film con dialoghi e voci parlate, ma queste voci erano esclusivamente in inglese, di conseguenza tutti i paesi con una lingua diversa non avevano la possibilità di fruire del film in modo completo. Questo evento portò alle grandi Major cinematografiche un cambiamento nel sistema di produzione per il mercato estero:

• Versioni multiple: i film prodotti venivano registrati in differenti versioni con attori e registi diversi, adattando il dialogo nelle diverse lingue, quali: l’italiano, il francese, il tedesco, ecc… A volte si arrivava anche a tredici versioni diverse del film con cast sempre differenti l’uno dagli altri.

• Doppiaggio: le major perdettero molti investimenti utilizzando le versioni multiple, così decisero di sperimentare un’altra forma per il mercato estero, quella del doppiaggio. Il doppiaggio è:

                                                                                                               9  frase famosa del film Il cantante di jazz del 1927  

  12  

“Tecnica consistente nel registrare il parlato in un tempo successivo a quello della ripresa, usata anche per consentire la traduzione del film in lingue diverse dall'originale”10.

Dopo la nascita del primo stabilimento di doppiaggio italiano voluto da Emilio Cecchi, in Italia si creò un vero e proprio studio di questa disciplina e tutt’ora, siamo tra i migliori al mondo in questo. L’ estetica sonora che ha accompagnato l’introduzione del suono nel cinema è abbastanza vaga, poiché è difficile ricondurre verso un’unica direzione tutti quei pensieri ed atteggiamenti volti a dare precedenza alla sperimentazione delle nuove tecnologie sul sound. Sergej Ejzenstein pubblicò il 5 agosto 1928, assieme a Vsevolod Pudovkin e Grigorij Aleksandrov, il “Manifesto del contrappunto orchestrale” dove veniva spiegata la visione generale estetica di quegli anni, basata su:

“L’impiego contrappuntistico del suono rispetto all’immagine”11

Il suono si aggiunge durante il montaggio non più in modo orizzontale, bensì verticale, dando all’immagine un arricchimento narrativo. Questo tipo di procedimento non differenzia più l’immagine con il suono, ma lavora sul principio del contrappunto, scomponendo e facendo interagire i vari elementi audio-visivi, affinché vi sia una stimolazione delle differenti sfere percettive nello spettatore.

Il suono durante il cinema classico Dopo il 1930 vi è una standardizzazione del suono così viene riportato sul bordo esterno della pellicola 35mm tra il fotogramma e le perforazioni. Il sistema di diffusione sonora che veniva sempre più impiegato nelle sale cinematografiche era, attorno al 1935, un unico altoparlante centrale, posto dietro il telo di proiezione dell’immagine. Questo rapido e brusco cambiamento dal muto al sonoro porta alla nascita del producer system12 , un sistema di produzione che vedeva come capo decisionale assoluto il produttore; egli aveva la facoltà di controllare l’intera realizzazione e

                                                                                                               10  http://dizionari.corriere.it/dizionario_italiano/D/doppiaggio_2.shtml  11  Paola Valentina, op. cit., p.38 12  Paola Valentina, op. cit., p.47  

  13  

plasmarla a suo piacimento causando lo Studio look13, differente per ogni casa di produzione. Registi, autori e attori europei migrarono verso l’ America per problemi legati alla politica, ma soprattutto per arrivare a Hollywood14. I metodi di registrazione e produzione cinematografica sono totalmente cambiati con l’introduzione del sonoro, infatti durante il cinema muto si potevano girare contemporaneamente più scene in uno stesso studio anche avendo rumori infernali dei macchinisti che spostavano e montavano scenografie mentre si riprendeva; con la ripresa diretta dei dialoghi e di determinate sonorità questo venne cancellato immediatamente per poter ottenere una pulizia sonora migliore. In quegli anni non vi era la possibilità di creare un missaggio sonoro o di registrare in multi-traccia, di conseguenza tutti i sound effects e i commenti sonori eseguiti dall’orchestra venivano registrati simultaneamente all’azione che si stava riprendendo con la telecamera. Il continuo cambiamento e migliorie dei sistemi di diffusione non erano sostenibili economicamente dai teatri e sale di piccole dimensioni, così la Western Electric e la RCA si imposero di attrezzare senza alcun costo tutti i teatri sprovvisti dell’ultima tecnologia sonora, a patto che essi non proiettassero altri film realizzati con sistemi sonori concorrenziali. Nel 1934 la MPPDA15 crea il Codice Hays, che consiste in una standardizzazione del suono per tutti i film, in modo da ottenere dei risultati costanti e omogeni di alta qualità. Nel 1938 venne introdotto grazie agli studi effettuati dall’ Academy of Motion Picture Arts and Sciences, l’ academy curve, che consiste nella standardizzazione dei livelli acustici che una sala cinematografica dovrebbe possedere. Durante questa fase il suono ha il compito di accompagnare l’immagine dando un rafforzamento narrativo a essa. L’estetica sonora di questo periodo prende due linee di pensiero distinte solo teoricamente:

• “Il consolidamento del racconto e dei meccanismi di proiezione e identificazione su cui si regge”16.

                                                                                                               13  stile di una casa di produzione che genera nello spettatore delle aspettative ben precise, date dal marchio di fabbrica o dal logo; per ulteriori approfondimenti: http://www.lacooltura.com/2015/04/rewind-the-tape-la-nascita-dello-studio-system/ 14  zona cinematografica dove risiedono major prestigiose, teatro, cinema e casa dei V.I.P; per ulteriori informazioni: http://it.wikipedia.org/wiki/Hollywood  15  Motion Picture Producers and Distributors Association  16  Paola Valentina, op. cit., p.55  

  14  

• “Il rispetto e il rafforzamento della continuity e il mascheramento dell’irrimediabile frammentarietà del cinema”.

Nel cinema classico il dialogo, quindi la parola, è gerarchicamente al di sopra di ogni suono presente all’interno della scena. Si parla di sneaking in o sneaking out, quando la musica o un effetto sonoro ha il compito di entrare ed uscire senza farsi notare dallo spettatore, limitandosi appunto a strisciare tra il dialogo degli attori. Uno degli esempi più eclatanti è possibile ritrovarlo nella scena finale di Via col vento17 (1939, Victor Fleming), dove il protagonista Rhett Butler dice: “Francamente mia cara me ne infischio” senza alcun altra sonorità in primo piano. Andandosene via dalla scena l’attore porta con se l’introduzione della musica che diventa la protagonista del momento, spodestando la parola. Un altro fattore molto particolare del cinema classico è l’utilizzo degli effetti sonori, i quali non devono mai farsi notare dall’udito dello spettatore in modo plateale. Un'altra linea di pensiero riguardante il suono è la sua capacità di dare un continuo alla narrazione, nascondendo tutti quei cambi di inquadratura che da soli risulterebbero “fastidiosi” alla visione. Questa tecnica è chiamata sound bridge o overlapping dialogue ed è stata e continua ad essere utilizzata nei film, come ad esempio Quarto potere (1941, O. Welles) dove:

“l’applauso solitario di Charles Kane dissolve con un opportuno intervento sul volume e timbro, in quello più sonoro dei passanti radunati che ascoltano la campagna elettorale fino a quello fragoroso degli elettori che nell’auditorium lo acclamano”.18

In questi anni prende piede il leggendario rumorista Jack Foley, il quale lavorò per la Universal, stabilendo un nuovo metodo di lavoro per la registrazione sonora dei rumori, slegati molto spesso dalla fonte sonora dell’immagine proiettata. Nei capitoli successivi mostrerò in maniera dettagliata l’argomento foley, dando una classificazione e un metodo di lavoro per la loro creazione. L’estetica del cinema classico si è formata e cristallizzata anche grazie alla differenziazione dei generi cinematografici, come ad esempio il musical, il quale fa da ponte tra il cinema muto e quello sonoro.

                                                                                                               17  scena finale del film:  https://www.youtube.com/watch?v=QNGHxwBOZtM  18  Paola Valentina, op. cit., p.58  

  15  

Nei film horror e fantasy vi è una continua ricerca di nuove sonorità e rumori che ricreano delle “caratteristiche misteriose dello spazio”19, ma è nella commedia che il suono acquisisce una rilevanza fondamentale nascosta. In questo genere la colonna sonora deve risultare invisibile all’ascolto dello spettatore, poiché essa aiuta l’immagine a dare un certo tipo di dinamismo alla narrazione. Nel 1940 venne proiettato al Broadway Theater di New York il film d’animazione Fantasia (1940, vari registi20) della Walt Disney; molti critici attribuiscono a questo evento il passaggio tra il passato del cinema classico e il futuro del cinema moderno, infatti, questo cartone animato poteva contare su numerosi effetti sonori creati appositamente per delle scene ben stabilite con una musica senza paragoni scritta da Leopold Stokowki. Per la prima proiezione è stato costruito all’interno del teatro un nuovo sistema di diffusione sonora con tre altoparlanti dietro lo schermo e sessantacinque piccoli diffusori piazzati su tutta la sala. Questa innovazione ha portato a valorizzare e a sfruttare la direzionalità dei suoni, dando allo spettatore una diversa e sbalorditiva esperienza mai provata in quel periodo.

Il suono nel cinema moderno Con la sentenza antitrust del 1948, la quale imponeva alle Major hollywoodiane un minor controllo nel settore cinematografico e con la nascita della televisione e della politica del Dopoguerra, iniziò un nuovo periodo storico del cinema che prende l’aggettivo moderno. Molti investimenti furono fatti per tutta la sfera sonora e si ottennero così varie innovazioni, come ad esempio la stereofonia e la rivoluzione del nastro magnetico. Il nastro magnetico permetteva una registrazione multicanale, ma soprattutto poteva essere impresso nei due lati della pellicola tra il fotogramma e la perforazione. Il primo film con il suono stereofonico magnetico venne proiettato nel 1953 ed era La tunica (1953, H. Koster). Questo lungometraggio poteva confidare nel sistema del Cinema-Scope21 a quattro tracce, il quale permetteva un high fidelity, ossia una fedeltà sonora mai ascoltata prima.                                                                                                                19  Paola Valentina, op. cit., p.62  20  registi fantasia:  https://www.google.com/search?q=fantasia+walt+disney&ie=utf-8&oe=utf-8#q=fantasia+disney+registi&stick=H4sIAAAAAAAAAOPgE-LQz9U3yCosqdISy0620k_LzMkFE1YpmUWpySX5RQCIhfC6JAAAAA  21    Per un ulteriore approfondimento dell’argomento: http://www.treccani.it/enciclopedia/cinemascope_%28Enciclopedia-del-Cinema%29/  

  16  

Come tutto nasce, tutto muore, infatti il Cinema – Scope cessò di esistere verso la fine degli anni Sessanta, a causa dell’introduzione di nuove tecnologie, come il Panavision22 e il Perspecta Optical Directional Sound, che indirizzava i suoni in base a dei segnali sonori subacustici a bassa frequenza, su tre altoparlanti amplificati posti dietro lo schermo, tarati rispettivamente per accogliere suoni da 30 Hz (sinistra), 35 Hz (centro) e 40 Hz (destra), facendoli variare di intensità e di volume, creando così un effetto maggiore di profondità”23. L’estetica sonora che si sviluppò durante questo periodo si divideva in due pensieri totalmente opposti l’un l’atro. Il primo riguardava il mito della verità del suono attuo a dare una forte autenticità e profondità all’immagine, mentre il secondo riguardava il mito della fedeltà sonora, che aveva come obbiettivo quello di portare un realismo sonoro quotidiano nell’immagine. Il cinema moderno rompe con il cinema classico nell’aspetto sonoro, poiché l’importanza principale non è data solo al dialogo tra gli attori, ma anche ad altri elementi sonori presenti o aggiunti alla scena.

“Io credo al dialogo ma è solo una parte del sonoro. Per me un sospiro, lo scricchiolio di una porta, dei passi sul selciato possono essere altrettanto eloquenti di un dialogo”24

Questa affermazione fatta dal regista Jean Renoir mette in luce chiaramente la visione di quel periodo storico riguardante appunto il suono nel cinema. L’arte del foley venne messa in discussione poiché essa avveniva in post-produzione e non in presa diretta, di conseguenza il suono risultava non essere legato alla realtà, quindi non vero.

Il suono nel cinema contemporaneo Questo periodo storico che inizia attorno al 1967, è ancora in continuo sviluppo e si pone come visione in mezzo, tra quello classico e quello moderno. Nel corso di pochi decenni, la continua sperimentazione di nuove tecnologie sonore e video hanno portato uno sviluppo esponenziale di strumenti e abilità tecniche

                                                                                                               22    Un sistema sonoro che abbinava oltre alle quattro tracce magnetiche anche una ottica  23  Paola Valentina, op. cit., p.78  24  Paola Valentina, op. cit., p.87  

  17  

immense, come ad esempio la digitalizzazione del suono e di altri campi multimediali. Nel 1986 venne introdotto sul mercato il Dolby SR25 creato dall’americano Ray Dolby che ancora adesso è il sistema di diffusione audio più utilizzato. Gli antenati del Dolby SR, come ad esempio il Dolby A, erano stati progettati per poter sfruttare al meglio la registrazione magnetica che consentiva di ampliare le possibilità di missaggio. La “noise reduction”, introdotta sempre da R. Dolby per questi sistemi di diffusione, portava una migliore qualità sonora con una pulizia d’ascolto incredibile. Tutte queste nuove invenzioni, avvenute nell’arco di pochi decenni, sono state sperimentate in capolavori cinematografici come:

• Arancia Meccanica (1971, S. Kubrick)

• Lisztomania (1975, K. Russel)

• Star Wars (1977, G. Lucas)

• L’ultimo valzer (1978, M. Scorsese)

• Apocalipse now (1979, F.F. Coppola), primo film con suono magnetico surround a sei piste con formato 5.1, uguale all’odierno sistema di diffusione con tre canali dietro lo schermo, due di surround che avvolgono la platea e uno per le basse frequenze.

• Robocop (1987, P. Verhoeven), con l’introduzione del Dolby Stereo SR e del quinto canale detto subwoofer, il quale aveva il compito di rafforzare tutti gli effetti sonori dell’immagine.

Con l’avvento della digitalizzazione multimediale vi sono sin ad oggi continui miglioramenti e nuovi lanci sul mercato di sistemi di diffusione, software per il missaggio o mastering, tecniche di ripresa, ecc… Mettendo in rapporto il primo vero film sonoro, Il cantante di Jazz e tutto quello che è venuto in seguito possiamo notare che la tecnologia ha avuto una evoluzione rapidissima.

                                                                                                               25   Consultare il seguente pdf per avere notizie specifiche e storiche dell’argomento proposto: http://www.pacificav.com/library/Dolby%20Surround%20History.pdf

  18  

Il suono nel cinema postmoderno Dopo tutte queste grandi innovazioni audio e video già alla fine del cinema contemporaneo si iniziò a creare la figura del sound designer che vedremo nello specifico nei capitoli successivi. Avendo raggiunto l’obbiettivo di un metodo di diffusione sonoro affermato, il suono tende ad acquisire nuove caratteristiche durante la proiezione del film. I sound designer sono alla continua ricerca e creazione di sonorità che tendono ad enfatizzare l’immagine, dando allo spettatore un’esperienza unica mai provato prima. I “low frequency effects” vengono utilizzati per dare delle vere e proprie vibrazione di forte impatto che colpiscono direttamente il corpo dello spettatore generando un emozione anche fisica. In questo periodo vengono stabilite in modo gerarchico le figure professionali riguardanti il sonoro cinematografico26:

• Sound designer

• Production recordist o sound mixer

• Boom operator

• Sound editor

• Recording mixer

• Artist foley

• Sound fx editor Come possiamo notare vi sono varie professioni, ognuna delle quali svolge un determinato ruolo nella “catena di montaggio sonora” per la realizzazione definitiva di un film.

 

                                                                                                                         26  Paola Valentina, op. cit., p.119  

  19  

Sound designer Il suono sin dalla preistoria ha fatto parte dello sviluppo dell’uomo, poiché possiede internamente delle caratteristiche che lo rendono una via di comunicazione. Esso veniva usato nel passato per avvertire la società di un determinato pericolo, oppure per organizzare delle attività o per scambiare messaggi di guerra, d’amore o di religione. David Sonnenschein27 paragona il sound designer ad un vecchio sciamano, in quanto quest’ultimo come il primo, ha il compito di utilizzare il suono per poter evocare dei miti, sospendere la realtà e creare determinate emozioni fisico-percettive. Ma che ruolo svolge oggi il sound designer? Durante varie discussioni con musicisti e persone che lavorano in ambito video-musicale, ho riscosso numerose definizioni riguardanti questo impiego e del suo lavoro effettivo nei vari campi. Il luogo comune della definizione di sound designer è: “una persona che si occupa di tutta la sezione audio”. Da un certo punto di vista sono d’accordo con questa definizione molto approssimativa, ma questa frase presenta delle lacune abissali, in quanto il sound designer si dirama in diversi settori specializzati. Un esempio calzante è la professione del sound designer in campo cinematografico, sviluppatosi molto con l’avvento del cinema sonoro. In questo settore il suono, oltre a ricoprire un ruolo fondamentale con l’immagine, presenta numerosissime sfumature ed impieghi all’interno dell’intero progetto, come ad esempio l’artist foley o il compositore della musica da film. Durante i titoli di coda di un lungometraggio possiamo notare che sono presenti molti nomi all’interno della sezione audio/sonoro, poiché per la realizzazione di un progetto così enorme servono varie specializzazione, come ad esempio: il fonico, l’addetto alla registrazione dal vivo, ecc… Tutte questi professionisti del sonoro stanno gerarchicamente sotto al sound designer principale del film, il quale possiede il potere di dirigere secondo il proprio pensiero e la propria volontà tutte le componenti necessarie per la realizzazione finale del progetto. Paola Valentini28 nel libro Il suono nel cinema. Storia, teoria e tecniche, ha dato una definizione del termine sound designer che riporto qui in seguito:

                                                                                                               27  Autore del libro “Sound Design, the expressive power of music, voice, and effects in cinema”, ha lavorato come sound designer per film come: "Maangamizi, The ancient one", del 1999 diretto da M.Mhando e R.Mulvihill e per “Dreams awake”, del 2010, diretto da J.A.Deal  28  Ricercatrice presso l’Università di Firenze, dove insegna “Storia della radio e della televisione” e “Storia del cinema”  

  20  

“Al sound designer è chiesto non solo di supervisionare e controllare la resa sonora del film ma di creare un certo suono, di disegnare un ambiente sonoro per lo spettatore e anche, sempre più spesso, di concepire e realizzare uno specifico effetto attorno al quale ruota tutta l’opera.”

La scrittrice inoltre afferma che il sound designer deve dare un imprinting sonoro al film, con una propria idea e firma che lo contraddistingue. Come vedremo nei capitoli successivi riguardanti la stesura di una mappa sonora per un lungometraggio , sin dalle prime fasi di progettazione del film, il sound designer lavora a stretto contatto con il regista e con gli altri collaboratori, come ad esempio il responsabile degli effetti speciali. Questi vari incontri di confronto servono per poter acquisire più informazioni possibili riguardo l’intero progetto, affinché si arrivi insieme a creare uno stile sonoro unico e inimitabile. Per poter diventare sound designer bisogna essere in possesso di specifiche abilità e conoscenze che si possono acquisire molto dall’esperienza e dagli studi condotti in determinate scuole, come ad esempio la sezione di musica elettronica del “Conservatorio di Como” oppure in altre accademie specializzate, come la “Civica di Milano”. Molti sound designer professionisti affermano, che per poter lavorare in questo ambito non è necessario avere in partenza dei requisiti da musicista, ma a parer mio questo è un errore, poiché essere in possesso di una conoscenza pratica della musica ed essere padrone di strumenti come l’armonia e la ritmica, permette di avere al “progettista del suono” un’ampia visione durante la creazione di un particolare effetto sonoro. Queste abilità inoltre rendono il sound designer consapevole dei limiti che si possono incontrare durante la realizzazione di un determinato suono prodotto da uno strumento tradizionale come ad esempio il violino.

“Sound design is all about creativity. Period. There is no right way, only better ways. Let your imagination run wild when trying to figure out solutions for different sounds.”

Questa frase scritta da R.Viers 29 , produttore di effetti sonori per librerie cinematografiche, mi ha molto affascinato, in quanto spiega e da una chiara definizione sul metodo di lavoro e creazione del sound designer.

                                                                                                               29  Ric Viers, sound effects producer, autore “Sound effects bible, How to create and record hollywood style sound effects”  

  21  

Realizzare un effetto sonoro significa appunto dare sfogo alla propria creatività e sperimentare il più possibile. Il metodo di lavoro fondamentale è che non esiste un metodo, ognuno può arrivare a generare un suono percorrendo una strada totalmente diversa rispetto ad un altro e questa strada si diversifica perché ogni sound designer ha un background d’esperienza differente. D.Sonnenshein30 sintetizza gli strumenti e le abilità che dovrebbe possedere un sound designer31 qualificato per poter lavorare al meglio:

1. Cronologia: organizzare in modo sistematico tutti i vari step che sono necessari per poter realizzare il sound design di un progetto.

2. Acustica: conoscere le proprietà del suono e la sua misurazione, come ad esempio la frequenza, la durata, il timbro, il riverbero.

3. Percezione: sapere tutti i meccanismi che si presentano durante l’assorbimento e l’interpretazione del suono da parte dell’orecchio umano.

4. Musicalità: essere in grado di rappresentare il suono dandogli delle caratteristiche musicali oltre che funzionali.

5. Fonetica: avere una conoscenza sulla produzione e sulla percezione dei suoni linguistici.

6. Audiovisione: utilizzare il suono associandolo ad un’immagine, conoscendo tutte le teorie, le potenzialità e i limiti che vi sono in questa relazione.

7. Emotività: saper dare al suono il giusto valore, associandolo ad esempio a uno stato emotivo di un personaggio di un film, entrando in sintonia e quasi in simbiosi con esso.

8. Descrizione: avere in mente una chiara categorizzazione e gerarchia del suono, come ad esempio effetti sonori di animali, di oggetti, di ambienti, ecc…

Un’altra caratteristica importante che deve avere il sound designer è la conoscenza delle ultime tecnologie in campo audio, soprattutto nel mixing e nella creazione dei sound effects. Il fatto di restare sempre aggiornati e informarsi sulle novità tramite magazine e riviste dedicate aiuta a rimanere a passo con i tempi, in modo da non restare indietro rispetto alla sempre più alta qualità sonora ricercata dai professionisti. Ric Viers nell’introduzione del suo libro scrive ai lettori e ai futuri sound designer:

                                                                                                               30  Sonnenschein David, Sound design. The expressive power of music, voice, and sound effects in cinema, s.l., Michael Wiese Productions, 2001, xxi p.  

  22  

“However, in order to be innovative it is also important to sometimes forget what we have learned so that we can reach for the horizon in hopes of achieving new sounds and techniques. Sometimes there is a fine line between thinking inside and outside the box. In either case, there is still a box. That box is the standard or constant in the equation. It is the benchmark by which all things are measured. There are reasons why there are rules and there are reasons to break those rules. So do not be intimidated by new challenges. Instead, be fortified with the knowledge and science of the art. But more importantly, be confident enough to experiment and explore. For it is then that you will cease to be a technician and become an artist.” 32

Il pensiero che avete appena letto non riguarda solo l’ambito del sound designer e del suono, ma può e deve essere utilizzato come ispirazione per chiunque. Un compositore di musica che ha appreso sin da bambino l’armonia classica, l’armonia jazz e tutta la sfera musicale che gli appartiene, deve essere in grado di poter creare qualcosa di innovativo e non rimanere incatenato nei dogmi e negli schemi degli studi passati. Una corrente nella storia della musica che ha completamente scisso con le regole e i dogmi passati, possiamo ritrovarla attorno ai primi anni del ‘900 ed è il Futurismo, il quale vedeva come autore di spicco un italiano: Luigi Russolo33. Gli esponenti del Futurismo musicale, stanchi degli insegnamenti irremovibili e idealizzati del conservatorio, propongono una musica totalmente fuori dagli schemi tradizionali, tant’è vero che durante i loro concerti il pubblico, non essendo abituato alla novità sonora, reagì spesso in maniera violenta. Ma qual è il motivo per cui la gente era così furiosa durante le varie rappresentazioni? I futuristi si staccano dall’armonia tradizionale che ha caratterizzato l’ascolto musicale fino a quegli anni, spostando l’attenzione non più sul perfetto equilibrio tra i vari gradi armonici della scala, bensì dando spazio e importanza al rumore. L. Russolo l’11 Marzo del 1913 pubblica “L’arte dei rumori”, dove espone l’utilizzo di quest’ultimi come suono principale nelle composizioni, abolendo del tutto i suoni armonici.

                                                                                                               32  Viers Ric, op. cit., p.55  33  Esponente di spicco del Futurismo, il quale è stato un compositore e pittore italiano  

  23  

I rumori derivano principalmente dalla sfera del quotidiano e vengono a volte, mescolati, e sovrapposti in modo disordinato senza alcuna organizzazione e gerarchia. I futuristi possiamo definirli come antenati del sound designer addetto alla creazione degli effetti sonori, poiché entrambi erano e sono alla ricerca di qualcosa di innovativo che non ha niente a che vedere con la musica tradizionale. Quando L. Russolo creava “l’intonarumori34” nel 1913, non sapeva che sarebbe stato fonte d’ispirazione per tutta la nuova generazione dei sound designer.

“Attraversiamo una grande capitale moderna, con le orecchie più attente degli occhi, e godremo nel distinguere i risucchi d’acqua, d’aria o di gas nei tubi metallici, il borbottio dei motori che fiatano e pulsano con una indiscutibile animalità, il palpitare delle valvole, l’andirivieni degli stantuffi, gli stridori delle seghe meccaniche, i balzi del tram sulle rotaie, lo schioccar delle fruste, il garrire delle tende e delle bandiere. Ci divertiremo ad orchestrare idealmente insieme il fragore delle saracinesche dei negozi, le porte sbatacchianti, il brusìo e lo scarpiccìo delle folle, i diversi frastuoni delle stazioni, delle ferrerìe, delle filande, delle tipografie, delle centrali elettriche e delle ferrovie sotterranee”35

Queste parole del pittore e compositore veneziano spiegano perfettamente come un sound designer si deve approcciare e porre nei confronti della natura e di quello che circonda la vita di tutti i giorni. Non bisogna sentire un suono, bensì bisogna ascoltarlo e analizzarlo. Durante il primo anno di musica elettronica presso il conservatorio di Como, con il corso di acustica e psicoacustica ho affrontato la passeggiata sonora, che consiste nell’attraversare a piedi un determinato luogo della città concentrandosi fortemente su ogni suono che viene percepito. Camminando e concentrandomi sull’ascolto della natura e del paesaggio, ho subito notato che la maggior parte delle persone durante la propria vita non ascolta, ma sente. Quando siamo a fare una grigliata con parenti o con amici in una pineta, veniamo bombardati da una moltitudine di suoni che percepiamo in maniera non consapevole.                                                                                                                34  Generatore di suono acustico che produce diverse tipologie di rumore: crepitatori, rombatori, scoppiatori, sibilatori, ululatori  35  Russolo Luigi., L’arte dei rumori, in Maffina, G. F.., Luigi Russolo e l’arte dei rumori, Torino, ed. Martano, 1978, p. 131  

  24  

La differenza tra una persona normale e un sound designer è la stessa tra il sentire e l’ascoltare. Durante la visione di un film al cinema o a casa, la persona comune si concentra solo su quello che vede e non su quello che sente e questo meccanismo avviene anche nella vita di tutti i giorni, infatti durante una passeggiata o mentre guidiamo la macchina, non facciamo caso ai suoni che ci colpiscono, o meglio, diamo loro solo una piccola attenzione associandoli sempre alla vista. Provate a far passeggiare una persona nella città di Milano lungo piazza Duomo e vedrete che se le domandate cosa ha ascoltato lei vi risponderà guardandosi attorno, associando i suoni a quello che sta vedendo nello stesso istante. Questo è dato dal non ascolto quotidiano che siamo abituati a fare durante le azione che svolgiamo. Come esperimento mi sono fermato cinque minuti nella piazza del duomo di Como per ascoltare i suoni che sono presenti durante il giorno ed ho notato alcune particolarità che sin a d’ora non avrei mai immaginato ci fossero, come ad esempio il battito delle ali dei piccioni che si alzano in volo a causa di un bambino che si avvicina troppo. Un sound designer deve avere questa caratteristica fondamentale, cogliere dalla quotidianità quel suono o quel rumore che potrebbe essere interessante se estrapolato dal suo contesto ed utilizzarlo, mischiandolo o manipolandolo con altri suoni o rumori, per poter creare così un sound originale per una determinata esigenza o progetto sonoro.

  25  

Creare il sound design di un film  Molti sound designer si sono chiesti quale fosse il metodo più funzionale per poter apportare al film la migliore qualità e idea a livello sonoro. Alcuni dei sound design più illustri nell’ambito cinematografico sono presenti nei colossal come Jurassic Park (1993, S. Spielberg) a cura di Gary Roger Rydstrom36 oppure in Star Wars (1977, G. Lucas) curato da Ben Burtt37. In Jurassic Park G. R. Rydstrom per ottenere il verso dei dinosauri ha utilizzato e mischiato il suono di diversi tipi animali. Quello che mi ha più affascinato è il verso del velociraptor, un dinosauro cacciatore di piccole dimensioni, che ha ottenuto registrando il verso di una tartaruga in calore, il nitrito di un cavallo e lo starnazzare dell’oca38. G. R. Rydstrom in un’intervista ha rilasciato queste parole:

“It's one of the secrets of sound design that if you slow something down, something small, it brings out elements of the sound that you could probably never get if you recorded something big."

 Con questo pensiero, l’autore da un implicito insegnamento ai futuri sound designer, ossia che a volte i suoni piccoli nascondono molti più dettagli dei suoni grossi se manipolati verso il basso nel pitch. Queste parole fanno riferimento al verso del tirannosauro Rex, che G. R. Rydstrom ha creato registrando e manipolando il ringhio del suo cane; ma il vero pioniere nel campo del sound design è Ben Burtt con l’innovativo film Star Wars di G. Lucas. Ben Burtt in un’intervista ha rilasciato:

"In my first discussion with George Lucas about the film, he - and I concurred with him - that he wanted an 'organic', as opposed to the electronic and artificial soundtrack. Since we were going to design a visual world that had rust and dents and dirt, we wanted a sound which had Squeaks and motors that may not be the smooth-sounding or quite. Therefor we wanted to draw upon raw material from the real world: real motors, real squeaky door, real insects;

                                                                                                               36  Sound designer che ha vinto numerosi premi oscar come “miglior sonoro” nei film “Terminator 2”, “Jurassik Park”, “Salvate il soldato Ryan” 37  Sound designer che ha vinto numerosi premi oscar come “miglior sonoro” nei film “Star Wars”, “E. T. l’extra-terrestre” 38  Ecco a voi un chiaro esempio di quello di cui ho parlato  https://www.youtube.com/watch?v=dnRxQ3dcaQk#t=154

  26  

this sort of thing. The basic thing in all films is to create something that sounds believable to everyone, because it's composed of familiar things that you can not quite recognize immediately"39

Il sound designer assieme al regista del film decisero di andare alla ricerca e di utilizzare suoni molto “grezzi” per il film, in modo da innescare all’interno dello spettatore un riconoscimento non immediato, ma familiare. Ecco a voi alcuni esempi sonori del film Star Wars che hanno influenzato e che continuano a influenzare le persone:

• R2-D2: la sua voce è stata costruita per il 50% da suoni elettronici, mentre per l’altra metà sono stati manipolati dei campioni sonori del fischio e dei vocalizzi di B.Burtt.

• TIE fighter: è il risultato di un’alterazione drastica del muggito di un elefante.

• Lightsaber: è una miscelazione sonora del televisore catodico di B.Burtt con il rumore di un vecchio proiettore da 35mm; essi sono serviti per creare il ronzio della spada.

• Imperial Walkers: suono ottenuto tramite la manipolazione audio di una punzonatrice.

                                       

                                                                                                               39  http://filmsound.org/starwars/  

  27  

Step per l’analisi e la creazione di un sound design per un film Quali sono gli step per un sound designer che si approccia per la prima volta all’ interazione audio-video nel campo cinematografico? D.Sonnenschein suddivide questo processo in una ventina di fasi che vi illustrerò in maniera sintetizzata ed ampliata, in modo da poter utilizzare queste fasi anche nel mio progetto e per lavori futuri.

Primo step: lettura della sceneggiatura40  In questa prima fase, il sound designer ha l’opportunità di leggere come il film è stato pensato prima che venisse ripreso e poi editato; questo processo da un’infarinatura generale della trama e mette in chiaro i primi elementi dello spazio e del tempo che il progettista del suono deve andare a creare. D. Sonnenschein suggerisce di appuntare le idee con la matita, leggendo le scene sempre con un’accurata attenzione. In questo processo oltre a scrivere le idee è necessario, però anche sottolineare le parole chiave senza una categorizzazione e gerarchizzazione. Per il mio progetto questa fase, come altre fasi successive, non è stata eseguita, poiché io stesso ho scritto la trama e la sceneggiatura di conseguenza so bene come si svolgono le intere sequenze.

Secondo step: cosa ascoltare per41  Dopo questa prima lettura con varie sottolineature delle parole chiavi e con spunti di idee realizzabili e non, si passa ad una categorizzazione di esse:

• Suoni espliciti

• Ambientazione

• Indizi emozionali

• Transizione drammatica o fisica

Per ottenere questa etichettamento nelle varie categorie, è necessario rileggere tutta la sceneggiatura e creare una sorta di legenda sonora scritta, dove ad esempio tutte le

                                                                                                               40  Sonnenschein David, op. cit., p.2 41  Sonnenschein David, op. cit., p.3  

  28  

parole cerchiate in rosso appartengono ai suoni emozionali, mentre tutte le parole sottolineate in blu appartengono invece ai suoni di transizione drammatica.

Suoni espliciti42 I suoni espliciti sono presenti direttamente nel testo che si sta leggendo e sono strettamente correlati ad esso. Ecco un esempio del mio progetto che aiuta a capire meglio le loro caratteristiche:

“I due protagonisti inseguiti dal “furioso” assetato di sangue, scappano freneticamente nel bosco, nascondendosi dietro ad un cespuglio per riuscire a salvarsi.”

In queste tre righe, se leggete attentamente, sono presenti molti elementi sonori espliciti. Il primo suggerimento riguarda la differenza tra i due protagonisti e il “furioso” (zombie). Ogni personaggio ha una propria caratteristica che lo contraddistingue, in questo caso i due protagonisti stanno scappando dal pericolo, di conseguenza il suono che ne verrà sarà molto irregolare con un forte impatto emotivo, mentre, quando i due si stanno per nascondere, il suono tenderà ad essere il più silenzioso e invisibile possibile, dove, anche il fiato dei protagonisti sarà molto soffocato in modo che il furioso non senta la loro presenza. I suoni espliciti quindi sono presenti nel testo e spetta al sound designer cogliere ogni possibile suggerimento e sfumatura che essi forniscono.

Ambientazione43 Questa categoria di suoni è strettamente collegata all’ambientazione della scena del film, infatti essa può essere di due tipi:

• Location esteriore: comprende tutte le location dove l’azione del film si svolge in uno spazio aperto, come ad esempio un bosco, il mare, la città, un prato.

• Location interiore: comprendere tutte le location dove l’azione della scena si svolge all’interno di un edificio, come ad esempio una camera da letto, una hall, sala di tribunale.

                                                                                                               42  Sonnenschein David, op. cit., p.3  43  Sonnenschein David, op. cit., p.5  

  29  

Durante la lettura bisogna trovare tutte le informazioni possibili dal testo estrapolando gli elementi che denotano l’insieme dei suoni ambientali. Oltre alla location esteriore ed interiore, l’ambientazione deve fornire il tempo del giorno, quindi se l’azione si svolge durante la mattinata oppure nelle ore notturne. Un altro elemento fondamentale è il periodo storico, poiché una scena ambientata in una strada di città del 1700, avrà dei suoni completamente diversi da una scena ambientata in una strada del XXI secolo. Per il mio progetto i suoni ambientali varieranno molto poiché, le scene del cortometraggio, avranno sia location interne che location esterne. Ambientazione cortometraggio:

• Location interne: camera da letto, cucina, sala.

• Location esterne: cortile, bosco appena fuori dal centro abitato.

• Tempo: mattina, sera (solo con la prima sequenza).

• Periodo storico: XXI secolo, un anno dopo l’ epidemia zombie

Indizi emozionali44 Durante la rilettura bisogna soffermarsi sulle parole, quasi spesso aggettivi o avverbi, che forniscono emotivamente la descrizione della scena. Ad esempio riprendiamo come riferimento una parte già analizzata in precedenza del mio cortometraggio: “I due protagonisti inseguiti dal “furioso” assetato di sangue, scappano freneticamente nel bosco, nascondendosi dietro ad un cespuglio per riuscire a salvarsi.” Le parole da cerchiare o evidenziare sono:

• Inseguiti

• Assetato di sangue

• Freneticamente

Tutte queste indicazioni danno al sound designer un quadro molto dettagliato della scena che si sta svolgendo con le relative emozioni associate.

                                                                                                               44  Sonnenschein David, op. cit., p.6  

  30  

In questa sequenza è presente la fame insaziabile dello zombie, la fretta di scappare, la paura di essere scoperti e di morire da parte dei protagonisti. D. Sonnenschein afferma che durante la lettura di una sceneggiatura sono presenti due livelli di emozione, quella primaria e quella secondaria. L’emozione primaria rispecchia lo stato emotivo dei personaggi nella scena, ed è strettamente legata ad essa, mentre l’emozione secondaria è in contrasto con la scena descritta ed avviene all’interno del lettore. Se ad esempio, guardando un film, noi spettatori veniamo a conoscenza di una trappola che dovrà uccidere il protagonista della vicenda narrata, avremo un’emozione totalmente diversa da quest’ultimo, il quale ignaro del complotto cascherà senza saperlo nell’imboscata. L’emozione primaria in questo caso sarà quella del protagonista che coraggiosamente va in contro a morte certa senza sapere nulla, mentre l’emozione secondaria sarà quella dello spettatore che è a conoscenza della futura fine del protagonista. Il sound designer deve tenere conto di queste caratteristiche durante la creazione dei suoni e durante il colloquio con il regista e il compositore musicale, in modo tale da andare tutti verso un’unica direzione.

Transizione drammatica o fisica45 Quando vi è un cambio di scena o un cambio di location, è presente anche un cambio di ambientazione sonora. I momenti di transizione vengono associati spesso quando ad un certo punto della storia vi è un punto di svolta nella trama. Il mezzo che comunemente permette questo cambiamento è chiamato “porta”, poiché conduce il personaggio in un nuovo spazio. La “porta” può essere di vario genere: una finestra, un cassetto, una grotta, una macchina, una piscina, ecc… Un esempio spesso utilizzato in ambito cinematografico è la transizione da una calma apparente ad un immediato spavento, che viene impiegata molto nei film horror. Questo bipolarismo estremo non è l’unico della sua specie, di seguito vi riporto altri elementi contrastanti:

• Aperto-chiuso

• Forte-piano

• Asciutto-eco                                                                                                                45  Sonnenschein David, op. cit., p.9  

  31  

• Pitch basso-pitch alto

• Vicino-lontano

• Vuoto-pieno

• Armonico-dissonante

• Amichevole-minaccioso Nel cortometraggio La prova, titolo del mio progetto, sono presenti molti punti di svolta che permettono questo bipolarismo estremo. Un chiaro esempio avviene nella sequenza “cortile cucina”, dove la co-protagonista femminile da uno stato di paura, angoscia e delirio, dato dalla presenza degli zombie in cortile, passa ad uno stato di calma e tranquillità apparente, grazie allo spazio protetto e privo di pericoli (cucina). Il sound designer deve tener conto di questi elementi di transizione in modo da poter collegare parallelamente il suono con l’immagine, realizzando un’esperienza unica all’audiovisore46.

Terzo step: raggruppamento delle parole chiave47 Dopo aver letto la sceneggiatura e aver sottolineato le parole chiave con la relativa categorizzazione vista in precedenza, si passa ad un raggruppamento logico basato su un contrasto bipolare; prendiamo come esempio il contrasto che vi è tra le parole “chiaro” e “scuro”. Nella prima metteremo tutte le voci che hanno degli aspetti simili o che si avvicinano alla “chiarezza”, mentre nella seconda metteremo tutti quei termini, sottolineati in precedenza, che hanno una somiglianza o che appartengono all’ “oscurità”. Ecco un esempio di raggruppamento di D. Sonnenshein per il film Negociação Mortal (2001, Keoni Waxman):

                                                                                                               46  Chion Michel, L’audiovisione. Suono e immagine nel cinema, (Collana Saggi), 4 ed., s.l., Lindau, 2009, 192 p., (Traduzione: Buzzolan D.)  47  Sonnenschein David, op. cit., p.10  

  32  

Sonnenschein David, Sound design. The expressive power of music, voice, and sound effects in cinema, s.l., Michael Wiese Productions, 2001, p. 11

Come potete notare vi sono termini totalmente agli antipodi che vengono messi in relazione e in contrasto. Questo passaggio è fondamentale per la fase successiva che consiste nel disegnare una mappa sonora per ogni relazione che vi è fra due termini, ad esempio: “winner” e “loser”. Durante questo processo di analisi e categorizzazione, capita spesso che il bipolarismo non basta, di conseguenza verrà applicata una relazione tripolare, tra le varie voci sottolineate.

Quarto step: disegno della mappa audio-visiva48 Sarà capitato anche a voi di scarabocchiare, con una penna o una matita durante la spiegazione dell’insegnante a scuola, ma stavolta sarà uno scarabocchio utile per la realizzazione finale del sound design del film. Disegnare la mappa sonora significa semplicemente creare un asse cartesiano che ha come ascisse lo sviluppo della trama del lungometraggio con i momenti principali, mentre come ordinata la presenza del bipolarismo di una determinata voce. Ecco di seguito un esempio sempre del sound designer D. Sonnenschein:

                                                                                                               48  Sonnenschein David, op. cit., p.12  

  33  

Sonnenschein David, Sound design. The expressive power of music, voice, and sound effects in cinema, s.l., Michael Wiese Productions, 2001, p. 13

Come visibile dall’immagine vi è il bipolarismo di “life” e “death” nell’ordinata, mentre nell’ascissa vi sono i cinque punti fondamentali della trama del film. Il disegno che risulta, mostra chiaramente dove la “morte” e la “vita” sono presenti maggiormente durante lo svolgimento della narrazione cinematografica. Tutti gli elementi oscuri, le grida, la meccanicità (vedi capitolo precedente sui raggruppamenti delle voci) che risiedono all’interno della parola “morte”, hanno un impatto maggiore a metà e nel finale della trama, mentre gli elementi riguardanti la “vita” dominano nella prima parte e nell’inizio della seconda parte della narrazione. Questo processo di analisi grafica del suono deve essere ripetuto per tutti i raggruppamenti effettuanti nello step precedente e quello che ne risulterà sarà simile a questo grafico oppure con molte più linee:

Sonnenschein David, Sound design. The expressive power of music, voice, and sound effects in cinema, s.l., Michael Wiese Productions, 2001, p. 14

  34  

Il sound designer deve entrare con il suono nella narrazione e questo metodo grafico è molto utile, poiché permette di ottenere un chiaro andamento della trama con i suoi punti cruciali, dove il sound, avrà il compito di rafforzare o indebolire l’impatto drammatico ed emotivo dato dall’ immagine.

Quinto step: pre-mappa sonora49 Nel processo di realizzazione di un film il sound designer molto spesso viene chiamato dopo aver già ripreso le scene e questo ne causa una mancanza sonora creativa abissale, di conseguenza, tutta l’analisi descritta in precedenza sulla sceneggiatura e sulle parole risulta superflua e inutile, ma avere a disposizione una chiara idea della trama sin dal principio, aiuta il sound designer ad ampliare le scelte possibili per la realizzazione del suono. La pre-mappa sonora, chiamata in realtà da D. Sonnenshein “The sound map-draft 1”, aiuta a progettare il suono per l’intero progetto stabilendo già prima delle riprese quali suoni posso essere registrati, creati e manipolati. Spesso la pre-mappa sonora si accosta molto alla mappa sonora definitiva, creata dal sound designer in maniera dettagliata per ogni singolo frame dell’immagine definitiva, ed è costruita sempre su due assi, l’asse verticale per il tempo e l’asse orizzontale per tutti gli elementi sonori. Gli elementi sonori che un sound designer deve differenziare e raggruppare sono:

• Suoni concreti

• Suoni musicali

• Musica

• Voce

Suoni concreti Questa categoria comprende tutti i suoni che sono simultaneamente connessi all’immagine; essi sono principalmente suoni diegetici, ossia dei suoni percepiti dai personaggi durante l’azione che si sta svolgendo e comprendono ad esempio un pugno sbattuto sul muro, lo squillo di un cellulare, lo sparo di una pistola, ecc…

                                                                                                               49  Sonnenschein David, op. cit., p.13

 

  35  

Suoni musicali A differenza dei suoni appena descritti, quelli musicali comprendono delle sonorità che scindono dalla diegesi con l’immagine, poiché sono principalmente delle ambientazioni sonore dove il protagonista è immerso e non si rende conto di ascoltare, come ad esempio il fischiettio degli uccellini in un bosco, oppure il rumore in lontananza in una città di un clacson di un’autovettura. I suoni musicali devono portare all’audio-visore degli elementi sensoriali o emotivi che sono indipendenti dalla sequenza indotta dall’immagine visiva.

Musica La musica viene composta da un compositore scelto e non dallo stesso sound designer, il quale ha il compito di dirigere tutte le varie professioni dedicate alla realizzazione del suono di un determinato progetto, dando la propria impronta artistica. In questa categoria la mappa sonora serve come fonte d’ispirazione al compositore musicale, in quanto, essa suggerisce varie relazioni che si possono trovare nella diegesi sonora e non. Utilizzare determinati pattern ritmici, come ad esempio un 4/4 o un 5/4 è molto differente, poiché dipende dal contesto in cui viene impiegato. Un 4/4 è un ritmo molto semplice e di facile assimilazione da parte dell’audio-visore, perché esso propone un senso di stabilità e compattezza, mentre un 5/4 essendo anche dispari, comporta un’instabilità ritmica, che l’audio-visore non è abituato ad ascoltare, di conseguenza un 4/4 verrà usato molto nelle scene dove si vuol dare importanza alla melodia o all’armonia, mentre un 5/4 verrà impiegato nelle scene di tensione e di incertezza. Tutte queste regole ovviamente sono dei consigli più che altro, poiché ognuno ragiona con la propria testa ed ha una propria visione del mondo e della musica. Le regole sono fatte per essere infrante, altrimenti avremmo tutti la stessa visione di ogni cosa e non ci sarebbe artisti come: R. Wagner che ha generato l’accordo iniziale dell’opera “Tristano e Isotta” 50 portando l’armonia tradizionale all’estremo dell’espressione, oppure A. Schoenberg che con il serialismo dodecafonico ha rivoluzionato la gerarchizzazione armonica di una scala.

                                                                                                               50  http://www.oltrecultura.it/schede/Tristan_und_isolde_scheda.htm  

  36  

Voce Questa categoria contrariamente a come potreste pensare, non riguarda le parole recitate dagli attori o dai doppiatori, bensì comprende tutti i suoni emessi dalla bocca che danno una sensazione di dinamicità all’interno della scena, come ad esempio il suono di un bacio, il deglutizione dell’acqua o di una birra, oppure una grassa risata del protagonista.

Vocal sketch nella pre-mappa sonora Abbiamo appena visto gli elementi essenziali per poter costruire un’ idea di mappa sonora prima delle riprese, proposti dal sound designer David Sonnenschein, ma ci sarà un modo per generare queste idee di partenza, in modo immediato, senza uno spreco eccessivo di tempo ed aver così più chiaro tutto il progetto nel suo insieme? Durante il terzo anno del corso di musica elettronica presso il conservatorio di Como, ho affrontato come argomento il vocal sketching51 con il maestro S. Delle Monache, il quale ha fatto sperimentare a tutta la classe varie metodologie dell’argomento in questione. Questa tecnica è usata spesso tra i sound designer che vogliono presentare in maniera immediata il sound di un progetto senza dover per forza avvalersi di un computer o di un generatore sonoro. L’aggiunta di questa fase è molto importante durante la creazione della pre-mappa sonora, in quanto, essa da un’indicazione approssimativa sull’effetto che si andrà a ottenere durante la produzione definitiva del suono e della colonna effetti. Questo processo non è stato fatto presente da D. Sonnenschein negli step che un sound designer dovrebbe affrontare per la realizzazione del sonoro in ambito cinematografico, di conseguenza vedendola come una mancanza mi sono preso la libertà di introdurla in questo preciso momento di analisi. Dopo aver finito di creare questa pre-mappa sonora, il sound designer deve percorrere di nuovo tutto il tragitto svolto sin adesso sintetizzando il tutto, in modo da avere chiaro i significati e le relazioni più nascoste del progetto. Un fattore necessario per la riuscita di un buon sound design cinematografico è la continua consultazione con il regista, poiché egli è colui che ha la visione più ampia dell’intera narrazione; è lui che decide il tutto; se il regista ritiene che il suono ideato

                                                                                                               51  Tecnica utilizzata per una produzione immediata di suoni. Questi suoni vengono prodotti dalla bocca al momento per farsi un’idea generale di un suono in un determinato contesto/progetto.

  37  

è perfetto per il film allora verrà scelto senza alcun dubbio, altrimenti si dovranno trovare altre innovative soluzioni sonore.

Sesto step: analizzare l’intero video editato52 Dopo aver passato giornate, mesi o addirittura anni per le riprese audio-video di un film nei vari set e location, si arriva allo step editing video, ossia quello di tagliare e accorpare in maniera organizzata tutte le varie inquadrature scelte dal regista. Il sound designer di solito non partecipa a questo momento, infatti sono pochi i privilegiati in questo settore che hanno la possibilità di assistere con il regista e il picture editor a questa fase. In questo step di analisi video, il sound designer andrà a visionare in maniera dettagliata tutte le immagini che passeranno nello schermo, stoppando quando è necessario ogni sequenza, affinché egli annoti tutte le idee e le informazioni possibili per un ottimo design sonoro. D. Sonnenschein consiglia di analizzare ogni scena nel dettaglio, focalizzandosi sulle quattro categorie della pre-mappa sonora, ma stavolta essi vengono associati all’immagine e non più solo a delle parole:

• Suoni concreti: fanno parte dell’azione proposta dall’immagine e sono per la maggior parte suoni in sync. Essi hanno caratteristiche riconducibili ad elementi del movimento, contatto, solidità, taglia, peso, temperatura, impatto, rilascio, ecc…

• Suoni musicali: non sono strettamente collegati con l’azione dell’immagine, ma permettono di enfatizzare passaggi drammatici del cambio tra una sequenza e l’altra, andando a sottolineare elementi con un forte impatto emotivo, ad esempio un utilizzo assai frequente è quello di anticipare l’umore dei personaggi una scena prima.

• Musica: in questa categoria il sound designer deve annotare tutte le idee e suggerimenti da dare al compositore; gli elementi fondamentali sono il pitch, il ritmo e le relazioni instaurate con lo sviluppo delle varie scene.

• Voce: questa categoria comprende, come detto in precedenza, tutto il linguaggio non verbale prodotto dalla nostra voce o bocca, ad esempio

                                                                                                               52  Sonnenschein David, op. cit., p.26  

  38  

sensazioni di vomito, malessere, ecc… La disciplina che studia questo settore è la prosodia53.

Settimo step: la mappa sonora54 La mappa sonora definitiva viene creata analizzando scena per scena le sequenze video editate finali, ma se il sound designer ha avuto la possibilità di lavorare precedentemente alla realizzazione della pre-mappa sonora, si troverà già metà del lavoro fatto, in quanto spesso la sceneggiatura e l’immagine finale coincidono, causando una riduzione di lavoro e di analisi al sound designer. Gli elementi necessari sono sempre quattro, i suoni concreti, i suoni musicali, la musica e la voce, ma in questa fase vi sarà appunto una mappa sonora definitiva su tutta la creazione e la relazione tra suono e immagine, che il sound designer e i suoi collaboratori dovranno affrontare e realizzare dopo l’accordo con il regista. Durante questo step bisogna stare attenti a non esagerare con gli elementi sonori, poiché l’audio-visore percepisce in modo consapevole solo certi aspetti del suono. Fare una buona distribuzione sonora è necessaria per poter stratificare e far assimilare all’ascoltatore il maggior numero di informazioni possibili, affinché egli venga immerso totalmente in una reale finzione cinematografica. D. Sonnenschein riporta come esempio una sequenza di Air Force One (1997, W. Petersen), dove vi è un confronto tra il presidente degli Stati Uniti, Harrison Ford e il terrorista russo, Gary Oldman. In pochi secondi vi è uno scambio continuo di sonorità, anche tra i due temi musicali, quello russo e americano, che causa un elevato numero di input sonori per l’ascoltatore. Tutto l’insieme è perfetto e non vi è un eccessivo carico di sorgenti sonore, poiché c’è stata un’attenta distribuzione e stratificazione dell’audio, data anche dal mixing finale.

                                                                                                               53  La prosodia (dal latino prosodia(m), che deriva a sua volta dal greco prosodia, composto di pros-, "verso" e odè, "canto") è la parte della linguistica che studia l'intonazione, il ritmo, la durata (isocronia) e l'accento del linguaggio parlato. Un ulteriore approfondimento su http://www.treccani.it/enciclopedia/prosodia_%28Enciclopedia_dell%27Italiano%29/ 54  Sonnenschein David, op. cit., p.31  

  39  

Ottavo step: il dialogo55 Un aspetto molto importante, anzi praticamente fondamentale nei film odierni, è la presenza dei dialoghi e della voce, intesa non come produzione sonora56 non verbale, bensì come linguaggio verbale per il continuo svolgimento del flusso narrativo. Durante le riprese dirette audio delle scene nella varie location, può capitare che il dialogo degli attori non venga registrato in maniera ottimale, a causa dei seguenti fattori:

• Volume: il livello sonoro della registrazione risulta danneggiato o privo di informazioni

• Rumore del paesaggio: il suono della voce risulta poco nitido a causa dell’interferenza con alcuni rumori della location

• Performance: l’attore ha sbagliato a pronunciare la parola a causa di un problema linguistico, oppure l’attore non è riuscito a recitar la frase in maniera corretta

Per poter risanare tutte queste mancanze D. Sonnenschein scrive che le uniche soluzioni possibili sono:

• Doppiaggio sul posto: se non vi è la possibilità di rifare la ripresa video, vi è l’opportunità di registrare un “wild” audio, ossia riprendere la parte sonora nella stessa situazione nella quale l’attore si ero trovato in precedenza.

• Trovare un altro audio take: se il take audio registrato in sync con la ripresa video risulta inutilizzabile, si va alla ricerca di un’altra registrazione sonora diversa, disponibile tra tutti i vari shot ripresi durante la giornata.

• Doppiaggio in post-produzione: è il metodo più utilizzato in questo settore per poter riparare l’audio nei vari dialoghi e consiste nel ridire le varie battute del copione guardando l’immagine direttamente proiettata su uno schermo. Questo processo è molto funzionale, perché permette un elevato controllo della qualità sonora della voce senza alcuna interferenza data ad esempio dal rumore ambientale.

                                                                                                               55  Sonnenschein David, op. cit., p.32  56  vedi “Quinto step: la pre-mappa sonora

  40  

Nono step: effetti sonori e fonti ambientali57 La combinazione tra il suono e l’immagine è la base del cinema; ciò che noi percepiamo sia a livello uditivo che visivo è in realtà una finta creazione della realtà, se ad esempio passeggiamo lungo un strada di città siamo noi stessi che decidiamo cosa sentire e cosa vedere, mentre durante la visione di un film sono altre persone che decidono cosa farci ascoltare e vedere.

“Il cinema è un alto artificio che mira a costruire realtà alternative alla vita vera, che gli provvede solo il materiale grezzo.”58

Umberto Eco

Il sound designer in questa fase scegli gli effetti sonori e i suoni ambientali da creare e da utilizzare in sync con l’immagine, affinché l’audio-visore venga immerso totalmente all’interno di questa realtà alternativa. Le fonti da cui si attinge il materiale per i vari effetti sonori sono:

• Tracce registrate: è il materiale registrato durante le riprese e comprende tutti i suoni che vengono generati durante la scena dall’attore, ecc…

• Librerie sonore: sono delle raccolte di materiale sonoro suddivido in tipologie, come ad esempio suoni di animali, del fuoco, di esplosioni. Questi vari audio vengono manipolati per creare anche nuove sonorità

• Tracce “wild” registrate in studio o location: in questa categoria sono presenti tutte quelle sonorità registrate direttamente dal set, ad esempio se per un documentario riguardante l’Amazzonia vi è la necessità di avere il vero sound delle foreste tipiche, di conseguenza bisognerà per forza registrare l’ambiente di quel posto.

• Foley: sono suoni che vengono registrati in modo controllato in uno studio rumoristico; essi vengono realizzati in sync con l’immagine del film e di solito riguardano i passi dei piedi dell’attore, il tintinnio delle tazzine di caffè, o il rumore di una sedia che viene spostata. I foley vengono usati in ambito cinematografico per dare una presenza sonora realistica durante l’azione che si sta svolgendo nella scena.

• Sintetizzatori: con l’avvento del computer e dei sistemi in grado di generare suoni, il cinema ha beneficiato di questa innovazione introducendo al suo interno queste nuove tecnologie. I sintetizzatori odierni hanno la capacità di

                                                                                                               57  Sonnenschein David, op. cit., p.35  58  Umberto Eco ://www.bergamopost.it/da-vedere/12-splendide-definizioni-cinema/  

  41  

ricercare e creare nuove sonorità senza l’utilizzo di fonti sonore registrate in precedenza, partendo da una sinusoide fino ad arrivare a un suono complesso, con armoniche, formanti, ecc…

Decimo step: coordinarsi con il compositore musicale59 Come detto sin adesso il sound designer gestisce tutto il suono riguardante il film, ma non è il solo a crearlo. Una professione sempre presente è il compositore della parte musicale che viene spesso coordinato dal “progettista del suono” principale del film. La gerarchia che vi è fra i due non deve farci intendere che non siano allo stesso livello, ma anzi fra i due spesso si intreccia una relazione artistica che sfocia nell’aiuto reciproco. Ecco a voi una testimonianza di natura collaborativa tra il sound designer Dane Davis60 e il compositore Don Davis61 per la realizzazione del film The Matrix (1999, A. Wachowski e L. Wachowski):

“The directors of The Matrix laid down the edict that the sound stage was not the place to resolve conflicts between music and sound effects. It was a huge movie, with huge dynamics, but we wanted it to be intense and clear. Don and I made a king of checkerboard, switching focus between musica and sound effects, but neither went completely away. We would separate by frequencies as well, knowing how the dynamics of the spectrum were going to play, so that the music wouldn’t have any big bass during a big explosion, or any high violins when there was glass breaking. The sound of the glass was a key thing because Neo still thought that his world was physical, even thought we knew it wasn’t and you could have put a cat meow on the mirror and it wouldn’t have mattered. But Don wanted to introduce a kind of glass harmonic, slightly screechy and dissonant, because that was a key part of Neo being jarred perceptually. Together we had to make it wet and digital, doing a kind of little dance between music and effects at the beginning of the scene. By the end, it gets all messy and overwhelming, tying into the confusion and threat fot the character when he finally screams”

Dane Davis                                                                                                                59  Sonnenschein David, op. cit., p.43  60  Ha lavorato come sound designer per film come “The Matrix” 61  Compositore di film, come “The Matrix”, “Jurassik Park III”

  42  

Undicesimo e ultimo step: mixing e mastering62 Dopo aver sincronizzato tutta il sound creato e registrato, si passa allo step finale ossia il missaggio e il mastering. Il mixing consiste in una regolazione e miglioria di tutti gli elementi sonori a disposizione, affinché essi vengano distribuiti nel miglior modo possibile durante l’ascolto. Prima di effettuare la procedura però bisogna scegliere il sistema di diffusione audio. Oggi quelli utilizzati sono:

• Dolby SR e Ultra-stereo: 4 tracce, Left – Center – Right – Surround

• Dolby Digital e DTS: 6 tracce ( 5.1 Surround), Left – Center – Right – Left Surround – Right Surround – Subwoofer

• Sony’s SDDS: 8 tracce, Left – Left Center – Center – Right Center – Right – Left Surround – Right Surround – Subwoofer

Dopo aver scelto il metodo di diffusione sonoro si passa al mixing e al mastering, realizzati da fonici specializzati nel settore. Per mastering si intende un’ottimizzazione sonora data da una miglioria della risposta in frequenza, da un’ uniformità dei volumi e da un bilanciamento adeguato dell’immagine stereofonica. Per la vendita dei film all’ estero viene creata la M&E track (music-and-effects) che consiste nella realizzazione separata della colonna effetti dai dialoghi. Come avete potuto notare, la strada che un sound designer, il quale si accinge alla realizzazione di un piano sonoro per un film, è assai lunga e tortuosa, ma se questo lavoro viene fatto con devozione ed energia i risultati saranno appaganti.                                                                                                                62  Sonnenschein David, op. cit., p.46  

  43  

Sound effects, registrazione e creazione

Durante la visione di un film, come detto fin adesso, l’audio-visore viene costantemente bombardato da input sonori della scena, ma questi elementi come vengo pensati e realizzati dal sound designer? In questo capitolo vi illustrerò:

• Tipologie di “effetti sonori” utilizzati oggi nel cinema

• Tecniche di registrazione dei sound effects

• Il foley

• Tecniche di editing dei sound effects

“Non c’è mai fine. Ci sono sempre dei suoni nuovi da immaginare, nuovi sentimenti da sperimentare. E c’è la necessità di purificare sempre più questi sentimenti, questi suoni, per arrivare ad immaginare allo stato puro ciò che abbiamo scoperto. In modo da riuscire a vedere con maggior chiarezza ciò che siamo. Solo così riusciamo a dare a chi ci ascolta l’essenza, il meglio di ciò che siamo.”

John Coltrane

Partendo dalle parole del sassofonista e compositore statunitense John Coltrane che suggeriscono un approccio alla sperimentazione del suono, mettendolo in relazione con la scoperta di noi stessi, negli effetti sonori di un lungometraggio, di un cortometraggio o di un cartone animato possiamo trovare molte citazioni di sound effects per omaggiare il lavoro svolto da altri sound designer. Uno degli esempi più eclatanti ed utilizzato negli ultimi sessant’anni è lo “Wilhelm scream”63 creato per il film Tamburi Lontani (1951, R. Walsh); questo sound effect, che consiste nell’urlo di un personaggio del film che viene mangiato da un alligatore, possiamo ritrovarlo in versione originale oppure manipolato nei film come64: “Star Wars”, “Indiana Jones”, “Toy Story”, “King Kong”, ecc…

                                                                                                               63  https://www.youtube.com/watch?v=dc5F2C0CYlA (video originale di “Wilhelm scream”)  64  https://www.youtube.com/watch?v=cdbYsoEasio (video compilation di vari film che citano il “Wilhelm scream”)  

  44  

Tipologie di “effetti sonori” utilizzati oggi nel cinema I sound effects presenti nei film si suddividono secondo Ric Viers 65 in cinque categorie:

• Hard effects: hanno un forte impatto dinamico e sono tra i più presenti durante l’audiovisione di un film; fanno parte di questa categoria il clacson di un’auto, lo sparo di una pistola o il rumore di un pugno sferrato alla mascella di un personaggio.

• Foley sound effects: vengono registrati in studio da un foley artist in sync con l’immagine; il suono più comune riprodotto è il rumore dei passi di un personaggio.

• Background effects: sono suoni che hanno il compito di creare l’ambientazione dove il personaggio si trova e servono a far entrare l’audio-visore nel vivo dell’azione.

• Electronic effects: si sono sviluppati dal 1960 in poi e sono stati utilizzati per creare molte sigle di telegiornali, programmi televisivi e per sonorità di film di fantascienza; un chiaro esempio sono le onde quadre o suoni creati tramite sintesi additiva, sottrattiva, ecc…

• Sound design effects: sono suoni che non possono essere registrati normalmente, ma necessitano di una creazione e manipolazione sonora di un sound designer.

createdigitalmusic.com

                                                                                                               65  Viers Ric, op. cit., p.65  

  45  

Tecniche di registrazione dei sound effects Durante la produzione di un film come per la ripresa video degli attori e delle scene è necessaria la registrazione dell’audio degli effetti sonori, poiché senza essi il film risulterebbe privo di un impatto emotivo. Ma quale è lo strumento principe per poter acquisire al meglio un sound effects presente nella realtà? Senza alcun dubbio la risposta alla domanda è: il microfono. Ric Viers66 paragona il processo di registrazione sonora alla fotografia, in quanto colui che andrà ad acquisire il suono è come un fotografo, il quale ha a disposizione tutto il materiale per poter catturare l’immagine nella fotocamera, come ad esempio gli obiettivi (i microfoni), i filtri (gli equalizzatori), il treppiede (l’asta microfonica) e le luci (gli amplificatori). I microfoni più utilizzati in ambito cinematografico si dividono in: dinamici e a condensatore. Il microfono dinamico è più resistente rispetto a quello a condensatore e risulta perfetto per la registrazione di: rumori forti, suoni percussivi o colpi di pistola, mentre il microfono a condensatore risulta più fedele nella riproduzione delle alte frequenze, in quanto il diaframma offre una maggiore sensibilità alla pressione sonora. Durante il primo e secondo anno di musica elettronica presso il conservatorio di Como, nei corsi tenuti dal maestro A. Vigani “Elettroacustica I” e “Elettroacustica II”, la mia sezione ha affrontato diverse tecniche di registrazione audio in maniera approfondita, registrando anche diversi strumenti reali come ad esempio un sassofono e un violoncello. Alcuni accorgimenti assimilati in questi anni che bisogna tener conto durante la registrazione di una sorgente sonora sono:

• Effetto di prossimità: si verifica quando la fonte sonora è troppo vicina al microfono, questo causa un aumento delle basse frequenze.

• Risposta in frequenza: questo elemento causa una colorizzazione di determinate frequenze; ogni microfono ne ha una differente da qualsiasi altro.

• Filtro passa-alto: incorporato in certi microfoni serve ad attenuare tutte quelle frequenze basse, come ad esempio il rumore di un condizionatore, che andrebbero a interferire con la registrazione pulita del suono.

                                                                                                               66  Viers Ric, op. cit., p.86  

  46  

Un’altra caratteristica fondamentale di ogni microfono è la sua figura polare, ossia da che direzione il microfono è capace d’acquisire il segnale.

it.wikipedia.org/wiki/Microfono#Figura_polare_dei_microfoni

Ric Viers67 afferma che le migliori tecniche di registrazione stereo per i sound effects sono:

• Spaced pair: due microfoni uguali distanziati, i quali danno un’immagine stereo derivata dalla differenza di tempo e d’ ampiezza d’acquisizione del segnale. Questa tecnica causa a volte dei problemi di fase del segnale, che possono essere risolti in post produzione.

  http://music.tutsplus.com/tutorials/6-stereo-miking-techniques-you-can-use-today--audio-204

• XY: due microfoni a condensatore cardioidi con un angolo di acquisizione che varia dai 90° ai 135°. Il microfono Zoom H4n che ho comprato per la produzione del cortometraggio “La prova”, utilizza questa tecnica stereo.

                                                                                                               67  Viers Ric, op. cit., p.99    

  47  

http://www.audiosonica.com/it/corso/post/138/Microfoni_e_tecniche_di_microfonaggio_Tecniche_di_microfonaggio_stereo_Introduzione

• Mid Side: due microfoni, uno con figura polare cardioide l’altro con figura polare a otto; il primo registra la sorgente sonora proveniente dal davanti, mentre il secondo riprende il suono che arriva lateralmente.

http://www.audiosonica.com/it/corso/post/138/Microfoni_e_tecniche_di_microfonaggio_Tecniche_di_microfonaggio_stereo_Introduzione

  48  

I dieci comandamenti di Ric Viers68 per la registrazione Il sound designer R. Viers dopo anni passati a lavorare nel campo della registrazione sonora per la creazione di librerie professionali audio in campo cinematografico, ha stabilito dieci regole che ogni “progettista del suono”, ma anche fonico, dovrebbe seguire per poter acquisire il suono nel migliore dei modi.

1. Avere un pre-roll e un post-roll di almeno due secondi per ogni registrazione 2. Registrare sempre più del dovuto necessario 3. Registrare ogni take con più informazioni scritte possibili 4. Controllare sempre i volumi del segnale 5. Ascoltare tutto il suono registrato con delle cuffie 6. Eliminare qualsiasi rumore di sottofondo 7. Non interrompere mai un take 8. Regolare il microfono verso il suono 9. Fare un check degli strumenti necessari per la registrazione prima di andare

sulla location 10. Ricordare le leggi sul copyright per non infrangerle

Tutti questi consigli utili dovrebbero essere già a conoscenza di ogni fonico, ma molto spesso per mancanza di tempo, ma soprattutto di voglia, essi vengono dimenticati, causando un approccio poco professionale nei confronti di questo lavoro. Per la registrazione dei sound effects presi dalla quotidianità, che si differenziano dalla categoria foley, realizzata in uno studio apposito, è necessario trovare una location con delle sonorità particolari, affinché vi sia una moltitudine di aspetti e caratteristiche sonore da poter poi riportare, all’interno di un film o di una libreria audio ampia. Una città di mattina si presenta alle nostre orecchie molto caoticamente, in quanto ascoltandola possiamo percepire svariati input sonori, come ad esempio il motore delle macchine, il parlare delle persone, la frenata dell’autobus, le porte del tram che si aprono, ecc… Se invece ascoltiamo lo stesso posto, della stessa città, però ad un orario differente come le 00:00, noteremo delle differenze enormi, poiché non vi sarà più l’insieme caotico dei rumori, ma solo pochi elementi, tutti in primo piano.

                                                                                                               68    Viers Ric, op. cit., p.207    

  49  

Oltre a tener conto dell’orario di registrazione sonora di un luogo, bisogna riuscire a isolare il suono scelto da tutte quelle interferenze sonore ambientali presenti, come ad esempio il traffico delle auto, il rumore di un condizionatore. Per eliminare questi suoni indesiderati si hanno due possibilità:

• Microfono shotgun: spesso a condensatore con figura polare direzionale (mezzo fucile). Questo microfono elimina tutti i suoni che non vanno a colpire direttamente il diaframma, riuscendo così a isolare quasi totalmente il suono scelto.

www.rode.com

• Post-produzione: durante questa fase, si può migliorare notevolmente la resa del suono, eliminando moltissimi rumori che alterano la chiarezza e pulizia della registrazione. Oggi sono presenti sul mercato dei plugins specializzati in questo come ad esempio: Z-noise della “Waves”.

 www.kvraudio.com

 

  50  

Il foley Abbiamo visto sin adesso che il suono nel cinema è assai importante per un’immersione totale dello spettatore nella scena e nella narrazione, ma cosa rende così diverso un film realizzato da professionisti rispetto ad un video amatoriale, come facciamo ad accorgercene così immediatamente solo dopo trenta secondi di proiezione? Uno degli aspetti più importanti, oltre alla qualità dell’immagine video, è senza dubbio l’arte del foley, che consiste nella registrazione e produzione di determinate sonorità in studio o in luoghi stabiliti; questi suoni non sono presenti nell’audio originale acquisito durante i giorni di ripresa con gli attori, troupe, ecc…, poiché in quei giorni, i fonici per ottenere un segnale pulito fanno del loro meglio per isolare il dialogo tra personaggi e per eliminare determinati rumori d’ambiente. Quello che gli artist foley69 fanno, consiste nell’ introdurre della dinamicità e delle relazioni nascoste tra immagine e suono; quando ad esempio un cavaliere di un film apre un enorme cancello arrugginito, noi sentiamo quello che l’artist foley ha creato per quell’immagine. Quel sound effect acuto molto stridente, che noi tutti conosciamo, non era presente durante la ripresa della scena, ma è stato aggiunto poi in post-produzione. Il foley per definizione è un effetto sonoro che è stato creato appositamente per una determinata scena, da una performance di uno o più artist foley70:

http://www.sound-ideas.com/what-is-foley.html

                                                                                                               69  nome dato all’addetto alla creazione di queste sonorità controllate 70  ecco a voi un chiaro esempio video di una performance di due artist foley https://www.youtube.com/watch?t=83&v=OONaPcZ4EAs  

  51  

Ric Viers rispetto a questa definizione classica del foley, propone una differente visione di questo termine aggiungendo che, attualmente il foley 71 non deve necessariamente essere connesso all’immagine, ma può essere creato come un evento unico indipendente. Un chiaro esempio di questa sua idea possiamo ritrovarla in tutti i suoi lavori che sin qui il sound designer ha prodotto durante la sua lunga professione, come le ultime librerie sonore “Blastwave FX” oppure “Zombie Apocalypse Sound effects library”. Il pioniere di questa tecnica audio, da cui prende il nome, è Jack Foley, il quale lavorò per la Universal Picture dal 1930 in poi, ma dove avvenivano e avvengono oggi le performance degli artist foley? Il luogo per una creazione foley controllata è chiamato “Foley’s stage” o “Foley’s room” e possiede tutte quelle caratteristiche che uno studio di registrazione dovrebbe avere, come ad esempio l’isolamento dai rumori provenienti dall’esterno e una netta diminuzione del riverbero interno, affinché vi sia una registrazione pulita senza alterazioni del suono acquisito. L’artist foley definito anche rumorista, è un musicista a tutti gli effetti che però non è legato al mondo chiuso del sistema tonale o al limite sonoro del range di uno strumento, ma ha la possibilità di sperimentare, provare e generare sonorità, arricchendo sempre maggiormente la sua esperienza lavorativa in questo settore. Ogni Foley’s stage possiede dei pits (tradotto in italiano sono “fosse”) che sarebbero delle differenti superficie composte da materiale diverso come ad esempio legno, metallo, creta, ecc… Questa possibilità di avere superficie diverse è una risorsa ottima, poiché questo permette di ottenere dei suoni che normalmente vengono sentiti, ma non ascoltati dalle persone, di conseguenza durante la visione di un film ricreare la stessa ambientazione con tutte quelle sonorità percepite inconsapevolmente dalla persona, rendono la fruizione audio-video molto vicina alla realtà. Un Foley’s stage necessita di una vasta gamma di materiali, oggetti di scena e utensili per poter andare alla scoperta e all’avventura di una ricerca sonora finalizzata ad una relazione audio-video. Molti si staranno chiedendo, perché utilizzare oggetti “normali” per la produzione di un determinato suono e non ricercare ad esempio qualcosa di più particolare? La risposta a questa domanda è una sola: tutto fa suono.

                                                                                                               71  Viers Ric, op. cit., p.309    

  52  

Se chiudiamo un attimo gli occhi e ci concentriamo sull’ascolto delle varie sonorità presenti, riusciamo a distinguere delle particolarità che prima non eravamo in grado di cogliere. Vi è mai capitato di spaccare una carota con le mani? Certo che si, ma di sicuro non avete fatto caso al suono prodotto da questo gesto. Se dovesse succedere di nuovo ascoltate con attenzione quello che verrà generato, percepirete un crack, una rottura di qualcosa che avete già sentito molte volte. La frutta e gli ortaggi vengono utilizzati in maniera massiccia come effetti sonori per la rottura di un polso, di un ginocchio o per lo squartamento di una persona. Quando vediamo un film, il suono che ci viene proposto viene associato ad un’immagine ben precisa e questo causa un’elaborazione interna del nostro cervello che porta a stabilire una relazione tra “sound and image” a volte anche sbagliata, che non ci fa riconoscere la vera fonte sonora registrata.

Viers Ric, The sound effects bible. How to create and record hollywood style sound effects, s.l., Michael Wiese Productions, 2008, p.332

  53  

Viers Ric, The sound effects bible. How to create and record hollywood style sound effects, s.l., Michael Wiese Productions, 2008, p.334

  54  

Tecniche di editing dei sound effects Dopo aver acquisito tutto il materiale audio necessario, il sound designer e i suoi collaboratori, utilizzano varie tecniche di manipolazione sonora per poter creare nuove sonorità, le quali molte di queste sono state affrontate durante il triennio di musica elettronica presso il conservatorio di Como con il maestro S. Sapir. Ric Viers lavora tutt’ora presso gli studi di Chop Shop ed ha fatto affiggere ad ogni muro le regole dell’”editing Mantra” per la manipolazione dei sound effects. Queste regole sono una guida fondamentale per una persona si approccia al sound editing. Esse derivano dalla parola L.I.S.T.E.N.72 :

• L – ascoltare in modo critico

• I – identificare tutti gli errori possibili all’interno della registrazione

• S – processare il segnale tramite equalizzazione, compressione, ecc…

• T – tagliare, copiare e incollare il file

• E – esaminare tutti i fade-in e fade-out

• N – nominare il file Questi sei consigli sono da tenere in considerazione come la base nel processo per l’editing; ma in che modo un sound designer si sporca le mani sperimentando e creando qualcosa di nuovo? Il materiale registrato per la manipolazione sonora deve essere “pulito” e perfetto e non deve contenere:

• Rumore di sottofondo

• Clicks

• Pops

• Errori Tutti questi elementi appena citati se non venissero isolati andrebbero a incidere su tutto il lavoro di editing e questo causerebbe un disturbo sonoro molto rilevante. A volte capita che queste interferenze sonore siano le componenti che hanno dato un suono meraviglioso e questo ne consegue che: è vero che il suono per la manipolazione deve essere perfetto, ma a volte l’imperfezione crea la perfezione, ossia il suono sporco genera un suono innovativo.

                                                                                                               72  Viers Ric, op. cit., p.482    

  55  

Alcune tecniche e consigli di sound editing utilizzati attualmente per la realizzazione di librerie sonore o sound cinematografici:

• Dinamica

• Scratch Tracks/ tracce guida

• Temp mixes, Bouncing tracks

• Subgroups

• Exaggeration vs reproduction

• Layering

• Offset layering

• Cross fading

• Looping

• Cross-fade looping

• Key framing

• Reversing

• Vocalizing

• Pitch shifting

• Pitch layering Vediamo ora nel dettaglio alcune di queste tecniche proposte anche da Ric Viers:

Dinamica La dinamica musicale viene definita dall’enciclopedia Treccani:

“Complesso dei rapporti d’intensità sonora che si produce all’interno del discorso musicale, per es. tra nota e nota, inciso e inciso, parte e parte, dal piano al forte, dal crescendo al diminuendo. Segni dinamici sono quelli che regolano tutte le gradazioni d’intensità, dal pianissimo (pp) fino al fortissimo (ff).”73

La definizione che avete appena letto riguarda l’ambito musicale inteso come discorso tematico e gerarchizzato, di conseguenza, come possiamo intervenire nella manipolazione dinamica per i sound effects? Ric Viers afferma che:

                                                                                                               73  http://www.treccani.it/enciclopedia/dinamica-musicale/  

  56  

“Dynamics is the relationship between high volumes and low volumes. Good dynamics means that there is a natural high point and low point, that there is a difference between soft and loud”74

Il gioco delle dinamiche è molto utilizzato in ambito cinematografico, infatti tutti i sound effects registrati, vengono associati all’immagine senza un’eccessiva compressione sonora rispetto magari a canzoni pop o brani classici trasmessi via radio, che richiedono un determinato tipo di ascolto.

Temp mixes, bouncing tracks, subgroups Entrambi queste categorie sono finalizzate a raggruppare e a facilitare tutto il lavoro di editing per non sovraccaricare la memoria interna delle digital workstation, non creando così nessuno stop o malfunzionamento improvviso del computer.

Exaggeration vs reproduction Generare un sound design per un film non vuol dire solo registrare un suono e metterlo in sync con un’immagine proposta, ma si intende tutto il lavoro di creazione, acquisizione, sperimentazione e manipolazione associato ad esso. A volte è necessario esagerare determinate caratteristiche di un suono per ottenere l’effetto desiderato per l’immagine e per fare ciò, si possono anche alterare, tramite un equalizzatore, determinate frequenze precise.

Layering, off-set layering Questa tecnica consiste nel sovrapporre più suoni simultaneamente o in modo sfasato, così da ottenere sonorità molto più complesse. Un suono generato da questa sovrapposizione nel campo dei sound effects è senza dubbio il “tornado” inteso come una spirale di vento. Ricercando su youtube molti tutorial riguardanti i foley e i sound effects mi sono imbattuto in un video dove veniva spiegato il processo di sovrapposizione sonora per ottenere uno sparo reale di pistola75. Come potete vedere e sentire, lo sparo è

                                                                                                               74  Viers Ric, op. cit., p.452  75  https://www.youtube.com/watch?v=4zI-fM3BEbM  

  57  

l’insieme di differenti esplosioni di piccoli petardi, con un colpo di un mestolo da cucina su una teglia d’acciaio. Tutti questi elementi sono stati sincronizzati e mixati in modo tale da dare loro una giusta importanza temporale.

Viers Ric, The sound effects bible. How to create and record hollywood style sound effects, s.l., Michael Wiese Productions, 2008, p.459

Cross fading A volte è necessario estendere a livello temporale il suono registrato senza intervenire sul pitch o sui campioni acquisiti, ma solo allungando il file pulito senza nessuna manipolazione. Il metodo più utilizzato è appunto il cross fading che permette di copiare e sovrapporre al file originale, delle parti del suono, affinché esso risulti più lungo nella durata senza avere delle brusche variazioni d’ampiezza e di frequenza. Questa tecnica è utilizzata per avere un tappeto sonoro all’interno di una composizione e uno dei primi a utilizzarla senza l’uso di software fu G. Ligeti con “Lux Aeterna”76, il quale ha utilizzato la tecnica del continuum applicata alle voci. Il continuum consiste nell’ entrata e nell’ uscita di più voci in modo sfasato, affinché il

                                                                                                               76  audio del brano in questione : https://www.youtube.com/watch?v=-iVYu5lyX5M  

  58  

suono prodotto risulti come un flusso continuo; ecco a voi le prime quattro battute di “Lux Aeterna”:

Viers Ric, The sound effects bible. How to create and record hollywood style sound effects, s.l., Michael Wiese Productions, 2008, p.463

Looping, cross-fade looping Questa tecnica è molto utilizzata dai dj durante le serate in discoteca, i quali hanno la necessità di avere dei loop di drum machine per poter improvvisare suoni o sincronizzare brani sui 120 o 130 bpm. Nell’ editing sonoro il looping è impiegato per suoni ripetitivi, per suoni motorizzati, o per suoni di veicoli stradali.

  59  

Quando il loop non è infinito, ma vogliamo un numero ben preciso di ripetizioni, stiamo utilizzando la tecnica del cross-fade looping che consiste nel copiare il loop quante volte è necessario.

Key framing Questa tecnica serve a dare delle istruzioni precise durante la creazione delle automazioni, come ad esempio il controllo del volume, del pan e delle mandate di determinati effetti o plugins sonori. Il key framing non è utilizzato solo in ambito audio, ma anche nell’ editing video e nell’animazione 3d e 2d.

Reversing A volte vi è mai capitato di pensare e dire il vostro nome partendo dall’ultima lettera? Con questo metodo di manipolazione è possibile farlo con tutte le fonti sonore possibili, avendo la possibilità di ottenere delle sonorità fuori dall’ascolto quotidiano che ognuno di noi percepisce. Molti film fantascientifici utilizzano questa tecnica per creare sound totalmente inesistenti in natura. Ad esempio il suono di una palla infuocata lanciata in aria, in realtà è un’esplosione in modalità reverse, dove il rumore plosivo è posto alla fine e non all’inizio.

Vocalizing Il sound designer durante il processo di editing e manipolazione sonora, a volte aggiunge delle sonorità prodotte dalla sua voce o bocca per ampliare l’estensione frequenziale o per applicare degli effetti ben precisi al suono. L’ esempio più classico che Ric Viers propone77 è la parlata robotica di R2-D2 di “Star Wars”, creata dalla voce del sound designer Ben Burtt.                                                                                                                77  Viers Ric, op. cit., p.468  

  60  

Pitch shifting e pitch layering Come avete potuto leggere nel capitolo precedente, riguardante il sound design del T-Rex di Jurassik Park, questa tecnica è una delle più impiegate nei film horror o per scene di forte tensione emotiva. Abbassare il pitch di un suono produce una sonorità molto pesante con frequenze molto basse, le quali fanno a volte vibrare le stanze come se avvenisse un terremoto. Il problema del pitch shifting è che quando avviene un cambiamento frequenziale verso il basso o verso l’alto, l’intero suono viene spostato in maniera diretta come un blocco, di conseguenza mancheranno delle componenti spettrali alte per il suono basso e delle componenti spettrali basse per il suono alto. Queste inconvenienze però si possono aggiustare sovrapponendo altri suoni o utilizzando le tecniche che vi ho illustrato sin adesso. Il pitch layering è un’evoluzione del pitch shifting e consiste nel sovrapporre in maniera simultanea o sfasata lo stesso suono più volte, applicando un cambiamento di pitch in ogni sovrapposizione; ad esempio prendiamo un’esplosione di un petardo e la sovrapponiamo in modo sincronizzato dieci volte. Ora applichiamo a nove file su dieci un pitch shifting diverso per ognuno, mentre teniamo un file invariato del suono registrato. Quello che otterremo sarà una gigantesca esplosione oppure un’esplosione contenuta, questo dipende ovviamente da come abbiamo editato il sound effect.

R2-D2    www.fanpop.com

  61  

Pitch shifting e pitch layering Come avete potuto leggere nel capitolo precedente, riguardante il sound design del T-Rex di Jurassik Park, questa tecnica è una delle più impiegate nei film horror o per scene di forte tensione emotiva. Abbassare il pitch di un suono produce una sonorità molto pesante con frequenze molto basse, le quali fanno a volte vibrare le stanze come se avvenisse un terremoto. Il problema del pitch shifting è che quando avviene un cambiamento frequenziale verso il basso o verso l’alto, l’intero suono viene spostato in maniera diretta come un blocco, di conseguenza mancheranno delle componenti spettrali alte per il suono basso e delle componenti spettrali basse per il suono alto. Queste inconvenienze però si possono aggiustare sovrapponendo altri suoni o utilizzando le tecniche che vi ho illustrato sin adesso. Il pitch layering è un’evoluzione del pitch shifting e consiste nel sovrapporre in maniera simultanea o sfasata lo stesso suono più volte, applicando un cambiamento di pitch in ogni sovrapposizione; ad esempio prendiamo un’esplosione di un petardo e la sovrapponiamo in modo sincronizzato dieci volte. Ora applichiamo a nove file su dieci un pitch shifting diverso per ognuno, mentre teniamo un file invariato del suono registrato. Quello che otterremo sarà una gigantesca esplosione oppure un’esplosione contenuta, questo dipende ovviamente da come abbiamo editato il sound effect.

  62  

Relazione tra suono e immagine Durante la visione di un film, secondo M. Chion78, lo spettatore è immerso in un’ illusione audiovisiva, data dalla continua relazione tra il suono e l’immagine, che trova la sua importanza nel valore aggiunto. Il regista francese nel suo libro definisce questo termine con queste parole:

“Con l’espressione valore aggiunto designamo il valore espressivo e informativo di cui un suono arricchisce un’immagine data, sino a far credere, nell’impressione immediata che se ne ha o nel ricordo che se ne conserva, che quell’informazione o quell’espressione derivino naturalmente da ciò che si vede, e siano già contenute nella semplice immagine. E sino a procurare l’impressione, eminentemente errata, che il suono sia inutile, e che esso riproduca un senso che invece introduce e crea, sia di bel nuovo, sia tramite la sua differenza con ciò che si vede.”79

La definizione che avete appena letto possiamo verificarla concretamente guardando e ascoltando il sincronismo tra suono e immagine, il quale ha il compito di istaurare un connubio tra ciò che avviene nella scena e ciò che esce dai diffusori. Una scena violenta, o di un’esplosione, assume più concretezza e materialità con un audio sincronizzato di basse frequenze; questo veicola allo spettatore un forte impatto emotivo e fisico. Il cinema principalmente è vococentrista e verbocentrista, ossia da maggiore risalto alla voce intesa non come grida, gemiti e suoni guttarali, bensì come parola pronunciata che possiede un carattere informativo e narrativo della storia rappresentata sullo schermo. L’ attenzione dello spettatore in sala risulta sempre maggiore verso l’insieme narrativo proposto dal regista, ad esempio se in una scena sono presenti tantissimi input sonori come piccole esplosioni, footsteps, scricchiolii e un dialogo, lo spettatore verrà attratto inevitabilmente dal linguaggio della parola, poiché esso è immediato e accessibile. Il valore aggiunto dalla musica si divide in empatico ed anempatico. Nel primo caso la musica è strettamente legata a ciò che avviene durante lo svolgimento della scena, adattandosi tramite il ritmo, il tono, il fraseggio a dei codici culturali della tristezza, della gioia, dell’emozione, ecc…                                                                                                                78  Compositore e regista francese nato nel 1947 79  Chion Michel, L’audiovisione. Suono e immagine nel cinema, (Collana Saggi), 4 ed., s.l., Lindau, 2009, p. 14 (Traduzione: Buzzolan D.)  

  63  

Nell’altro caso invece vi è un’ indifferenza tra ciò che succede nella scena e ciò che si ascolta; quest’effetto chiamato anempatico, veniva già impiegato durante il periodo dell’opera lirica quando le reazioni dei personaggi venivano sommerse da emozioni molto forti da provocare una regressione psicotica80 in loro. La musica anempatica fa emergere, tramite una sua sovrapposizione all’immagine, tutto quella sfera emotiva e sensoriale nascosta nel profondo. Molte musiche non sono ne empatiche ne anempatiche, di conseguenza hanno delle caratteristiche miste che dipendono essenzialmente dalla loro struttura e dalla loro funzione con l’immagine scelta sovrapposta. M. Chion afferma che:

“Le percezioni sonora e visiva, paragonate l’una all’altra, sono per natura più diverse di quanto non si immagini. Se quasi non ce ne si rende conto, è perché nel contratto audiovisivo queste percezioni si influenzano a vicenda e si prestano l’una all’altra, per contaminazione e proiezione, le rispettive proprietà.”81

Una differenza rilevante tra il suono e l’immagine consiste nella percezione differente del movimento e dell’immobilità, poiché un’immagine cinematografica può restare ferma e trasmettere determinati concetti, mentre il suono necessita per forza di uno spostamento minimo. La velocità con cui l’essere umano percepisce le informazioni tramite l’occhio e l’orecchio è assai differente, in quanto l’orecchio ha la capacità di analizzare e sintetizzare più in fretta rispetto all’occhio. Questa differenza di velocità dell’orecchio rispetto all’occhio avviene poiché quest’ultimo lavora contemporaneamente su due fronti, quello spaziale e quello temporale, mentre l’orecchio lavora solo sulla temporalità, di conseguenza affronta meno ostacoli e riesce ad analizzare e a identificare in maniera molto rapida. Ma come il suono influisce sulla percezione del tempo nell’immagine? M. Chion fornisce ed evidenzia questa temporalizzazione suono-immagine dando tre aspetti ben distinti:

• Animazione temporale dell’immagine: il suono con caratteristiche dettagliate, fini, concrete o fluttuanti da una determinata percezione del tempo dell’immagine.

                                                                                                               80  Chion Michel, op. cit., p. 18  81  Chion Michel, op. cit., p. 19  

  64  

• Linearizzazione temporale dei piani: il suono sincrono crea nella percezione dello spettatore un’ idea di successione.

• Vettorializzazione: il suono tende ad andare verso un determinato scopo o creare un preciso sentimento o emozione accompagnando l’immagine.

Tutti questi tre effetti appena descritti dipendono direttamente dalla natura del rapporto tra il suono e l’immagine e in molti casi si vengono a creare delle situazioni particolari; ad esempio quando “l’ immagine non ha di per se stessa alcuna animazione temporale né alcuna vettorializzazione”82. Prendete ad esempio un’immagine fissa senza nessun movimento, essa non da alcuna informazione di ciò che sta avvenendo, perciò il suono inserirà nell’immagine una temporalità e vettorializzazione ben precisa. Fattore assai importante è la “Natura del mantenimento del suono” che si differenzia tra un suono sostenuto uniforme e continuo rispetto ad un suono oscillante e vibratorio. M. Chion porta l’esempio di un accompagnamento di una stessa immagine con le due modalità appena descritte e afferma che:

“Se si prova, di volta in volta, per accompagnare una medesima immagine, a utilizzare una nota tenuta e prolungata di violino, poi la stessa nota eseguita in tremolo con delle vibrazioni dell’archetto, la seconda creerà sull’immagine un’attenzione più tesa e immediata della prima.”83

Altri due fattori essenziali nella relazione suono-immagine sono la “Prevedibilità” o “Imprevedibilità dello svolgimento sonoro” e la “Definizione del suono”. Il primo fa riferimento alla differenza tra un ritmo costante regolare e un ritmo irregolare, imprevedibile; l’imprevedibilità suscita, nei confronti dello spettatore, un continuo stato di attenzione e allarme, ma a volte una ciclicità di un ritmo regolare può generare una tensione emotiva poiché nasce una fluttuazione surreale. La seconda invece, riguarda l’ambito frequenziale di un suono, ad esempio le frequenze acute creano all’interno di chi le ascolta uno stato di allarme, mentre un uso eccessivo di frequenze basse provoca proprio una vibrazione fisica del corpo dello spettatore. Queste tecniche vengono usate spesso nei film horror per enfatizzare un preciso momento nella scena con un forte impatto emotivo.

                                                                                                               82  Chion Michel, op. cit., p. 23  83  Chion Michel, op. cit., p.23  

  65  

Armonia e contrappunto audiovisivo

I termini contrappunto e armonia sono stati utilizzati nella terminologia della musica

classica occidentale e vengono definiti da M. Chion come:

“il modo di scrittura secondo cui le differenti voci simultanee devono essere seguite ciascuna nel suo svolgimento orizzontale coordinato con quello delle altre voci ma individualizzato; mentre l’armonia assume il punto di vista verticale, quello dei rapporti di ciascuna nota con quelle sentite nello stesso momento, che insieme formano accordi, e regola la condotta delle voci in vista dell’ottenimento di questi accordi verticali”84

Il contrappunto musicale rispetto al contrappunto audiovisivo, appartiene a due categorie sensoriali differenti, ma allo stesso tempo possiamo paragonarli in quanto nel cinema esiste il concetto di “voce sonora”, intesa come una linea orizzontale coordinata e indipendente, associata alla catena visiva in maniera individualizzata e tracciata da se stessa. M. Chion afferma che:

“il cinema, nella sua particolare dinamica e per la natura dei suoi elementi, tende a escludere la possibilità di un simile funzionamento orizzontale e contrappuntistico. In esso, al contrario, i rapporti armonici e verticali (siano essi consonanti, dissonanti o né l’uno né l’altro, alla Debussy) sono assai più pregnanti: vale a dire, nella fattispecie, i rapporti tra un suono dato e ciò che accade contemporaneamente nell’immagine. L’applicazione al cinema della nozione di contrappunto è dunque una sovrapposizione risultante da una speculazione intellettuale, piuttosto che da un concetto vivente.”85.

Il contrappunto audiovisivo viene utilizzato spesso invece nella televisione, ma nessuno riesce a cogliere questo fattore. Quando viene trasmessa la partita dei mondiali di calcio l’immagine proposta ha una propria strada, mentre il commento audio dei telecronisti ne percorre un’altra totalmente differente. Il contrappunto viene notato solo quando è presente una dissonanza audiovisiva, come ad esempio nel film L’Homme qui ment (1968, Alain Robbe-Grillet), dove vi è una pre-lettura del rapporto suono/immagine da parte dello spettatore.

                                                                                                               84  Chion Michel, op. cit., p.41  85  Chion Michel, op. cit., p.42  

  66  

Per una determinata successione di immagini esistono migliaia di sonorizzazioni possibili che vanno a riprodurre esattamente il codice convenzionale oppure possono suggerire e far scivolare la percezione del tutto su un altro piano. Un esempio eclatante del contrappunto libero lo possiamo ritrovare nella scena di resurrezione del film Solaris (1972, A.Tarkovsij), dove la vecchia fidanzata del protagonista che si era suicidata anni prima, riappare in carne e ossa in una stazione spaziale. Tarkovskij ha inserito dei suoni di vetro in sync con la scena appena descritta, causando una sensazione di inquietudine e di terrore nei confronti dell’audiovisore, ma allo stesso tempo generava anche degli stati di fragilità e artificialità della creatura che stava resuscitando.

La colonna audio rapportata all’immagine La colonna audio di un lungometraggio è spesso formata da molti strati sovrapposti l’uno all’altro, ma indipendenti. Ad esempio se prendiamo un film e missiamo tre o quattro strati d’ immagini differenti sovraimprimendole, lo spettatore si troverebbe a disagio per individuare i tagli. Questa tecnica possiamo ritrovarla in Napoléon, (1927, Abel Gance) oppure in L’uomo con la macchina da presa (1929, Dziga Vertov). La colonna audio per sua natura stessa è fissata ad un supporto fisico e questo le permette di poter essere legata ad un altro fenomeno, quello visivo, tramite montaggio senza che vi sia un raccordo esplicito, mentre è assai difficile montare due piani girati in momenti diversi, poiché il raccordo salterebbe subito agli occhi dello spettatore. Un utilizzatore di questo disorientamento audiovisivo è Hitchcock, il quale nel film Nodo alla gola (1948, A. Hitchcock), ha basato tutta la creazione solo su un determinato piano, di conseguenza ha potuto utilizzare solo una piccola accortezza abbastanza rustica, che consisteva nel far passare davanti alla macchina da presa solo la schiena di un personaggio per poter effettuare un taglio sequenza. A differenza dei tagli d’immagine i tagli sonori sono subito individuati ed evidenziati bruscamente dallo spettatore, per questo con il suono è possibile utilizzare due diversi tipi di montaggio: il montaggio udibile e il montaggio non udibile. Uno dei pochi registi con una estetica assai forte nei tagli audio e video è Jean-Luc Godard, il quale nei suoi lungometraggi taglia i suoni come le immagini.

  67  

Questa scelta mette in evidenza tutte le discontinuità e i salti, limitando così il montaggio invisibile e i gradi discendenti di intensità, come anche tutti gli effetti di raccordo e di dissolvenza che vengono utilizzati di solito nel montaggio universale del cinema. Un altro principio estetico di Godard consiste nel non mischiare troppe tracce sonore differenti, in modo tale che tutta l’attenzione dello spettatore non viene solo sollecitata dai tagli e dalle cesure della catena sonora. Nelle opere di Godard possiamo ritrovare una libertà espressiva molto radicale, la quale consente di percepire ciò che potrebbe essere un piano sonoro, mettendo “a nudo”, come dice il regista in questione, tutte le cesure, consentendo così di seguire tutto il filo del discorso sonoro. M. Chion riporta nel suo libro un esempio molto chiaro del film Je vous salue Marie (1984, Jean-Luc Godard), dove sin dall’inizio si possono ascoltare in modo dettagliato i tagli che permettono di isolare alcuni segmenti sonori, come un preludio di Bach suonato al pianoforte, le grida di una squadra di basket femminile dentro uno stadio coperto e alcune frasi in voce off. Durante l'ascolto, questa mancanza di continuità sonora non crea dei blocchi di percezione all’interno dell’audiovisore, ma consente di percepire il tutto passando da un ostacolo all’altro, dimenticando il contenuto di ciò che si era sentito in precedenza. Questo processo vale anche per i piani visivi, ad esempio quando vi sono dei piani in movimento, che comportano una variazione costante dell’inquadratura dall’inizio alla fine, oppure quando si crea un découpage, partendo da piani fissi o circoscritti, si potrà ottenere su ogni piano una certa disposizione di oggetti e una determinata prospettiva, la quale sarà molto facile reperire nella nostra memoria attraverso una determinata disposizione stabilita in precedenza. Sino adesso abbiamo visto che la maggior parte dei fattori sonori portano la colonna audio a essere un unico flusso senza alcun taglio, ma in realtà non è proprio così, poiché l’ascoltatore riesci a distinguere delle unità, come ad esempio delle frasi, rumori, temi musicali o cellule sonore. Se prendiamo ed ascoltiamo un dialogo tra due attori nella scena, possiamo percepire un flusso vocale di frasi e parole, ma in realtà questo flusso è costituito da singole unità linguistiche, le quali prese singolarmente non hanno caratteristiche cinematografiche e dipendono strettamente dal tipo di suono e dal livello d’ ascolto scelto (semantico, casuale o ridotto).

  68  

M. Chion riporta che:

“il flusso del suono di un film si caratterizza per l’aspetto più o meno legato, più o meno insensibilmente e fluidamente concatenato dei differenti elementi sonori, successivi e sovrapposti, o al contrario più o meno accidentato e interrotto da bruschi salti – che interrompono improvvisamente un suono per sostituirgliene un altro.”86

Il flusso sonoro si divide in:

• Logica interna

• Logica esterna Per logica interna si intende tutte quelle modifiche continue e progressive, che non utilizzano cesure brusche a meno che vi sia una situazione che lo richiede, mentre per logica esterna si intende l’insieme di tutti quegli effetti che comportano una discontinuità e una cesura, poiché essi non sono inerenti al contenuto visivo. Film come ad esempio La dolce vita (1960, F. Fellini), o Figli di un dio minore (1986, Randa Haines), utilizzano la logica interna, infatti il suono scompare, riappare , si riduce o si amplifica dipendendo molto dai personaggi della narrazione, dalle loro emozioni e dai loro affetti. Film come Alien (1979, Ridley Scott), oppure Nouvelle Vague (1990, J. Godard), utilizzano invece la logica esterna con molti effetti marcati di legami e cesure. Quali sono le funzioni principali che il suono possiede con l’immagine? Secondo M. Chion la funzione principale che il suono ha con il cinema consiste nel legare tutti gli eventi sonori assieme al flusso delle immagini attraverso tre differenti tipologie:

• Livello temporale, oltrepassando i tagli visivi (questo è chiamato effetto di scavalcamento o overlapping).

• Livello spaziale, inserendo determinati suoni d'ambiente come ad esempio il canto degli uccelli o il rumore del traffico di una città; questo crea un quadro generale dove l’immagine è contenuta e l’ascoltatore viene immerso.

• Musica orchestrale, la quale non possiede caratteristiche temporali né spaziali, ma permette di inserire l’immagine nello stesso flusso comunicativo e percettivo.

                                                                                                               86  Chion Michel, op. cit., p.50  

  69  

La punteggiatura nel cinema

La punteggiatura in campo cinematografico è esistita sin dal cinema muto; essa possedeva molteplici aspetti come la gestualità, la visibilità e la ritmica. I cartelli introdotti per facilitare la narrazione della storia permettevano tramite la loro ripetizione e la dimensione nell’immagine, di scandire i tempi del film. L’ introduzione del sonoro nel cinema non possedeva più il principio della punteggiatura in se stessa, ma diventava un mezzo più discreto e surrettizio per introdurre determinate scen,e senza più affidare questo compito alla bravura degli attori o al découpage. La professione all’interno della troupe cinematografica che si occupa maggiormente della punteggiatura audiovisiva è il montatore, il quale potrà scegliere, analizzando dettagliatamente le immagini, quali rumori e suoni devono essere inseriti tra il ritmo del piano, la recitazione degli attori e il senso generale della scena. In alcuni casi, questo potere del montatore viene a mancare, poiché il regista stesso si occupa personalmente di tutta la punteggiatura sonora, scrivendo in modo dettagliato tutti gli avvenimenti sonori e visivi durante la fase di sceneggiatura. Per poter creare una determinata atmosfera, per lo spazio di un film, si utilizzano gli elementi di sfondo sonoro detti E.S.S.; questi suoni più o meno intervallati e intermittenti sono ben localizzati e distinti all’interno della scena e del flusso sonoro. Un chiaro esempio che rispecchia queste caratteristiche è lo squillo del telefono nell’ufficio, l’abbaiare di un cane in lontananza o la sirena di un’ambulanza. I suoni appena descritti si differenziano dai suoni permanenti (un pigolio di uccelli continuo), poiché i primi definiscono lo spazio mentre i secondi, sono lo spazio stesso. Lo sfondo sonoro può acquisire, oltre al ruolo narrativo una funzione di punteggiatura, generando, grazie alla relazione con il ritmo della scena, un nuovo modello di uso e creazione cinematografica.

Il silenzio87 Bresson88 afferma che il cinema sonoro ha generato il silenzio, ma questo appena detto è un paradosso, poiché hanno dovuto introdurre prima i rumori e le voci per poter interrompere il flusso sonoro e ottenere così un’assenza di suoni, mentre il cinema muto suggeriva delle sonorità anche se non esistenti.                                                                                                                87  Chion Michel, op. cit., p.60  88  per ulteriori approfondimenti consultare: http://sensesofcinema.com/2002/great-directors/bresson/  

  70  

Questo “elemento zero”, così definito da M.Chion, è molto difficile da ottenere e utilizzare tecnicamente all’interno di un progetto audio-video, poiché non basta solo interrompere tutto il flusso sonoro e mantenere il silenzio, perché questo potrebbe causare, all’interno dello spettatore, una sensazione di interruzione tecnica non voluta o di un errore di diffusione dell’audio da parte del sistema. Molti sound designer per ricreare il vero silenzio di ogni luogo della scena del film, registrano in ogni location o in determinati luoghi prestabiliti il silenzio, poiché esso varia in base alla dimensione della stanza, o se si tratta location interne o location esterne. Il silenzio all’interno di una sequenza di un film può creare differenti stati emotivi, come tensione, soffocamento, tristezza, allegria o rilassatezza. Tutti questi fattori dipendono da come viene proposto e generato il silenzio dal regista o dal montatore; se ad esempio esso viene da una scena molto rumorosa, oppure da una scena molto tranquilla. Un esempio che M.Chion riporta si trova in Alien (scena all’interno della nave con un primo pirano del gatto-mascotte), dove Ridley Scott vuole impressionare lo spettatore attraverso un silenzio inquietante pieno di sciagure future. I piani che anticipano questa sequenza sono ricchi di sonorità e preparano lo spettatore al silenzio senza un’interruzione improvvisa del suono. Il silenzio nel cinema a volte viene concepito anche attraverso i versi di animali in lontananza, i pendoli in una stanza o rumori tutti molto ravvicinati. Un altro fattore che può determinare il silenzio è l’utilizzo del riverbero con suoni isolati, poiché esso riesce a rafforzare la sensazione di lontananza. Nella sequenza di apparizione del titolo del cortometraggio La prova, ho utilizzato per il suono ricreato un riverbero molto lontano, affinché lo spettatore venga subito immerso in uno stato di tensione emotiva e di suspance immediata.

L’acusmetro

M.Chion definisce l’acusmetro in questo modo:

“L’ acusmetro è quel personaggio acusmatico la cui posizione rispetto allo schermo si colloca in un'ambiguità e in una oscillazione particolare che abbiamo analizzato a lungo in La voce nel cinema. Lo si potrebbe definire come né dentro né fuori (in rapporto all’immagine): non dentro perché l’immagine della sua sorgente - il corpo, la bocca - non è inclusa, ma neppure fuori perché esso non è

  71  

situato indipendentemente off su un immaginario podio simile a quello del conferenziere e dell’imbonitore (voce di narratore, di presentatore, di testimone), ed è implicato nell’azione, continuamente in pericolo di esservi incluso. Per questo le voci di narrazione del tutto svincolate non sono, in questo senso, voci di acusmetri.”89

Questo termine molto grezzo è stato creato appositamente per poter scindere con altre tipologie sonore, come ad esempio la voce per personaggi o determinato suono. Molti film hanno utilizzato questa categoria di personaggi a sé stante, come la madre in Psyco (1960, A. Hitchcock), il capobanda in Il testamento del dottor Mabuse (1933, F. Lang), il falso mago di Oz nell’omonimo film di Victor Fleming, robot e computer in 2001: odissea nello spazio (1968, S. Kubrick), fantasmi in La nostra compagna (1938, M. Ophuls). Il personaggio per essere un acusmetro deve possedere necessariamente delle caratteristiche che lo rendono misterioso, come ad esempio rimanere nascosto dietro a una tenda oppure in una stanza o in un nascondiglio. La finzione cinematografica attribuisce all’acusmetro tre poteri e un dono:

• Onniveggenza

• Onniscienza

• Onnipotenza

• Ubiquità Il potere dell’onniveggenza è dato dal fatto che la voce dell’acusmetro è la stessa voce che viene definita identificazione primaria alla macchina da presa, ed facilmente riconoscibile nei lungometraggi dove si narrano storie di persecutori telefonici che parlano in maniera molto onniveggente appunto, come nel film Someone’s Watching Me! 1(978, John Carpenter). Il potere dell’onniscienza deriva dal primo, mentre il terzo, ossia l’onnipotenza, riguarda l’utilizzo della parola-testo legata all’idea di magia, quando le parole riescono a diventare delle cose. Alcune volte capita che alcuni di questi tre poteri vengono a mancare, di conseguenza avremo a che fare con gli acusmetri paradossali, i quali possiamo ritrovarli nel film I giorni del cielo del 1973 di Terence Malick, oppure nel film L’isola della donna contesa del 1953, diretto da Josef von Sternberg.

                                                                                                               89  Chion Michel, op. cit., p.128  

  72  

L’acusmetro a volte può non possedere tutti i tre poteri appena descritti, di conseguenza avremo una deacusmatizzazione, ossia una rivelazione della fonte sonora che in questo caso coincide con la voce. Questo procedimento permette di umanizzare e incarnare la voce dell’individuo, tramite il sincronismo ascolto – visione, poiché lo spettatore riesce a vedere chiaramente la faccia e la singolarità dell’individuo stesso. Un chiaro esempio di questo meccanismo è presente nel film Agente 007, licenza di uccidere, Dr. No (1962, Terence Young), o in lungometraggi con trama poliziesca o investigativa, dove il “big boss” (così chiamato da M.Chion), si mostra finalmente al pubblico dopo aver all’inizio solo rivelato la sua voce.

www.cb01.eu

  73  

Tipologie d’ascolto L’essere umano, secondo M. Chion, possiede tre ascolti sonori differenti:

• Ascolto causale

• Ascolto semantico

• Ascolto ridotto L’ascolto causale è il più diffuso rispetto alle altre due tipologie, ma è anche il più ingannevole, poiché utilizza il suono per arrivare ad acquisire più informazioni possibili sulla sua causa e questo meccanismo a volte può risultare errato se non viene associato a una fonte visibile. L’ascolto semantico è il più studiato a livello di ricerca linguistica in quanto consente di abbinare al suono un determinato codice o linguaggio da interpretare per estrapolare un preciso messaggio, ad esempio il codice Morse. Come ultima tipologia d’ascolto abbiamo quello ridotto che P. Schaeffer definisce come un

“ascolto rivolto alle qualità e alle forme proprie del suono, indipendentemente dalla sua causa e dal suo senso; e che considera il suono – verbale, strumentale, aneddotico o qualunque – come oggetto di osservazione, invece di attraversarlo mirando ad altro”90.

Non associare nessuna fonte ad un suono, ma pensarlo come evento indipendente con una propria caratteristica e proprie qualità fisiche aiuta a distaccarsi dal concetto di causa, rendendo così il suono un oggetto ben definito, ripetibile e unico. Ma a cosa serve l’ascolto ridotto nel cinema se la relazione tra suono e immagine ha principalmente valore figurativo o evocativo? Il regista, il sound designer e i tecnici audio del settore cinematografico, con l’ascolto ridotto hanno la possibilità di ampliare la loro conoscenza e di controllare nel miglior modo possibile tutto il materiale di cui si servono. Un metodo studiato al conservatorio in questi anni che va in contrasto/accordo con l’ascolto ridotto, cogliendo appunto tutte quelle caratteristiche sonore di un suono senza vederne la causa, è senza dubbio l’ascolto acusmatico. P. Schaeffer era del parere che la situazione acusmatica incoraggiasse questa tipologia d’ascolto, distaccando le cause o gli effetti di un suono, ma nella maggior

                                                                                                               90  Chion Michel, op. cit., p.36  

  74  

parte delle volte avveniva il contrario di quello desiderato, infatti l’ascoltatore cercava in ogni modo di associare al suono percepito una determinata fonte.

La sincresi Con la nascita del sincronismo tra immagine e suono si crearono diversi meccanismi all’interno della loro relazione, come ad esempio la divergenza e la convergenza che sfocia nell’ anticipazione di un determinato evento della scena successiva. L’aspetto che andremo ad approfondire è il punto di sincronizzazione che viene definito da M. Chion in questo modo:

“Un punto di sincronizzazione è, in una catena audiovisiva, un momento saliente di incontro sincrono tra un momento sonoro e un momento visivo: un punto in cui l’effetto di sincresi (si veda oltre) risulta più accentuato, come in una musica un accordo più marcato degli altri.”91

Questo effetto a volte emerge in maniera piuttosto evidente quando vi è l’incontro/scontro di elementi di natura molto variabili, come ad esempio la voce off (approfondita nel prossimo paragrafo) con l’immagine. Un capitolo molto importante che M. Chion affronta nel suo libro è il punto di sincronizzazione evitato, che permette all’audio-spettatore di attribuire una causa al suono ascoltato, dando di conseguenza un intero processo di inizio e fine di ciò che sta accadendo e questo processo si svolge tutto all’interno nella mente dello spettatore. Un esempio calzante di questo meccanismo possiamo trovarlo nel film Giungla d’asfalto, The Asphalt Jungle, (1950, John Huston92), dove nella scena del suicidio del notabile, possiamo verificare una sequenza dove il suono dello sparo della pistola, lascia intendere la morte del personaggio anche se l’immagine non è associata a ciò che sta accadendo nella scena principale. Un altro aspetto che riguarda la sincresi nel mondo cinematografico è il doppiaggio, processo che ha un’evoluzione storica iniziata tra il 1932 e 1933 in Italia.

                                                                                                               91  Chion Michel, op. cit., p.62  92  Link video del film, la scena indicata nel testo si trova al minuto 1’13’’22’’:  https://www.youtube.com/watch?v=JcGF9280VrI  

  75  

Il doppiaggio93 è quel processo che permette di adattare varie lingue alla lingua originale del film, affinché sia possibile una comprensione maggiore per tutte quelle persone che non conoscono la lingua originaria. Come possiamo notare ed ascoltare in un film, un ruolo assai importante lo svolge la voce. Nei film spesso vi è la cosiddetta voce fuori campo, ma cos’è effettivamente la voce fuori campo e perché si differenzia da un dialogo tra due attori o da un determinato suono associato all’immagine in sync? Tutto l’insieme dei suoni off, ossia fuori quadro, sono riconducibili alla fonte sonora durante l’ascolto, ma senza necessariamente vederla, di conseguenza i suoni off si contrappongono ai suoni in, i quali appartengono al fenomeno della diegesi sonora94. Paola Valentini, nel libro citato nei capitoli precedenti, riporta le caratteristiche dei suoni over, i quali appartengono al fenomeno della extra-diegesi:

“un luogo radicalmente escluso dal campo visivo dello spettatore, come quello del commento musicale o della voce del narratore”95.

Questa distinzione tra i suoni in, off e over sono in un continuo scivolamento poiché ogni inquadratura dell’immagine proposta, rimette in discussione tutto il rapporto tra il suono e l’immagine che si genera. Giocando con queste differenti tipologie molti registi hanno ricreato il loro stile/marchio, come ad esempio F. Fellini che nel 1963 realizza il film 8 1/2 (1963, F. Fellini), dove vi è un continuo flusso di cambiamento tra i suoni in, off e over. Il passaggio tra suono in e suono off e viceversa, è il più utilizzato nel cinema e non va a creare un forte impatto emotivo, di conseguenza nella maggior parte delle volte, lo spettatore non si accorge di questo cambiamento, mentre l’oscillazione tra il suono in e suono over porta all’interno dello spettatore una sospensione che tende a sottolineare un determinato momento cruciale nella scena.

             

                                                                                                               93    Approfondimento sulla storia del doppiaggio: http://www.antoniogenna.net/doppiaggio/speciali/storiadopp.htm  94  Approfondimento sulla diegesi sonora : http://www.ilcorto.it/Tecnica_AV/SONORO_st.pdf  95 Paola Valentina, op. cit., p.140  

  76  

Realizzazione di un cortometraggio Come detto nell’introduzione della tesi, andrò a realizzare un intero cortometraggio realizzando sia la parte riguardante il video sia quella riguardante l’audio. L’ aspetto che andrò ad approfondire in maniera completa nel progetto sono i sound effects, che creerò direttamente tramite registrazioni sonore sul campo ed elaborazioni con materiale già noto nelle librerie degli effetti sonori. Tutti gli argomenti che ho avuto modo di approfondire durante questa ricerca mi hanno permesso di acquisire delle conoscenze finalizzate alla realizzazione di una colonna sonora completa, soprattutto grazie al libro di D. Sonnenschein96 che mi ha fornito le basi per la creazione di una mappa sonora.

Parte video di La prova Non essendo un videomaker professionista e non avendo mai studiato in una scuola di cinema, ho cercato e approfondito da autodidatta alcune tecniche di ripresa video per poter ottenere una qualità discreta dell’immagine. Per questo cortometraggio ho investito del denaro per poter possedere una telecamera ultra HD Blackmagic 2.5K, la quale ha la possibilità di registrare a 24 frame cinematografici al secondo in RAW. Il formato RAW è il più pesante da poter elaborare e montare, poiché pieno di informazioni sul colore, dettaglio e resa dell’immagine. Dopo aver creato una storyboard delle inquadrature e aver scritto la sceneggiatura ho iniziato le riprese in vari giorni, chiamando nella troupe e nel cast attori, aiuto regia e truccatrice per gli zombie. Il montaggio delle inquadrature è stato eseguito con il programma Davinci Resolve, sempre di marchio Blackmagic, con una color correction adeguata al video. Avendo a disposizione ora tutta la parte video quasi ultimata posso concentrarmi nella sonorizzazione di quest’ultima, dando una mia impronta artistica in questo nuovo mondo da scoprire passo dopo passo.

                                                                                                               96  Sonnenschein David, op. cit., p.250

  77  

inquadratura del cortometraggio “La prova”

Parte audio di La prova Il film che mi ha suggerito determinate idee sonore e scelte estetiche è Resident Evil (2002; P.W.S. Anderson). Il regista, in un’intervista rilasciata a fine dei contenuti speciali del blu-ray, ha affermato che la colonna sonora doveva possedere delle caratteristiche estranianti e totalmente diverse rispetto allo scenario tipico di quel periodo, il quale utilizzava massicce orchestre strumentali con un sound già assimilato dal pubblico. Il regista John Carpenter97 ha influenzato molto le scelte sonore di Resident evil, in quanto nei suoi vecchi film erano presenti dei suoni molto intensi e aggressivi, ricchi di musica elettronica. P.W.S. Anderson per poter ricreare queste sonorità con una netta scissione al tradizionale metodo di sonorizzare negli anni ’70 e ’80, ha affidato l’intero progetto della colonna sonora a Marco Beltrami98 e Marilyn Manson99. Marco Beltrami ai suoi esordi da compositore, ha sempre preferito lavorare a progetti cinematografici molto tetri e angoscianti, in quanto lui stesso afferma che grazie a questi stati d’animo di paura e terrore è possibile sperimentare e creare dei timbri molto particolari e interessanti, per poter generare un preciso rafforzamento o indebolimento delle immagini della sequenza filmica.

                                                                                                               97  tra i suoi lavori più famosi abbiamo: Distretto 13 – Le brigate della morte (1976), Halloween – La notte delle streghe (1978), La cosa (1982) 98  compositore statunitense che ha iniziato nel 1996 con il film horror Scream 99  cantautore industrial metal e attore statunitense  

  78  

Marilyn Manson non ha mai realizzato nella sua carriera nessuna colonna sonora cinematografica fino alla proposta di P.W.S. Anderson, ma come il cantante ha affermato in alcune sue interviste, prima di scrivere una canzone lui la immagina sempre in una determinata scena, di conseguenza questa sfida lanciatagli dal regista è stata accolta immediatamente, affinché lui stesso possa sperimentare questa simbiosi tra il suono e l’immagine. Come detto precedentemente nel secondo capitolo, il sound designer e i suoi collaboratori hanno il diritto e il dovere di comprendere a 360° l’intero progetto audio-video, così M. Manson durante la visione del progetto di Resident Evil, ha trovato al suo interno tre elementi fondamentali che poi utilizzerà durante la creazione sonora. Questi elementi sono:

• Elemento infantile: legato al mondo di Alice nel paese delle meraviglie, basandosi sulla Regina di Cuori

• Elemento della freddezza: dato dalla location, un ambiente totalmente privo di natura e forme di vita

• Elemento del militarismo fascista: suggerito dalla squadra speciale del film per il recupero di alcune informazione top secret nell’alveare

Nel cortometraggio La prova, siccome sono io stesso il regista e lo sceneggiatore ho individuato subito durante la stesura dei dialoghi e della storyboard, alcuni elementi fondamentali che successivamente utilizzerò per il sound design e la colonna sonora del progetto audio-video e sono:

• La morte: data dal personaggio zombie

• La paura: presente nella prefazione nel giornalista televisivo, ed anche successivamente all’interno dello stato d’animo dei protagonisti in continuo pericolo di vita

• La tensione: nelle scene di scontro con gli zombie

• La diffidenza: nel dialogo dei protagonisti dentro la casa

• La calma apparente: quando il protagonista si sveglia nel suo letto Per Resident Evil i due compositori hanno scelto di utilizzare un sound molto aggressivo e a tratti alienante. Arrivando da una cultura rock, M. Manson ha deciso di sfruttare la sonorità delle chitarre metal, quindi con una forte distorsione dell’onda, per ottenere un suono molto graffiante, tetro, ma allo stesso tempo pieno di energia.

  79  

Un’altra componente molto importante è il leitmotiv, introdotto per la Regina Rossa (antagonista del film Resident Evil) servendosi di una melodia infantile che richiama il valzer, con un ritmo terzinato e un sound molto filtrato che muta costantemente grazie ad effetti come il flanger, chorus, ecc… Questo leitmotiv si presenta all’ascoltatore quando la Regina Rossa appare nella scena o sta per apparire, ma ad ogni ingresso nuovo, il suono assume delle caratteristiche sempre più strong e aggressive. La melodia principale del film è stata pensata immaginando il mondo di Alice nel paese delle meraviglie, immerso in un terribile scenario pieno di decadenza e guerra biologica. Il regista P.W.S. Anderson ha scelto di utilizzare un’illuminazione e un montaggio audio-video molto moderno, di conseguenza tutto il sound attorno doveva possedere la stessa impronta, quindi M. Manson e M. Beltrami hanno deciso di usufruire di suoni elettronici, molto freddi soprattutto nelle scene d’azione e combattimento contro gli zombie infettati dal T-Virus100. Il suono elettronico rende perfettamente la monotonia e la spietatezza degli zombie, i quali non si fermano davanti a niente, ma la cosa più interessante è il contrasto e l’incontro tra i due compositori del film, poiché M. Beltrami arriva da uno studio classico basato sulla scrittura a mano delle note sul pentagramma con determinate regole di armonica da seguire, mentre M. Manson non avendo un base di studio vero e proprio nella musica, ha seguito il proprio istinto e il proprio orecchio. Per il mio progetto non ho voluto scrivere niente sul pentagramma, anche perché difficilmente possiamo reperire una partitura di una composizione di musica elettronica con una scrittura tradizionale. Un altro film che ha influenzato le mie scelte e che ho analizzato è World War Z (2013, Marc Foster); questo lungometraggio, sempre a tema zombie, ha un sound molto simile a Resident Evil, ma è stato concepito e creato in maniera meno aggressiva, con un’intensità minore. L’elemento sonoro che accomuna entrambi i film è l’estraneazione dal reale, poiché come potete sentire nei temi musicali principali 101 , vi è un’ analoga melodia discendente e ascendente in loop riproposta ogni volta, con l’ accompagnamento affidato alle drum machine e a pad.

                                                                                                               100  scena di combattimento del film Resident Evi:l https://www.youtube.com/watch?v=KIeBp9RapcI  101  tema principale Resident Evil: https://www.youtube.com/watch?v=wZ4JoovKWCU tema principale World War Z: https://www.youtube.com/watch?v=tVvG3X1pcQ8

  80  

La differenza che possiamo notare immediatamente durante l’ascolto, consiste in una diversa scelta estetica e stilistica per l’accompagnamento del tema principale delle due differenti composizioni. In Resident Evil vi sono sonorità accattivanti, forti, che rimandano molto al mondo del metal, del rock e dubstep, con una ricca gamma di sonorità elettroniche e sperimentazioni sonore, effettuate tramite sintetizzatori e campionatori. In World War Z invece, il compositore M. Beltrami (lo stesso di Resident Evil) ha utilizzato per l’accompagnamento del tema principale solo strumenti tradizionali, quali gli archi, il pianoforte, aggiungendo solo come suono elettronico un kick di batteria equalizzata con un’ attenuazione delle basse frequenze. Nel cortometraggio La prova ho scelto di proporre un sound che incontra il mondo musicale tradizionale e il mondo della musica elettronica, poiché a parer mio, l’ascoltatore medio di oggi non ha ancora assimilato le nuove sonorità che stanno nascendo negli ultimi anni.

Tema musicale La prova Come detto in precedenza, il tema musicale di Resident Evil e World War Z consiste, strutturalmente parlando, in una melodia discendente e ascendente molto estraniante riproposta ciclicamente. Ora andiamo ad analizzare nel dettaglio le due melodie: Resident Evil theme song:

Come possiamo notare vi è un simile schema ritmico e andamento melodico in entrambe le battute, ossia vengono proposte all’ascoltatore tre note ribattute terzinate con una discesa intervallare di un tono e un tono e mezzo subito dopo. La distanza intervallare che ricopre la melodia è massimo una quinta giusta, di conseguenza non vi sono dei forti sbalzi di range frequenziali.

  81  

Come accompagnamento va sottolineata la scelta del compositore di introdurre un arpeggio/successione di suoni che riempiono questo tema molto semplice e di forte impatto emotivo durante l’ascolto. Il timbro della melodia ricorda quello di un carillon per bambini, questo poiché M. Manson nella lettura della sceneggiatura aveva subito individuato l’elemento dell’infanzia, il quale ha poi utilizzato durante la creazione sonora. World War Z theme song:

Rispetto alla prima melodia questa è molto più semplice ritmicamente parlando, poiché non vi sono cellule ritmiche che giocano sul tempo. Ogni nota è scandita sul battere di ogni pulsazione del 4/4. Per quanto riguarda la distanza intervallare massima del tema risulta anch’essa di una quinta giusta; nella prima battuta la melodia si muove per gradi congiunti ascendenti, mentre nella seconda vi è un salto di una terza minore ascendente, per poi scendere di nuovo al DO. Questo tema è accompagnato da una nota ribattuta, in questo caso il SOL, che riempe l’idea melodica ripetendosi ossessivamente con differente dinamica su ogni tempo in battere e in levare del 4/4. La prova theme song:

La melodia che ho creato, la quale accompagna tutto il cortometraggio, è un continuo

susseguirsi di intervalli tra il Do e il FA# tra un’ottava e l’altra simile a un arpeggio. La distanza massima intervallare comprende due ottave, dal DO3 (Do centrale) al DO5.

  82  

L’andamento melodico come potete osservare è molto simile ai due temi proposti in precedenza, ma acquista un maggior movimento nell’ambito frequenziale. L’ intervallo di quarta eccedente, utilizzato per la maggior parte delle due battute, era chiamato all’epoca del medioevo Diabolus in musica, in quanto non convenzionale con l’armonia di quel tempo; esso viene definito come tritono, poiché divide l’ottava esattamente in due parti con una distanza intervallare di tre toni esatti. Il Diabolus era sinonimo di satana e di male spirituale, di conseguenza per questi motivi estetici ho deciso che il tema in questione dovesse rappresentare l’ oscurità e la morte, facendo così da colonna portante per l’intero cortometraggio, affinché venissero evocate durante l’ascolto la negatività e la paura associata al mondo zombie. La parte ritmica del tema sposta gli accenti del classico 4/4 sulle pulsazioni deboli e su quelle in levare, poiché l’ascoltatore non deve essere capace di definire il tempo subito ad un primo ascolto, ma anzi questo deve creare una lotta interiore tra l’emozione (ciò che si sente) e la razionalità (dare un senso logico e stabile). Per ottenere un timbro molto alienante in questo tema musicale, mi sono servito del vst “The Giant” della Native Instruments, un pianoforte campionato con suono

tradizionale, ma che è stato anche “violentato” e registrato da   Uli   Baronowsky, percuotendo ogni corda con dei legnetti o determinati oggetti percussivi. Questa sonorità, non comune tra gli audio-visori del cinema, fa nascere un’instabilità emotiva sin dall’inizio, in quanto la corda percossa produce un nuovo scenario musicale che va subito in conflitto con le sonorità della musica commerciale utilizzata come “cibo” quotidiano dalla gente comune.

http://www.native-instruments.com/en/products/komplete/keys/the-giant/

  83  

Parte ritmica del cortometraggio La prova Parte fondamentale di ogni film è il ritmo, inteso sia a livello visivo, sia a livello sonoro. Analizzando varie scene di film d’azione con sparatorie, combattimenti e inseguimenti sfrenati, ho notato che il ritmo sonoro aiuta lo spettatore a entrare meglio nella situazione nella quale si trova il protagonista. In una scena di combattimento102 di Arma Letale 4 (1998, Richard Donner), vi sono alcuni picchi di tensione visiva dati dal continuo cambiamento dell’inquadrature, ma la cosa sensazionale è l’entrata e l’uscita delle percussioni che funzionano come un accento narrativo durante la scontro corpo a corpo tra Mel Gibson, Danny Glover e Jet Li. Il compositore Michael Kamen, che si è occupato delle musiche di Arma Letale 4, durante questi momenti di combattimento alterna il silenzio musicale a periodi di forte intensità sonora data soprattutto con i timpani. Il timbro di questo strumento mi ha molto affascinato a tal punto di utilizzarlo nelle scene di forte tensione emotiva e fuga dagli zombie. Il vst che mi ha permesso di usufruire di tali sonorità è “Action Strikes” sempre della Native Instruments.

http://www.native-instruments.com/en/products/komplete/orchestral-cinematic/action-strikes/

                                                                                                               102  link video della scena https://www.youtube.com/watch?v=6PsX85TBlMA  

  84  

Per poterlo utilizzare in loop, ho costruito alcune battute con un determinato ritmo, servendomi di un classico 4/4, poiché volevo dare all’ascoltatore una sensazione di stabilità ritmica, ma nello stesso tempo drammatica, dando l’accento forte sempre alla prima pulsazione della battuta.

Come in Arma Letale 4 mi sono servito del silenzio per creare dei picchi d’emozione narrativa e per fare questo ho disegnato e analizzato, secondo i criteri di D. Sonnenschein per la creazione di una mappa sonora, tutti i momenti cruciali del cortometraggio, esaminando secondo dopo secondo il rapporto tra tensione/calma (visibile alla pagine successiva). Il timbro dei timpani però entrerà solo dopo il 1’30’’, poiché è vero che sin dall’inizio è presente subito una tensione, ma questa tensione l’ho data attraverso altre scelte che spiegherò successivamente. Nella scena finale di La prova (dove il protagonista sta per avere una colluttazione con il furioso), non ho creato nessun loop ritmico, ma ho eseguito personalmente in tempo reale il suono del timpano, dimezzando il tempo d’ingresso del suono come nell’immagine seguente:

  85  

Mappa sonora La prova:

  86  

Il trombone: timbro fondamentale Un timbro molto utilizzato dai compositori nell’ambiente cinematografico è il trombone, grazie alle sue caratteristiche che lo contraddistingue rispetto ad altri strumenti a fiato che risultano poco incisivi nel creare un effetto drammatico fra immagine-suono. Un film di dimensioni colossali che amo sin dalla sua uscita è il finale della trilogia de Il Signore degli Anelli – Il ritorno del re (2003, Peter Jackson). Il compositore di questo film, Howard Shore, sceglie un sound completamente orchestrale per questa tipologia di lungometraggio, facendo ampio uso degli strumenti a fiato, come il corno francese e il trombone. Quest’ultimo strumento da all’ascolto una sensazione di potenza e maestosità, grazie alla sua particolarità frequenziale e riesce risaltare rispetto al sound complessivo dell’orchestra103, poiché presenta un grandissimo spettro dinamico.

Nel cortometraggio La prova, ho scelto di utilizzare il timbro del trombone, ma non in maniera tradizionale, di conseguenza l’ho reso quasi irriconoscibile durante l’ascolto tramite un’equalizzazione estrema e l’effetto flanger della Waves.

                                                                                                               103  colonna sonora de Il Signore degli Anelli - Il ritorno del re, tromboni al minuto 10’10’’ https://www.youtube.com/watch?v=oi2lEyi92Ow  

  87  

Come potete notare nel grafico vi sono sei frequenze che ho scelto appositamente dopo vari ascolti, le quali ho alterato dando un grosso gain:

• 63Hz, +13.2dB

• 124Hz, +11.6dB

• 427Hz, + 10.2dB

• 2768Hz, + 14.4dB

• 7885Hz, nessun guadagno

• 14050Hz, + 5.9dB L’utilizzo del flanger della Waves, l’ho scelto perché consentiva al suono del trombone un’evanescenza e un distacco dalla realtà musicale che circonda quotidianamente ogni persona. Questa instabilità sonora dello strumento a fiato reso praticamente irriconoscibile, suscita all’interno dello spettatore durante l’ascolto un allarme, come se fosse una sirena di pericolo104 accesa durante un imminente terremoto o tsunami. Per poter ottenere un suono di trombone, all’inizio avevo pensato di registrare una libreria con un esecutore reale, ma poi dopo varie ricerche sul web ho trovato e comprato “CineBrass” della Cinesamples, con una libreria campionata ben costruita e pulita da suoni esterni indesiderati.                                                                                                                104  link video di un sound effect di sirena/allarme https://www.youtube.com/watch?v=XeC-3V4lmcM  

  88  

https://cinesamples.com/product/cinebrass-core

Onde sinusoidali Durante l’inizio del corto si possono sentire delle onde sinusoidali che raddoppiano in frequenza fino all’apparizione del titolo, questo poiché ho voluto aumentare ancor di più la crescita emotiva all’interno dello spettatore, il quale viene bombardato tramite questo climax audiovisivo crescente da frequenze basse e medie che provocano anche un fastidio fisico. Per poter creare questi suoni mi sono servito del free software Csound, costruendo tramite appositi moduli, uno strumento in grado di generare un’ onda sinusoidale ad una determinata frequenza stabilita. Le frequenze utilizzate per l’inizio del cortometraggio sono le seguenti:

• 30Hz

• 60Hz

• 120Hz

• 240Hz

• 480Hz Come possiamo notare sono una il doppio dell’altra, poiché questo fattore matematico ha sempre affascinato i miei lavori durante il corso degli anni al conservatorio e come spiegato in precedenza, possiamo ritrovarlo anche nel finale di La prova nella sezione ritmica dei timpani.

  89  

Sempre con Csound, ho generato tre suoni consecutivi di un’onda quadra per associarli all’ultima immagine dell’introduzione del cortometraggio (vedi foto successiva), creando così nella partitura del software la funzione GEN 7 (onda quadra), dando esattamente le coordinate dell’onda che andavo a realizzare.

Sound effects nel cortometraggio La prova La ricerca di questo approfondimento è incentrata soprattutto nel sound effect cinematografico, di conseguenza per questa parte ho eseguito un lavoro molto dettagliato, analizzando in maniera totale gli effetti sonori generati. Per poter iniziare a creare gli effetti sonori, come D. Sonnenschein suggerisce, ho segnato tutti i suggerimenti che le immagini erano in grado di fornire ed ho stilato una mappa sonora di tutti i sound effects possibili all’interno del progetto.

Cortometraggio La prova – mappa sonora dei sound effects • Attore si gratta la testa

• Tasti schiacciati della tastiera del computer

• Tasto invio schiacciato

• Sangue spruzzato (titolo)

• Onda sinusoidale interruzione linee

• Onda quadra interruzione linee

• Sveglia

• Vestiti attore nel letto

  90  

• Azione per fermare la sveglia

• Piedi sul pavimento

• Attore si strofina la faccia

• Passi in casa attore

• Suono vestiti dell’attore mentre cammina

• Apertura pc portatile

• Sedia che viene sbattuta all’indietro

• Passi incalzanti dell’attore in casa

• Giacca che l’attore mette addosso

• Attore si accovaccia

• Mitra preso da sotto il letto

• Caricatore mitra preso dal mobile

• Caricare il mitra

• Passi attrice nel cortile

• Vestiti che accompagnano i passi dell’attrice nel cortile

• Passo attore in casa più spostamento della giacca

• Passi barcollante uomo cortile

• Vestiti e passi dell’attrice che si accorge del barcollante

• Passi barcollante donna cortile

• Apertura porta in ferro dell’ attore

• Corsa attrice nel cortile

• Chiusura porta in ferro dell’attore

• Passi attore in cucina

• Mitra preso dalla cucina

• Barcollanti sbattono la porta di ferro

• Vestiti attore che accompagnano i movimenti

• Attore si appoggia alla cucina

• Passi attore in cucina con accompagnamento suono giacca

• Apertura porta in ferro

• Passi attori cortile

• Sparo mitra

• Caduta barcollante nel cortile

• Passi barcollante donna cortile

  91  

• Sparo mitra

• Caduta barcollante cortile

• Passi attori nel cortile che se ne vanno

• Passi attori per strada nel bosco

• Vestiti attori in movimento

• Attori si fermano per strada

• Movimento scattante attore

• Movimento tra la sterpaglia del furioso

• Movimento di saltelli attrice

• Passi sterpaglia furioso

• Passi attori che entrano nell’erba

• Passi strani nella sterpaglia del furioso

• Corsa attori nell’erba

• Vestiti attori movimento corsa

• Scricchiolio legnetti attori dietro rami

• Passi nell’erba del furioso

• Movimento vestiti furioso

• Legnetti scricchiolii

• Colluttazione attore e furioso

• Attore cade per terra

• Sparo attrice pistola

• Caduta furioso

• Attore si alza piano piano dall’erba e sterpaglia

  92  

Foley vestiti Il foley, come descritto nei capitoli precedenti, viene aggiunto in post-produzione per dare un senso di realtà maggiore alla scena inquadrata. In questo progetto ho scelto di proposito di non registrare gli stessi indumenti degli attori in sync con le immagini, poiché volevo sperimentare attraverso altri oggetti, se l’ascoltatore fosse in grado di cogliere l’inganno sonoro a cui è sottoposto. Il foley riguardante i pantaloni degli attori è stato realizzato tramite un semplice panno sfregato al momento giusto e sincronizzato con l’immagine della scena. Il suono più difficile da generare è stato durante la corsa dei protagonisti, poiché come artist foley sono dovuto entrare dentro la scena, come se fossi io l’attore che stava correndo.

Panno utilizzato per il foley dei pantaloni

Un altro foley molto interessante è stato quello della giacca del protagonista, in quanto il materiale dell’indumento non possedeva una sonorità adeguata all’immagine, così ho cercato tra la casa e mi sono trovato davanti un proteggi-schermo con uno strano sound, di conseguenza ho manomesso questo oggetto per poter acquisire determinate caratteristiche frequenziale per il suono della giacca.

  93  

Proteggi schermo utilizzato per il foley della giacca

Sound effect: footstep Per motivi di spazio non potevo creare all’interno del mio home studio recording una postazione designata per la registrazione dei passi su differenti terreni, di conseguenza per le scene svolte nel cortile e nel bosco, mi sono recato nelle vicinanze della mia zona esplorando posti sonori adeguati. Per i footstep nel cortile ho trovato un terreno ghiaioso e questo mi ha permesso di avere una sonorità accentuata per i passi del primo barcollante trascinati per terra, dando un effetto molto più drammatico alla scena.

Footstep su terreno ghiaioso

  94  

Per poter registrare in maniera sincronizzata ho messo il video sullo smartphone e grazie alla disponibilità di un mio collaboratore ho potuto fare una performance foley come se fossi in studio. Un altro footstep interessante è stato quello della corsa nel bosco e nell’erba dei protagonisti, in quanto ho dovuto ricercare in quelle zone il suono più corposo e adatto ad ogni determinata situazione.

Footstep per la corsa nel bosco dei protagonisti

Sound effects particolari In tutti i film sonori vi è un’impronta artistica del sound designer con una propria estetica e metodo di lavoro. Il miglior “progettista del suono” è a parer mio Gary Rydstrom, vincitore di ben sette premi Oscar, che nel film Jurassic Park è riuscito a compiere un’impresa straordinaria, quella di dare suono ai dinosauri senza che nessuno sapesse il loro vero verso. La tecnica utilizzata per dare voce al T-Rex mi ha talmente affascinato che ho voluto impiegarla anch’io per sonorizzare le urla del furioso in La prova. Questa tecnica è detta pitch shift e consente di abbassare o alzare l’intero rapporto frequenziale di un suono a una determinata frequenza stabilita e per farlo ho

  95  

utilizzato il SoundShifter della Waves, abbassando la mia voce registrata di meno dieci semitoni dall’originale.

Pitch shifter per il verso del furioso

Il suono del sangue che potete ascoltare durante l’apparizione del titolo è stato creato invece, tramite una sovrapposizione di cinque elementi sonori:

1. Saliva della bocca uomo che viene fatta passare tra i denti 2. Mano che si appoggia su una bacinella piena d’acqua 3. Unghia che sbatte sopra una piastra di metallo 4. Colpo di un dito sopra un cartone 5. Colpo di una mano sopra il legno

  96  

Tecnica del layering per il suond effect del sangue

Tutte queste azioni sono state processate tramite un’equalizzazione estrema; i primi due suoni hanno delle componenti mediose e alte molto rilevanti, mentre gli altri tre hanno subito dei cambiamenti nelle frequenze medio - basse. Il riverbero gioca un ruolo assai importante per la riuscita del suono, in quanto con un suo utilizzo eccessivo si riescono ad ottenere delle sonorità particolari, con un sound molto tetro.

Riverbero del sound effect del sangue applicato al terzo campione

  97  

Un altro sound effect dissociato dalla fonte reale è l’azione di apertura del pc portatile nella prima scena, dove il protagonista dopo essersi svegliato va a controllare i messaggi. Il computer non produceva nessun suono caratteristico d’apertura, così ho preso un cd ed ho trovato dei suoni toccandolo con le mani. Un altro metodo di lavoro che ho utilizzato è stato quello di analizzare e scegliere tra le librerie sonore di Andrew Kramer, il suono più adatto per il colpo di pistola finale e lo sparo del mitra. Per mia scelta ho utilizzato lo stesso campione, ma l’mp-5 avendo delle caratteristiche strutturali ben diverse dalla pistola, avrebbe prodotto sicuramente un suono differente, così ho equalizzato il campione affinché vi fosse una compressione del suono data dal silenziatore del mitra. Il dialogo degli attori presente nel video è stato tutto doppiato in studio, perché questo mi permetteva di isolare al meglio le sfumature della voce staccandolo dai rumori esterni presenti durante la ripresa video.

Sincronismo tra immagine e audio di La prova Per poter concludere questo progetto audio - video ho dovuto sincronizzare e aggiustare l’entrata e l’uscita dei suoni rispetto all’immagine; il software che ha permesso questo, già in mio possesso da anni, è “Cubase 5” della Steinberg. Per questo cortometraggio mi sono ritrovato a dover sistemare numerosissime tracce audio indipendenti organizzate in cartelle e sottocartelle, come potete osservare nella foto seguente.

Area di lavoro di Cubase 5 per il cortometraggio La prova

  98  

Mixing e mastering Nel lavoro di mixing ho dato ad alcuni suoni mono un determinato pannaggio per dare una sensazione di movimento all’interno della scena. Non ho utilizzato alcuna compressione sonora, poiché quest’azione andava a distruggere la dinamica del suono, fondamentale a parere mio e di altri sound designer nel campo cinematografico. Il livello dei volumi che ho aggiustato, garantisce all’audiovisore un’esperienza lineare, senza intoppi o sbalzi di intensità che potrebbe dare fastidio durante la fruizione del progetto, mentre il dialogo dei due attori risalta rispetto ai suoni d’ambientazione, perché il contenuto verbale è fondamentale per la riuscita della narrazione. Nel mastering finale ho effettuato una piccola equalizzazione diminuendo leggermente le frequenze basse, poiché la diffusione audio del corto è stata pensata in stereo a due canali, di conseguenza durante la discussione d’esame diffonderò l’audio a 3 coppie di canali stereo più il subwoofer.

www.treelady.com

  99  

Conclusione All’inizio di questo lungo percorso ero leggermente titubante della riuscita finale del progetto, poiché questo comprendeva il dover imparare a fondo determinati programmi audio - video mai utilizzati in questi anni, ma ora a fine di tutto il cortometraggio sono molto soddisfatto, in quanto ho immagazzinato un’ esperienza molto vicina al campo lavorativo. Il mondo dei sound designer è veramente immenso, non avrei mai pensato che ci fossero così tante piccole sfumature estetiche in ambito cinematografico. Analizzare i sound effects dei film mi ha fatto capire, che a volte basta la semplicità di un suono per dare molta importanza ad una scena o a un concetto ben preciso. Mi sono sentito come un bambino alla scoperta del mondo durante questo approfondimento, poiché ogni volta che leggevo qualcosa di totalmente nuovo ero spiazzato, poiché in tutti questi anni passati a vedere film mi sono accorto di essere sempre stato uno spettatore passivo, come ad esempio ascoltando il verso del velociraptor nel film Jurassic Park, che fin a tre mesi non sarei mai riuscito a distinguere lo starnazzare dell’oca, la tartaruga in calore e il nitrito del cavallo. Questa ricerca mi ha donato un metodo d’ ascolto analitico verso tutto il suono che ci circonda, non soltanto in campo cinematografico, ma anche nella vita reale. Ora passeggiando per Como, oppure stando solamente nella mia camera percepisco molte sonorità che prima passavano inosservate, come ad esempio la frenata di un camion, il motore di un battello, lo sbattimento delle ali di un piccione. Questa esperienza mi ha davvero cambiato, a tal punto che proverò ad entrare alla Civica di Milano sezione cinema, per il corso di Sound Designer Cinematografico.

  100  

Bibliografia: Chion Michel, L’audiovisione. Suono e immagine nel cinema, (Collana Saggi), 4 ed., s.l., Lindau, 2009, 192 p., (Traduzione: Buzzolan D.) Sonnenschein David, Sound design. The expressive power of music, voice, and sound effects in cinema, s.l., Michael Wiese Productions, 2001, 250 p. Valentina Paola, Il suono nel cinema. Storia, teorie e tecniche, (Collana Elementi), Venezia, Marsilio, 2006, 190 p. Viers Ric, The sound effects bible. How to create and record hollywood style sound effects, s.l., Michael Wiese Productions, 2008, 326 p. Rondolino Gianni, Cinema e musica. Breve storia della musica cinematografica, s.l., UTET università, 1991, 136 p. Jullier Laurent, Il suono nel cinema. Storia, regole, mestieri, (Collana Strumenti. Cahiers du cinéma), s.l., Lindau, 2007, 93 p., (Traduzione: Mugelli E.) Latini Giulio, L’immagine sonora. Caratteri essenziali del suono cinematografico, (Collana In scena), s.l., Artemide, 2006, 288 p. Manfred Giampietro, Ruoli e funzioni della musica nel cinema. Quasi un dialogo, s.l., Felici, 2013, 200 p.

                                       

  101  

Sitografia: https://www.youtube.com/watch?v=JcGF9280VrI http://www.antoniogenna.net/doppiaggio/speciali/storiadopp.htm http://www.ilcorto.it/Tecnica_AV/SONORO_st.pdf http://www.wuz.it/appunti-scuola/907/musica-del-cinema-muto.html https://www.youtube.com/watch?v=6Q3Bhs0nHBk http://en.wikipedia.org/wiki/Phonograph_cylinder https://www.youtube.com/watch?v=aXh9IbESHA0 http://www.phonorama.fr/ http://en.wikipedia.org/wiki/Chronophone http://www.homolaicus.com/arte/futurismo/provocazione/russolo.htm https://www.youtube.com/watch?v=VHLmitA3o6g http://www.treccani.it/enciclopedia/cinemascope_%28Enciclopedia-del-Cinema%29/ http://www.oltrecultura.it/schede/Tristan_und_isolde_scheda.htm http://www.bergamopost.it/da-vedere/12-splendide-definizioni-cinema/ https://www.youtube.com/watch?v=-iVYu5lyX5M http://music.tutsplus.com/tutorials/6-stereo-miking-techniques-you-can-use-today--audio-204 https://www.youtube.com/watch?v=dc5F2C0CYlA https://www.youtube.com/watch?v=cdbYsoEasio http://www.audiosonica.com/it/corso/post/138/Microfoni_e_tecniche_di_microfonaggio_Tecniche_di_microfonaggio_stereo_Introduzione http://www.oltrecultura.it/schede/Tristan_und_isolde_scheda.htm

  102  

Ringraziamenti Per questa tesi finale, presso il Conservatorio di Como, volevo ringraziare tutte le persone che mi sono state vicino durante questi mesi di ricerca e duro lavoro per poter realizzare il cortometraggio “La prova”. In primis ringrazio tutta la mini troupe e il cast che mi ha aiutato nei giorni di ripresa della parte video: Massimiliano Angioni Miriam Cappa Ester Montalto Matilde Abate Enea Scirè Simone Paci Un grazie per la lunga pazienza va ai miei genitori che mi hanno permesso di rimandare la sessione d’ esame affinché riuscissi a ottimizzare e finire tutto il progetto, permettendomi anche di comprare le attrezzature per poter girare sia la parte video che audio. Un ringraziamento speciale infine va al maestro M.Marinoni che ha avuto la pazienza e l’onestà di dirmi che all’inizio il mio metodo di stesura era del tutto sbagliato e di conseguenza andava rifatto.

  103