Musica e Pubblicità - Un' Ipotesi Retorica

200
Università degli Studi di Modena e Reggio Emilia Facoltà di Scienze della Comunicazione e dell’Economia Corso di Laurea Specialistica in Comunicazione Pubblicitaria e Istituzionale Tesi di Laurea MUSICA E PUBBLICITÀ: UN’IPOTESI RETORICA Relatore: Prof. Stefano Calabrese Laureando: Alessandro Miani (matr. 40951) a.a. 2009/2010

Transcript of Musica e Pubblicità - Un' Ipotesi Retorica

Università degli Studi di Modena e Reggio EmiliaFacoltà di Scienze della Comunicazione e dell’Economia

Corso di Laurea Specialistica inComunicazione Pubblicitaria e Istituzionale

Tesi di Laurea

MUSICA E PUBBLICITÀ: UN’IPOTESI RETORICA

Relatore: Prof. Stefano Calabrese Laureando: Alessandro Miani(matr. 40951)

a.a. 2009/2010

2

Indice

Introduzione 7

1. ESPOSIZIONE 91.1. Elementi di musica 12

1.1.1. Sull’importanza della musica 141.1.2. Gli universali in musica 161.1.3. Musica e linguaggio 171.1.4. Il sistema musicale 191.1.5. Dissonanza 22

1.2. Psicologia della musica 281.2.1. Esperienza prenatale 281.2.2. Risposte fisiologiche alla stimolazione musicale 301.2.3. Percezione musicale 321.2.4. Sensoriale vs cognitivo 34

1.3. Estetica dell’imitazione 37

1.4. Retorica musicale 401.4.1. Storia della retorica musicale 401.4.2. I madrigalismi 431.4.3. La trattatistica barocca 45

1.5. La Pubblicità 491.5.1. Musica come attrazione 491.5.2. Musica nella pubblicità 501.5.3. Il jingle 551.5.4. Musica nei luoghi di consumo 57

1.6. Risoluzione 59

2. SVILUPPO 61

2.1. Semiologia della musica 642.1.1. Il significato in musica 652.1.2. Gli intervalli e il loro significato 702.1.3. La melodia e il suo significato 792.1.4. La strumentazione e il suo significato 84

3

2.1.5. Musica come espressione 872.1.5.2. Espressioni vocali 91

2.1.6. Musica e movimento 932.1.6.1. Il mickey-mousing 96

2.1.7. Tipologia di segni musicali 982.1.7.1. Anafonie 992.1.7.2. Sineddoche di genere 1002.1.7.3. Marcatori di episodi e indicatori di stile 101

2.2 Un approccio linguistico 1022.2.1. Fonologia 1032.2.2. Morfologia 1052.2.3. Sulla scrittura 1092.2.4. Musica come forma di argomentazione 1132.2.5. Sintassi 1142.2.6. Significato 119

2.2.6.1. Il percorso generativo del senso 1202.2.6.2. Modello percettivo della significazione musicale 1232.2.6.3. Prime conclusioni sul significato musicale 127

2.2.7. Il segno musicale 1282.2.8. Conclusioni: un linguaggio poetico 135

2.3 Tassonomia delle figure imitative 1382.3.1. Metafora 1392.3.2. Onomatopea 1432.3.3. Luc Ferrari e John Cage 1492.3.4. Prime conclusioni 152

3. RIPRESA 155

3.1. Gli spot pubblicitari 1583.1.1. Alcuni casi 1583.1.2. Il caso Calzedonia 162

3.1.2.1. Ontogenesi e filogenesi 164

3.2. Conclusioni 173

Bibliografia 181

4

...ad Alberto Gay

5

6

Introduzione

La canzone del sole di Battisti e Smoke on the water dei Deep

Purple eseguita in maniera semplificata con una sola corda non sono i

primi brani che vengono eseguiti sulla chitarra? Durante l’esperienza con

le nostre prime canzoni, non ci si è forse accorti che gli accordi minori

sono tristi mentre quelli maggiori allegri? E continuando, non è forse vero

che la nostra musica viene influenzata da quelle che più ci piacciono?

Quante volte nel negozio di strumenti musicali al commesso si chiedono il

plettro, la chitarra, l’amplificatore di particolari musicisti per avere quel

determinato suono usato in quel disco del 1978? Tutto questo rientra in

quella pratica naturale e diffusa che è l’imitazione. Imitazione ad ogni

livello: imitazione di persone, imitazione di canzoni, imitazione del

materiale musicale all’interno di una canzone e imitazione di un qualcosa

che si trova al di fuori della musica. È proprio questo l’oggetto di studio

della nostra tesi.

7

Si prenderà in esame un particolare tipo di musica, studiata

attraverso differenti approcci e sotto diversi punti di vista, che è finalizzata

a uno scopo, vale a dire quello di accompagnare le immagini nel

messaggio pubblicitario. Il nostro obiettivo è portare dati a favore della tesi

che una musica di carattere imitativo, più precisamente che mima le

caratteristiche semantiche, fisiche e tattili di un prodotto, sia più efficace di

una musica che viene associata ad esso in modo casuale, in altre parole,

si ritiene che le associazioni basate sull’imitazione di caratteristiche fisiche

possano in qualche modo facilitare la memorizzazione del prodotto stesso,

una tesi avvalorata da dati provenienti dalla psicologia cognitiva e dalla

linguistica.

Questo lavoro sarà strutturato seguendo lo schema formale della

forma sonata bitematica tripartita, suddivisa in esposizione, sviluppo e

ripresa. È stata scelta questa strutturazione in quanto si pensa che

l’argomentazione debba seguire un percorso in cui, se in un primo tempo

si espongono i temi da discutere, successivamente essi vengono

sviluppati per essere infine ripresi traendone delle conclusioni.

Nell’esposizione verranno presentati gli approcci disciplinari che saranno

utilizzati, in particolar modo quello linguistico, di cui ci serviremo per

mettere a punto un modello del segno musicale. Un’ultima parte, la

ripresa, sarà dedicata all’applicazione dei nostri modelli e alle conclusioni.

Come la forma sonata è bitematica, anche nel nostro lavoro si rintraccia

bitematismo, più precisamente nella psicologia e nella linguistica che ci

permettono di mettere a punto i nostri modelli.

8

1. ESPOSIZIONE

9

10

Questa sezione mira a fornire gli strumenti adatti a comprendere il

nostro lavoro. In una prima parte ci occuperemo della musica, dal

generale al particolare. Partendo da alcune domande generali, tra le quali

“a cosa serve la musica?”, giungeremo a dare una breve illustrazione delle

“regole della musica”, intese come quelle pratiche che si insegnano nei

conservatori sulle quali la letteratura appare sterminata e che vengono

perpetrate da quasi quattro secoli. A momenti in cui verranno comprese le

caratteristiche biologiche delle musica e la sua affinità col linguaggio,

saranno alternate parti tese a rafforzare l’idea che la musica sia un’attività

naturale e fondamentale. Un breve ritaglio dedicato alle dissonanze

chiuderà la parte dedicata alla musica.

In una seconda parte, dedicata alla psicologia dell’ascolto musicale,

intraprenderemo un percorso che dall’esperienza prenatale ci porterà fino

a quella culturale: un viaggio, in altri termini, che procede dal “crudo al

cotto”. Attraverso vari studi, cercheremo di comprendere gli elementi che

caratterizzano il nostro sistema musicale e le risposte fisiologiche ad esso

associate. Si concluderà con una brevissima descrizione del sistema

percettivo umano, per giungere alla suddivisione dell’ascolto tra cognitivo

e sensoriale.

La terza parte, di carattere estetico, riguarda la musica come

imitazione, partendo da Aristotele si arriva ai giorni nostri. Nella quarta

parte esporremo una breve panoramica della storia della retorica

musicale, passando attraverso i madrigalismi, toccando i trattati che più

hanno influito sul pensiero musicale. Un’ultima parte, infine, è dedicata

alla pubblicità, ai jingle e ad alcuni studi che hanno approfondito il rapporto

tra musica e pubblicità.

11

1.1. Elementi di musica

In molti si domandano che cosa spinga l’uomo a creare e ascoltare

musica e perché l’uomo risponda emozionalmente ad essa (Roedered

1984), anche in ragione del fatto che per l’uomo non ha alcuna rilevanza

biologica o comunque non è in alcun modo legata alla sopravvivenza,

come ad esempio avviene per uccelli (Porzionato 1980). Ma se la musica

è inutile da un punto di vista adattivo (Pinker 1997), perché tutte le società

“hanno la musica” (Titon e Slobin 1996), o meglio, ogni società possiede

quello che i musicologi allenati riconoscono come musica (Blacking 1995)1? Cross (1999) fa notare che la musica può avere differenti funzioni e

diversi significati. Sorge allora una domanda: che cos’è la musica?

Per tentare di rispondere a questo quesito, converrà confrontarci con

gli animali. La musica, anzi, il suono, è per entrambi una forma di

comunicazione. Sembra ovvio, ma si è osservato che i comportamenti

acustici degli animali non lo sono affatto, infatti, questi agiscono per

modificare l’ambiente fisico e sociale e alcune specie interpretano i segnali

di altre inferendo dalle caratteristiche acustiche del suono le caratteristiche

fisiche dell’emittente2 (Owings e Morton 1998). Secondo Cross (2009), le

emissioni “musicali” umane possiedono due caratteristiche che le

distinguono da quelle animali: i) sono un segnale onesto, nel senso che,

come nel gioco, l’emittente dice qualcosa di pertinente alla situazione

comunicativa; ii) il loro scopo è l’intrattenimento. In breve, la musica viene

prodotta da pochi e fruita da molti, e pare dunque fondarsi sul piacere.

Essendo basata sull’intrattenimento, sembra allora che proprio questo

12

1 Viene lasciata aperta la questione su che cosa sia la musica.2 Un suono grave implica un animale grande. Aggiungiamo che questo ragionamento è uno dei pilastri del pensiero di Schaeffer (1966): il suono è indice della sua fonte (Cfr. Chion 2001).

carattere di “inutilità” le permetta di garantire la cooperatività tra gli

individui, evidenziando azioni e intenzioni comuni; la musica viene elevata

ad aggregante sociale3. Il carattere intenzionale sembra quindi il registro

fondamentale che differenzia le emissioni sonore dell’uomo da quelle degli

animali.

La musica allora è una forma di comunicazione onesta, socialmente

condivisa e intenzionale: per definire “musica” risulta indispensabile

rintracciare un’intenzionalità organizzativa [e] si ha musica quando vi è una presa di coscienza del materiale e una consapevolezza nelle azioni compiute (Biasutti 1999, 4).

La struttura della musica è un modo per organizzare il disordine, la

musica evolve dalla sua esistenza di voce dell’emozione a condizione di

arte in forza della «determinatezza delle note e della loro aggregazione

[…] in rapporti numerici» (Dahlhaus e Eggebrecht 1985, 24), un incontro-

scontro tra emozione e matematica. Sono questi i problemi che

caratterizzano da secoli il pensiero sulla musica, ossia la duplice natura

matematica e sensibile della stessa, oltre chiaramente al rapporto di

autonomia da altre forme di espressione come ad esempio il linguaggio.

13

3 Come fanno notare alcuni, musicisti e ascoltatori spendono buona parte della giornata ed energie sociali per parlare di musica (Feld 1994), e in tutto questo parlare, l’aspetto valutativo sembra giocare un ruolo importantissimo; ad esempio negli studi di registrazione, l’aspetto valutativo viene usato per determinare i confini della solidarietà stilistica e a stabilire un sodalizio lavorativo (Porcello 1996).

1.1.1. Sull’importanza della musica

La musica risulta essere importante per l’uomo. Molte civiltà vedono

nel suono l’origine del mondo (Schneider 1960), tanto che alcune

pensavano addirittura a un mondo pre-umano costituito prevalentemente

da suoni. I Maya e gli Atzechi ritenevano che col suono si potessero

tagliare le pietre e nell’antica Grecia, ad ogni suono emesso da uno

strumento musicale corrispondeva una divinità (Biasutti 1999). Darwin

ipotizza che la musica si sia sviluppata dalle vocalizzazioni dei primati

sub-umani e che il suo potere affettivo provenga dall’uso nei processi di

selezione del partner con cui riprodursi (Darwin 1871). Rousseau, nel suo

saggio sull’origine delle lingue del 1781, ritiene che l’origine della musica

sia da rintracciare nell’imitazione dell’armonia come fenomeno naturale

nella sua primordiale complicità col linguaggio, ma non da un punto di

vista grammaticale, piuttosto nei suoi aspetti emozionali. La parola

secondo Rousseau è nata dall’amore, dall’odio, dalla pietà e dalla collera,

le prime lingue perciò furono canti e voci appassionate, prima d’essere

discorsi semplici e metodici. Sembra quindi che la musica addirittura

preceda il linguaggio.

Lo psicologo cognitivo John Sloboda (1985) la rapporta al sesso: la

mancanza di sesso ad esempio non produce effetti dannosi alla vita di un

individuo come può essere la mancanza di sonno, ma la mancanza di

sesso da parte di tutti gli individui compromette certamente la specie

umana. Allo stesso modo la musica, ha probabilmente un beneficio per la

società:

la musica fornisce forse una cornice mnemonica unica entro cui le persone possono esprimere, con l’organizzazione temporale di suoni e gesti, la struttura

14

delle loro conoscenze e delle relazioni sociali (Sloboda 1985, 407).

Similmente a Sloboda, Baumann (1997) associa la musica alla

funzione di accompagnare i riti di passaggio, come ad esempio cerimonie

nuziali, lamentazioni funebri e processi lavorativi; tuttavia, mantiene

sempre la sua componente estetico-ludica (Sloterdijk 1993).

Rintracciamo principalmente diverse funzioni svolte dalla musica:

una sociale e una individuale. Nella funzione sociale collochiamo in primo

luogo la capacità di promuovere la coesione di gruppo (Peretz 2001;

Cross 2009), di contrassegnare i gruppi tra loro e di creare sottogruppi

sociali prevenendo l’isolamento (Krumhansl 1992); fare musica significa

entrare in contatto con altri individui, condividere scopi ed aumentare la

fiducia inter-individuale, nonché creare empatia con il potere di ridurre

rabbia o depressione (Koelsch 2010). Viene fatto notare anche il

vantaggio che porta a livello sessuale: chi suona o balla o comunque ha a

che a fare con l’arte, diventa leader e questo apporta dei vantaggi anche a

livello sociale, aumentando il prestigio ed elevando la probabilità

riproduttiva (Peretz 2001).

A livello individuale si rintracciano le proprietà di agire sulle emozioni

e di migliorare l’umore nella vita quotidiana (Sloboda 1985; Juslin e

Sloboda 2001). Fare musica richiede capacità di sincronizzazione con una

fonte ritmica esterna; si riscontra anche uno sviluppo a livello emozionale,

sociale e cognitivo (Koelsch 2010). Sono due i principi secondo i quali la

musica produce piacere: secondo il principio «allopatico» (Privitera 2004,

297), come nel caso di Elisabetta I d’Inghilterra che suonava una musica

allegra per allontanare la malinconia; secondo il principio omeopatico

invece, una musica triste scaccia la malinconia secondo il principio della

catarsi.

15

1.1.2. Gli universali in musica

Tutte le culture sono caratterizzate da forme di espressione che

utilizzano il suono. In molti sostengono che la musica sia senza dubbio un

linguaggio universale e come tale venga declinato in base alla cultura in

cui viene utilizzato (Meyer 1956). La musica è una predisposizione innata

dell’uomo (Trehub 2003) e ciò sembra vero alla luce di uno studio in cui

vengono misurate le capacità percettive tra musicisti e non, da cui è

emerso che, se si esclude l’alfabetizzazione dei primi, tra i due gruppi non

appaiono sostanziali differenze (Bigand e Poulin 2006). Anche Baumann

(1997) sostiene che la musica esiste in tutte le civiltà; ciò che non è

universalmente condiviso per lui, è il significato e il senso del sistema

sonoro. Se la musica appare essere un universale, di conseguenza

esisteranno delle matrici comuni tra le varie culture musicali che saranno

quasi certamente di carattere fisiologico e, in quanto pre-culturali,

condivise da tutti gli uomini.

Comune a tutti gli uomini sono le strategie di raggruppamento

uditivo4 che permettono di suddividere la scena ambientale, ma anche di

distinguere i suoni all’interno di un sistema quale può essere un brano

musicale. Altro dato rintracciabile in molte culture è l’intervallo di ottava5

(Carterette e Kendall, 1999). In molte musiche6 si rintraccia che la

costruzione delle scale avviene sempre a partire da un numero piuttosto

limitato di elementi, di solito dai cinque ai nove (Sloboda 1985) e ciò

16

4 cfr. Wertheimer (1923) e Koffka (1935), ma soprattutto Deutsch (1999a).5 Il termine “ottava” come fa notare Sloboda (1985) si riferisce a un sistema musicale basato su sette suoni, riteniamo più giusto in questo contesto inter-culturale usare il termine “rapporto doppio di frequenza”.6 Il plurale “musiche” è un termine preso da Biasutti, il quale sostiene che «considerata la varietà e le notevoli differenze delle produzioni sonore degli uomini, risulta più consono parlare di “musiche” al plurale, piuttosto che utilizzare il termine al singolare» (Biasutti 1999, 12).

dipende dal numero di items che la memoria a breve termine riesce a

memorizzare, quello che è stato definito dallo psicologo Miller (1956) il

celebre “magic number”, cioè 7±2. Altro dato interessante è che questi

intervalli non sono quasi mai equidistanti; ciò genera tra di essi rapporti

gerarchici7 avvalorando quindi la tesi della musica come linguaggio.

1.1.3. Musica e linguaggio

L’uomo ha scelto il suono per comunicare. Esso offre numerosi

vantaggi come ad esempio il poter comunicare al buio o il poter articolare

una serie di parole attraverso rapidi movimenti dei muscoli con grande

velocità, un privilegio impensabile ad esempio con la comunicazione visiva

dei gesti. Inoltre il linguaggio (o meglio la lingua), come la musica,

«rafforza la socialità, ingrandisce il gruppo e ne sottolinea la

coerenza» (Trabant 2002, 602). Nella nostra società ci comportiamo con

la musica come se fosse una lingua materna, un linguaggio a tutti gli effetti

(Stefani, Marconi e Ferrari 1990); senza ombra di dubbio la musica

condivide numerosi aspetti con il linguaggio, primo tra tutti il suono.

In un contesto neuro-evolutivo Steven Brown (2000) ipotizza che

musica e linguaggio siano funzioni omologhe evolute da un comune

antenato che chiama “sistema musilinguistico” (Musilanguage system),

caratterizzato dall’uso di un limitato e discreto numero di blocchi combinati

per generare frasi strutturate modulate da meccanismi espressivi. Brown

17

7 Possiamo immaginare una musica senza rapporti gerarchici come quella basata sulla scala esatonale di Debussy che suddivide l’ottava in sei parti equidistanti o quella basata sulla dodecafonia di Schönberg in cui ognuno dei dodici toni non può esser ripetuto se prima non è stata conclusa la serie dodecafonica preordinata. Queste sono musiche che da un punto di vista sintattico appaiono sospese, non vi è un punto saldo da cui partire e a cui giungere. Sono musiche senza direzione, appunto senza un “percorso armonico”. Quindi diremo gerarchia come conditio sine qua non di sintassi.

sostiene che, se negli ominidi questo sistema risiedeva in una precisa

area cerebrale, oggi attraverso l’evoluzione, tra i due domini ci sono

alcune caratteristiche condivise, altre parallele e altre ancora distinte.

Secondo l’autore le caratteristiche condivise sono quelle identiche tra

musica e linguaggio come la vocalizzazione e la prosodia affettiva, le

caratteristiche parallele sono quelle analoghe ma non identiche come la

discretezza, la combinatorietà e la formazione delle frasi, mentre le

caratteristiche distinte sono specifiche del dominio di appartenenza per cui

in musica si hanno ritmi isometrici e una sintassi per la combinazioni dei

suoni, mentre per il linguaggio si hanno le parole e una sintassi

proposizionale.

Sia musica che linguaggio utilizzano elementi discreti e

gerarchicamente ordinati secondo determinati principi di combinazione

che, come abbiamo visto, sono caratteristici di ogni cultura: il modo in cui

viene segmentata l’ottava ad esempio si può affiancare alla suddivisione

del continuum sonoro in fonemi. La costruzione e il concatenamento degli

accordi ci appare come la formazione delle parole attraverso l’unione di

fonemi e morfemi, quindi il loro accostamento secondo le regole di un altro

sistema gerarchico: la sintassi.

Nel campo delle neuroscienze cognitive musicali si dimostra che da

un punto di vista sintattico, la sintassi musicale verrebbe elaborata in una

delle due principali aree corticali deputate all’elaborazione del materiale

linguistico, l’area di Broca (Maess et al. 2001; Koelsch et al. 2002). In un

celebre studio si ipotizzata un’area cerebrale che disponga di risorse per

l’integrazione sintattica condivisa di musica e linguaggio8 (Patel 2003) e

18

8 Shared Syntactic Integration Resource Hypothesis (SSIRH).

successivamente viene evidenziato che le due sintassi, a livello

neuronale, interagiscono (Koelsch et al. 2005).

Da un punto di vista semantico, Koelsch e collaboratori (2004)

partono dal fatto che intuitivamente a certi passaggi musicali di Beethoven

si associano più facilmente parole come “eroe” piuttosto che “pulce”; si

pongono allora l’obiettivo di investigare l’effetto di preparazione semantico

che una frase verbale o un passaggio musicale possono fornire a una

parola. Gli autori riscontrano che la componente negativa N4009, misurata

sulla presentazione di un target verbale incongruente col prime10, viene

elicitata sia da un contesto verbale che da un contesto musicale,

suggerendo che i meccanismi di elaborazione del significato musicale

potrebbero essere analoghi a quelli del significato verbale. Nella

discussione, alla luce del fatto che la musica influenza l’elaborazione

semantica delle parole, gli autori ipotizzano che i partecipanti generino

sub-vocalmente delle parole durante l’ascolto e che queste siano

sottoposte ad analisi semantica11.

1.1.4. Il sistema musicale

Ogni sistema musicale sceglie i suoni dal mondo dell’udibile12

attraverso il temperamento, che consiste nel suddividere l’ottava13 in

determinati intervalli. Nella cultura occidentale prevale un sistema

19

9 N400 è l’indice elettrofisiologico dell’elaborazione semantica.10 Per il paradigma del priming cfr. Meyer e Schvaneveldt (1971).11 Si ricorda che l’elaborazione di uno stimolo può avvenire anche se questo viene presentato sotto il limite della coscienza (Marcel 1983; Cheesman e Merikle 1986).12 I limiti dell’udibile nell’uomo vanno da 20Hz a 20Khz. Nella nostra cultura tuttavia, le fondamentali dei suoni musicali non superano i 5Khz (Pierce 1988).13 L’ottava da un punto di vista fisico corrisponde a un rapporto frequenziale doppio: così se un la è tale a 440Hz, un la all’ottava sopra si avrà a 880Hz.

musicale basato su dodici note equidistanti14, organizzate in un sub-set di

sette note chiamato sistema diatonico. Verrà preso in esame il sistema

tonale, nato attorno al XVI secolo con Monteverdi (1567–1643)15 e ancora

in uso, specie in contesti easy listening come rock e pop o nella musica

per la pubblicità.

Una triade isolata è assolutamente indefinita nel suo significato armonico: può essere tonica di una tonalità, o un grado di diverse altre tonalità (Schönberg 1967, 25).

Esordisce così il padre della dodecafonia Arnold Schönberg (1874–

1951) nel suo celebre Funzioni strutturali dell’armonia, e già ci fa intuire la

natura funzionale del sistema tonale. La tonalità è una matrice applicabile

su ognuna delle dodici note, è composta da sette gradi, ognuno con una

sua funzione armonica; questi gradi conferiscono al sistema stesso «un

particolare senso topologico e relazionale» (Vinay 1994, 44). Prende il

nome da “tono”, come conseguenza del fatto che essere in tonalità di DO

maggiore significa che la nota DO è la tonica, cioè la più importante, quella

a cui tutte le altre si riferiscono e a cui il percorso armonico deve tendere

per raggiungere uno stato di riposo16.

Un accordo è la sovrapposizione di tre o più note disposte per

intervalli di terza dalla nota principale chiamata radice. Una coppia di

accordi suona “bene” quando sono in relazione tonale che è una

20

14 Il temperamento equabile di Werckmeister, 1691, celebrato da Joahnn Sebastian Bach (1685–1750) nel Clavicembalo ben Temperato in cui si dimostra che “ora” (XVII secolo) è possibile fare musica in tutte le tonalità. Ci sarebbe molto da dire al riguardo, al momento è importante ricordare che il sistema odierno è un compromesso tra naturalità e possibilità modulare da una tonalità a un’altra. Niccolò Vicentino prima di Werckmeister progettò l’archicembalo che suddivideva l’ottava in 36 intervalli; sfortunatamente non fu mai realizzato.15 Monteverdi è stato il primo a utilizzare l’accordo di settima di dominante con funzione risolutiva.16 L’ambiguità armonica aggiungiamo, è stata studiata in psicologia per misurare le aspettative musicali mediante il paradigma del priming armonico.

combinazione di relazioni armoniche e melodiche; accordi in sequenza

generalmente suonano bene se condividono voci o se queste voci si

muovono per piccoli intervalli. La struttura che accoglie le successioni di

accordi viene chiamata tonalità. Quando la tonalità della progressione

cambia, avviene una modulazione. Come in un percorso in cui si è indotti

a continuare nella direzione presa, anche nella musica, analogamente, si

cerca di avere un buon compromesso tra percorso dritto perciò sicuro ma

noioso e percorso tortuoso che risulta interessante ma pericoloso (Meyer

1956).

L’armonia funzionale vede ricondurre le funzioni musicali a un

costante giro armonico in cui si susseguono gli accordi costruiti sul primo

quarto e quinto grado (d’ora in poi i gradi della scala/tonalità verranno

indicati in numero romano). Il I grado è il punto di massimo riposo, il IV

grado è “in movimento” e tende al V grado che è il punto di massima

tensione. Attorno a questi gradi principali ruotano quelli secondari:

nell’area del I si trova il VI che condivide due note, in quella del IV è

presente il II, in quella del V si includono III e VII, entrambe includono la

nota sul VII grado che nell’accordo di dominante, quello costruito sul V

grado, viene chiamata sensibile per evidenziare la sua tendenza a

proiettarsi verso la tonica.

Importante ora è una breve descrizione degli intervalli musicali17. Gli

intervalli misurano la distanza tra due note e possono essere melodici o

armonici, ascendenti o discendenti: un intervallo melodico è la distanza tra

due note suonate in due tempi diversi cioè la melodia che è la dimensione

orizzontale; un intervallo armonico è la distanza tra due note suonate

contemporaneamente cioè l’armonia che è la dimensione verticale); un

21

17 Per un’analisi più dettagliata sugli intervalli musicali si veda Karolyi (1980).

intervallo ascendente, che si può avere solo in una melodia, viene così

chiamato quando il primo suono è più basso del secondo; viceversa si ha

l’intervallo discendente. Cosicché dal I grado al II si ha un intervallo di

seconda, dal I al III una terza, dal V al VI ancora una seconda, dal IV al VII

avremo una quarta e così via. I gradi prendono il nome e la “qualità” (ossia

maggiore, minore, diminuito o eccedente) ad imitazione delle distanze dal

I grado della tonalità maggiore, pertanto avremo: unisono, seconda

maggiore, terza maggiore, quarta giusta, quinta giusta, sesta maggiore,

settima maggiore, ottava giusta. Gli intervalli si possono invertire,

abbassando di un’ottava il suono più alto: si ottiene così il rivolto. Un

intervallo di seconda rivoltato darà una settima, una sesta darà una terza

e così via, la somma deve sempre dare nove. L’intervallo tra DO e SOL# è

una quinta eccedente, ma tra DO e LAb18 si ha una sesta minore, questo

accade perché il nostro sistema è diatonico (di-a-tonico, non due toni),

cioè che ogni grado può e deve avere un solo nome.

1.1.5. Dissonanza

La dissonanza è «tutto ciò che si discosta dalle regole in vigore in un

certo periodo o per un certo genere musicale» (Rudzinski 1993, 125);

pertanto ha valore storico e culturale. Per dissonanza intendiamo quelle

forme armoniche, ritmiche e strumentali che escono dalla sfera della

normale prassi musicale in uso nella musica del periodo tonale19 e nella

musica leggera, pop e rock. In generale, in tutta la musica che è solita

commentare gli spot pubblicitari.

22

18 Che nel nostro temperamento ha lo stesso suono, ma in armonia un ruolo armonico differente.19 Dal XVII fino al XIX secolo.

Sulla dissonanza armonica si sono versati fiumi di inchiostro,

cerchiamo quindi di riassumerla attraverso i punti principali. Piston, nel

1941, dice che due suoni sono consonanti quando la sonorità risulta

stabile e compiuta, mentre quelli dissonanti risultano instabili e tendono a

risolvere verso quelli consonanti. Per quanto riguarda la consonanza,

l’autore distingue quella perfetta con intervalli giusti (ottava, quarta e

quinta) e quella imperfetta con terze e seste, tutti gli altri intervalli sono

dissonanti (eccedenti, diminuiti, seconde, settime e none). Riportiamo un

passo che riteniamo molto significativo ai fini del nostro lavoro:

Una musica priva di intervalli dissonanti è, molto spesso, priva di vita e di interesse, perché proprio l’elemento dissonante fornisce alla musica buona parte dell’energia ritmica e del senso di movimento. […] la caratteristica principale della dissonanza è il suo senso di movimento e non, […] il suo grado di “sgradevolezza” per l’orecchio (Piston 1941, 14-15).

Riguardo alla sgradevolezza, possiamo pensare all’accordo di sesta

napoletana20. Confrontato con i suoni di cui è composto, esso risulta

essere fuori tonalità, al contrario è un potente strumento cadenzale per il

suo forte senso di sottodominante ed il suo ampio utilizzo, che viene

legittimato anche da dati scientifici21. Leggermente diverso è il parere del

compositore Nicolaj Rimsky-Korsakoff che nel suo trattato di armonia

(1885) vede l’accordo minore come una consonanza imperfetta e quello

maggiore come consonanza perfetta. Il teorico Teodoro Dubois (1923)

23

20 Primo rivolto dell’accordo maggiore costruito sul II grado abbassato della tonalità maggiore, anticipa spesso quello di dominante. Appartiene a una tonalità che dista quattro passi nel circolo delle quinte (due note fuori tonalità).21 Esperimento sul priming armonico: questo accordo, benché disti sei passi dalla dominante nel circolo delle quinte, risulta più atteso di un altro accordo che ne dista altrettanti dalla tonica (Atalay e coll. 2006).

aggiunge che le dissonanze si dividono in naturali, cioè il tetracordo22 di

dominante, e artificiali, tutti gli altri tetracordi.

Da un punto di vista meno “normativo” e più empirico, Pitagora studia

il rapporto tra la lunghezza di una corda vibrante e il suono che produce.

La lunghezza di una corda vibrante è inversamente proporzionale alla sua

frequenza, per cui se una corda lunga x vibra a una frequenza y, una

corda lunga 1/2x vibra a una frequenza 2y. Questo ragionamento lo ha

condotto a formulare già nel VI sec. a.C. una teoria degli armonici: i primi

armonici, che hanno rapporti semplici, sono quelli più graditi all’orecchio23.

Il pensiero di Pitagora è tutto sommato alla base dell’estetica e, di

conseguenza, dell’armonia occidentale24.

Per dissonanza ritmica si intende un conflitto ritmico che può essere

generato dall’uso di poliritmia, polimetria e multimetria25. Definiamo

innanzitutto ritmo e metro: il ritmo è il ripetersi di determinati eventi, come

ad esempio il celebre tema del primo movimento della Sinfonia n. 40 di

Mozart (1756-1791) composto, salvo qualche raro momento, dalla cellula

ritmica croma-croma-semiminima. Il metro è un movimento costante e

lineare su cui il ritmo si appoggia, in altre parole è il nostro “battere il piede

a ritmo di musica”. Con il prefisso “multi” si intende una diversità a livello

temporale, cioè lungo la dimensione orizzontale; con il termine “poli” si

24

22 Accordo formato da quattro suoni: prima, terza, quinta e settima.23 Nell’intervallo di ottava si ha tra i due suoni un rapporto di 1/2, nella quinta di 2/3, nella quarta di 3/4 e così via.24 Un’illuminante pagina che spiega l’evoluzione della musica comparata agli intervalli musicali si trova nell’introduzione del compositore saggista Cowell (1930). L’evoluzione musicale secondo l’autore ha seguito lo spettro armonico del suono naturale, dai canti gregoriani che preferivano un raddoppio all’unisono, alle prime forme di polifonia raddoppiate alla quinta quindi alla quarta, fino al microtonalismo del Novecento.25 Non terremo in considerazione la multiritmia in quanto è un procedimento ritmico molto usato in musica.

indica invece una diversità su due linee melodiche differenti, ossia in una

dimensione verticale.

La poliritmia è la stratificazione di ritmi differenti. Ritroviamo molti

esempi nella musica di György Ligeti (1923-2006), che sulla poliritmia ha

fondato il suo linguaggio; in alcuni passaggi de Le sacre du printemps di

Igor Stravinsky (1882-1971), specie nelle scale ascendenti veloci; in molta

musica contemporanea; in Trout mask replica di Captain Beefheart

(1941-2010). Se sapientemente usata (come in Ligeti), può far perdere

traccia del metro, creando l’impressione di una texture sonora. Si tratta

pertanto di un effetto particolare, decisamente poco convenzionale.

La polimetria è la stratificazione di metri differenti; non è impossibile

trovarla, ma raramente viene esplicitamente indicata, specie nella musica

contemporanea. È un procedimento abbastanza naturale che, se

esasperato, può produrre effetti interessanti (come ad esempio nel gruppo

svedese dei Meshuggah).

La multimetria è l’accostamento di metri differenti; celebre è il

movimento Jeux des cités rivales, tratto da Le sacre du printemps di

Stravinsky, in cui su 72 battute vi sono ben 36 cambi di metro. Esempi più

vicini a noi si trovano nel progressive rock degli anni Settanta o nella più

recente produzione del gruppo Elio e le storie tese. L’effetto che

scaturisce, ovviamente se paragonato a una musica più easy listening, è

uno sfasamento tra quello che ascoltiamo e quello che vorremmo

ascoltare; la nostra attenzione viene costantemente messa sotto

pressione, siamo costretti a formulare e riformulare continuamente il metro

(la griglia).

Concludiamo con un esempio di dissonanza particolare: la

dissonanza strumentale. Chiamiamo in causa il compositore messicano

Esquivel, la cui opera è caratterizzata da ri-orchestrazioni insolite al limite

25

della provocazione, che nell’economia del brano si risolvono in

interessanti quanto unici esempi di easy listening. Esemplare è il caso

dell’ultimo movimento della Sonata per pianoforte n°11 di Mozart

(conosciuto come Rondò alla turca), che viene orchestrato e ri-arrangiato

con l’uso della chitarra elettrica e accostamenti orchestrali piuttosto insoliti.

Esquivel decide di mantenere la forma del rondò26, ma aggiungendovi

l’effetto di senso della marcia, grazie al ritmo dei rullanti della sezione

centrale (infatti è conosciuto anche come Turkish march). Altro elemento

interessante è l’uso del clavicembalo in apertura, che annuncia con tipico

fare di trombe l’inizio della celebre melodia; una partitura decisamente

insolita per questo strumento, perciò una dissonanza strumentale. Chi

ascolta questo lavoro percepisce una sorta di dissonanza in quanto la

forma musicale non è coerente con la strumentazione adottata, o in altri

termini, non è convenzionale.

Facciamo rientrare nella dissonanza strumentale anche il caso di

Coro scritto da Luciano Berio (1925-2003) per coro e solisti, entrambi

accompagnati da strumenti. I testi utilizzati sono di due tipi: testi collettivi,

vale a dire di tradizione popolare e testi di un singolo individuo, cioè il

poeta Pablo Neruda. I testi popolari sono cantati dal solista, mentre quelli

di Neruda esplodono in un tutti orchestrale e corale. Lo stravolgimento

strumentale qui appare in una sorta di chiasmo tra collettivo/individuale e

tutti/solista. Sembra che Berio abbia voluto creare due ossimori: il

patrimonio culturale della collettività espresso da un singolo e il testo del

singolo espresso dalla collettività.

Possiamo concludere questa breve parte sulle dissonanze

affermando che, se la dissonanza può essere considerata un contrasto,

26

26 Lo schema formale del rondò corrisponde a ABACADA e così via.

allora esistono due tipi di contrasto: contrasto intra-opera e contrasto

extra-opera. Il primo si ha nella coerenza interna, ovvero quando gli

elementi all’interno dell’opera si trovano in contrapposizione tra loro, ad

esempio nel momento in cui un accordo dissonante tende a uno

consonante. Il secondo si ha quando l’opera – o un frammento – è in

contrasto con un’opera o qualcos’altro esterni ad essa. Si tratta pertanto di

conoscere sia il testo di partenza che quello di arrivo affinché vi sia questo

tipo di dissonanza, come nel caso del Rondò rifatto da Esquivel.

27

1.2. Psicologia della musica

Abbiamo appena visto che la musica è una pratica importante sia per

l’uomo, a cui migliora l’umore nella vita quotidiana, sia per la società, in

quanto incentiva l’aggregazione e la cooperazione. Di ipotetica natura pre-

linguistica e condividendo numerose caratteristiche con il linguaggio, essa

sembra essersi così radicata, che molte delle metafore e dei termini

utilizzati nella teoria musicale vengono mutuati dal dominio linguistico.

Nel Novecento, con la nascita della psicologia sperimentale, la

curiosità di comprendere i meccanismi fisici e cognitivi che sottostanno

alla musica ha stimolato l’avvio di numerose ricerche. In queste prime due

sottosezioni affronteremo questioni di carattere fisiologico: in un primo

momento verrà toccato l’argomento sull’ascolto pre-natale, in un secondo

momento si riassumeranno alcuni studi che hanno esplorato l’effetto della

musica a livello somatico. Nelle successive due sezioni si esporranno

alcune ricerche e teorie in ambito cognitivo: verrà presentato il modello di

percezione musicale e verrà approfondito il problema della percezione

della musica a livello sia sensoriale che cognitivo.

1.2.1. Esperienza prenatale

Colpito dalle “Madonne con bambino” che pervadono la storia

dell’arte occidentale e dal fatto che quattro bambini su cinque vengono

tenuti dalla Madonna sul lato sinistro, Salk (1973) intraprende uno studio

per esplorare il ruolo che ha il battito cardiaco nei rapporti tra madre e

figlio. La nascita corrisponde all’esposizione del neonato a un ambiente

sonoro completamente sconosciuto, pertanto la madre lo tiene sul lato

sinistro per avvicinarlo al cuore, esponendolo in tal modo a una fonte

28

sonora (ritmica) familiare. L’autore arriva alla conclusione che più una

cultura è primitiva, più il ritmo della musica prodotta da quella cultura si

avvicina al suono del cuore. Con un ulteriore esperimento, egli sottopone

un gruppo di neonati al suono del battito cardiaco a 72 bpm27 (cioè quello

standard per un adulto) e un altro gruppo allo stesso suono ma

velocizzato a 128 bpm: il gruppo sottoposto al battito velocizzato

dimostrava un significativo aumento del pianto e dell’irrequietezza.

L’autore conclude che i neonati preferiscono i ritmi che richiamano il battito

del cuore della madre28 e suggerisce che probabilmente l’esperienza intra-

uterina è fondamentale nel formare la nostra struttura percettiva.

Sull’esperienza intra-uterina hanno riflettuto anche Lerdahl e

Jackendoff (1983a) ipotizzando che la percezione del ritmo viene

condizionata dalla posizione asimmetrica del feto in quanto, data la

vicinanza di questo a una gamba della madre piuttosto che a un’altra,

mentre ella cammina, il feto sentirà un passo più forte dell’altro; è

probabile secondo gli autori, che l’uomo formi la propria struttura

percettiva grazie a questa esperienza29. Parncutt (1989) osserva che nel

nostro sistema musicale occidentale vi è la tendenza a far procedere il

basso quasi sempre sul tempo forte, con movimenti regolari, quasi mai di

carattere virtuosistico. La melodia dal canto suo, si muove

prevalentemente sul tempo debole, è più ornata e soprattutto meno

regolare. Anche questo fenomeno viene spiegato dalla vita intra-uterina: il

camminare della madre e il battito del cuore sono per il feto i suoni gravi e

29

27 Battiti per minuto.28 Aggiungiamo che risultati analoghi sono stati ottenuti da Lockard e colleghi (1979).29 L’esperienza uditiva prenatale per noi è anche alla base del fatto che, in una serie di impulsi della stessa intensità, ne viene di norma percepito uno più forte: le lancette dell’orologio emettono lo stesso suono, ma di norma si percepisce “tic tac” piuttosto che “tic tic”.

regolari, la voce invece corrisponde ai suoni più acuti (ovviamente nei

limiti della conducibilità attraverso i liquidi) e molto meno regolari.

Révész (1953), nell’analogia tra melodia e parlato, fa notare che il

parlato viene spesso interrotto dalla respirazione; al contrario non è

necessario interrompere l’atto di camminare per respirare, per questo è

più regolare. L’analogia con il parlato si osserva in due situazioni: nella

melodia si assiste spesso a delle pause molto simili a quelle del parlato,

benché queste melodie non siano eseguite da strumenti a fiato.

Continuando, la tipica forma ad arco della melodia richiama il ritmo della

respirazione con ascese e discese paragonabili all’inspirazione ed

espirazione; assomiglia inoltre, nelle sue varie forme, alla prosodia del

parlato.

Riguardo al ritmo, la musica può fare da tramite tra la realtà esterna

e la realtà interna all’individuo. Lo stato di trance, esperito nei suoni di

tamburi di popolazioni primitive o certe musiche occidentali quali la

techno, richiama sostanzialmente l’esperienza che il bambino fa con la

madre prima e subito dopo la nascita (Mancia 1998). La musica è

collegata ai «suoni primordiali» della vita pre-natale: essa contiene suoni

simili in molti modi a quelli ascoltati nell’esperienza prenatale (Grimaldi

1993). Questo spiega il suo ampio utilizzo a scopo terapeutico: può ridurre

il battito cardiaco, la pressione, ma soprattutto può alleviare problemi di

carattere psicosomatico (Hanser 1985).

1.2.2. Risposte fisiologiche alla stimolazione musicale

Nel celebre Istitutioni harmoniche, Zarlino (1558), riferendosi alle

caratteristiche musicali che inducono l’uomo ad esperire diverse passioni,

afferma che oltre all’armonia, al metro e al parlare ci deve essere un’altra

30

caratteristica, non legata all’oggetto ma al soggetto che deve essere «ben

disposto, [e] atto a ricevere alcuna passione». Vediamo che già nel XVI

secolo la questione musicale iniziava ad orientarsi verso il soggetto.

In un pionieristico studio, Ferrari (1896) riporta il caso di una signora

il cui battito cardiaco si era sincronizzato con il ritmo della musica di una

mazurca. Nello stesso periodo è stato trovato che in un ascolto musicale

attento, il ritmo del polso e della respirazione accelerano, mentre in un

ascolto disattento rallentano; si aggiunge il fatto che la consonanza,

rispetto alla dissonanza, produce un rallentamento del battito cardiaco

(Mentz 1897) e che i passaggi in modo maggiore accelerano il respiro

rispetto a quelli in minore (Foster e Gamble 1906).

Fraisse e collaboratori (1953) studiano le reazioni muscolari in

risposta a musiche di differente carattere ritmico: l’effetto dinamico della

musica è proporzionale al grado di ritmicità della stessa e inversamente

proporzionale alla complessità ritmica30; inoltre si riscontra che i musicisti

rispetto ai non-musicisti sembrano essere più sensibili all’effetto dinamico

della musica (Oleron e Euric Silver 1963).

Zimny e Weidenfeller (1963) misurano il riflesso psicogalvanico31

durante l’ascolto di musiche differenti: l’ultimo movimento della sinfonia

Dal nuovo mondo di Dvorak, Les Sylphides su musica di Chopin e la

celebre Aria sulla quarta corda di Bach, rispettivamente considerate da un

campione di persone come eccitante, neutrale e calmo. I risultati hanno

mostrato un significativo aumento dello stato emotivo per il brano

considerato eccitante. Una musica veloce ed eccitante come La Gaité

Parisienne di Offenbach piuttosto che una lenta e calma come l’Aria sulla

31

30 Un dato per noi interessante che spiega l’effetto motorio di certe musiche come il rock o techno che inducono al movimento (cfr. Spaziante 2007).31 Il riflesso psicogalvanico corrisponde alla diminuzione della resistenza elettrica somatica determinata dalla insorgenza di fenomeni emotivi.

quarta corda di Bach inducono bambini di 5-6 anni ad incrementare

l’attività ludica (Rieber 1965). Sempre sulla distinzione tra ritmo lento e

veloce, l’italiano Pisani con la sua equipe (1969) trovano per mezzo

dell’elettromiografia32 che la musica lenta riduce la durata della

contrazione elettrica muscolare.

Infine, ritornando alla dichiarazione di Zarlino, attraverso la

misurazione degli indici del sistema nervoso autonomo33, Harrer e Harrer

(1979) hanno riscontrato che è determinante l’importanza che la musica

assume per il soggetto, ma soprattutto il modo in cui si fruisce. In altri

termini, un ascolto critico, come può essere quello dei musicisti, fornisce

risposte fisiologiche diverse da un ascolto in cui ci si lascia pervadere,

tipico dei non-musicisti. Una musica di danza, concludono gli autori,

produce maggiori risposte motorie rispetto ad altri generi; tutte queste

risposte dipendono da sesso, costituzione ed età, come pure fattori

temporanei quali alcool e fatica.

1.2.3. Percezione musicale

Il nostro sistema cognitivo può essere immaginato come un

computer nel quale ogni componente ha una sua funzione ed interagisce

con gli altri. Alla base in ingresso, vi sono i dati che giungono dal mondo

esterno attraverso i sensi che, tramite livelli progressivamente più alti di

elaborazione, arrivano al magazzino delle nostre conoscenze. Il percorso

di elaborazione dell’informazione perciò viene diviso in processi di basso e

alto livello: nei primi stadi vi sarà una precedenza ad elaborare lo stimolo

32

32 L’elettromiografia misura i fenomeni elettrici che accompagnano la contrazione dei muscoli.33 Il sistema nervoso autonomo è in relazione ai fenomeni involontari.

per “quello che è” cioè sulle sue caratteristiche fisiche, successivamente

per “quello che sappiamo” di esso confrontandolo con la nostra

esperienza immagazzinata nella memoria e quindi il significato.

Allo stesso modo, possiamo immaginare la percezione acustica/

musicale come il percorso dell’informazione sonora che dagli organi di

senso (orecchie) giunge, attraverso zone intermedie di elaborazione, a

quelle esterne di astrazione. In questo percorso le vibrazioni acustiche

sono tradotte dapprima in impulsi elettrochimici, successivamente in

“eventi”, cioè rappresentazioni cognitive della scena uditiva (Koelsch e

Siebel 2005).

Come affermano nell’ambito delle neuroscienze Peretz e Coltheart

(2003), l’elaborazione cognitiva della musica non è un’entità monolitica,

piuttosto, è un’architettura divisa in più parti, in cui ognuna di queste è

specializzata nel suo compito. Lo spettro acustico che giunge alle nostre

orecchie, cioè un insieme di suoni generati da diverse fonti, viene in un

primo momento analizzato negli attributi acustici come altezza, intensità e

timbro, in un secondo momento viene elaborato, attraverso principi che

permettono di aggregare o segmentare gli elementi del campo percettivo

estraendone le relazioni e dar loro significato34, in quei processi di

raggruppamento e di segregazione che involvono melodia, ritmo e timbro

(Deutsch 1999a). In un terzo momento, si compiono quelle operazioni di

astrazione che riguardano la sintassi musicale (Deutsch 1999b). Queste

regole agiscono seguendo diversi indizi che sono influenzati dalla nostra

esperienza (McAdams 1996). La nostra esperienza – o come la chiamano

Koelsch e Siebel (2005) il significato – interagisce con ogni livello di

33

34 L’organizzazione percettiva avviene attraverso le regole di raggruppamento della Gestalt teorizzato da Wertheimer (1923) e Koffka (1935).

analisi, ma soprattutto con l’emozione, dunque questa è presente in ogni

stadio percettivo.

1.2.4. Sensoriale vs cognitivo

Argomento molto dibattuto nella psicologia della musica è la

discussione tra innato/acquisito o meglio l’inquadramento delle

componenti musicali in sensoriali e cognitive. Con sensoriale si intende

una componente musicale elaborata nei primi stadi della percezione

uditiva, con cognitiva invece quelle caratteristiche legate alla cultura35. Per

esempio DeWitt e Crowder (1987) associano al sensoriale le teorie

musicali razionali che si basano sulle leggi della natura (come rapporti di

frequenza semplici e serie armonica) al cognitivo le teorie empiriche

basate sul contesto e sull’apprendimento (come ad esempio il contesto

tonale). Per Parncutt (1989) le componenti sensoriali sono quelle legate al

nostro sistema nervoso e al nostro sistema sensoriale, sono dunque

innate e universali (soglie uditive, discriminazioni di altezza, spazialità,

timbro); le componenti cognitive sono quelle acquisite attraverso la

familiarità con le regolarità dell’ambiente umano, subentra la memoria

semantica e dunque si parla di culturale (aspettative musicali,

consonanza). I due approcci, che in letteratura non sono perfettamente

delineati, si distinguono tra psicoacustico e cognitivo; entrambi concorrono

all’analisi e alla comprensione dell’ambiente uditivo/musicale36 in un

singolo sistema integrato (Gibson 1966; 1979).

34

35 Sullo schema della percezione uditiva/musicale si può confrontare in termini neurocognitivi e di intervalli temporali Koelsch e Siebel (2005), in termini di elaborazione dell’informazione musicale McAdams (1996).36 Già la distinzione uditivo/musicale sottintende la distinzione tra sensoriale e cognitivo: uditivo è tutto ciò che ha a che fare con il senso dell’udito, musicale è solo una parte di questo ed implica l’intervento della cultura.

A differenza del linguaggio parlato, la componente sensoriale nella

musica sembra essere maggiormente coinvolta37 in quanto solitamente

accordi in relazione armonica condividono porzioni di spettro armonico

(Bharucha e Stoeckig 1987; Parncutt 1989), tuttavia dagli anni ottanta si

sono avviate una serie di ricerche con il fine di rintracciare nella musica la

componente cognitiva perciò culturale. Il primo studio che cerca di

confermare tale ipotesi è un illuminante esperimento condotto da

Bharucha e Stoeckig (1987) sul priming armonico. Il priming armonico

misura l’aspettativa musicale attraverso tempi di risposta forniti da soggetti

su dei target che corrispondono ad accordi. Esso si basa sul modello

psicolinguistico di priming semantico in cui le parole che sono in relazione

semantica, come ad esempio “dottore” e “infermiera”, vengono elaborate

più velocemente di quelle che non lo sono, come “dottore” e

“pane” (Meyer e Schvaneveldt 1971). Bharucha e Stoeckig (1987) trovano

che, benché vi sia stata eliminata qualsiasi sovrapposizione di toni

(esperimento A) o frequenze (esperimento B: overlapping frequency

spectra), dunque una facilitazione a livello sensoriale, un accordo in

relazione armonica col precedente viene elaborato meglio in quanto segue

le ormai ben codificate regole della sintassi tonale che sono state

acquisite implicitamente con l’esperienza e nell’esposizione all’ambiente

musicale. Vengono condotti altri studi: esperimenti sul corso temporale

(Tekman e Bharucha 1992), sulla variazione del contesto armonico

(Bigand et al. 1999), sulla ripetizione di uno stesso target (Bigand et al.

2005), con la misurazione degli indici encefalici (Koelsch et al. 2004; Patel

2003); tutti questi studi confermano l’ipotesi che la musica viene elaborata

a un livello cognitivo.

35

37 Per il fatto che la musica tonale utilizzi rapporti in qualche modo dettati dalla struttura del suono stesso, in altri termini, le regole dell’armonia tonale sono parzialmente correlate con la struttura psicoacustica del suono; vedi Parncutt (1989).

Concludiamo che, proprio grazie al carattere esclusivamente

cognitivo-semantico, la componente affettiva nella musica gioca un ruolo

determinante. Ricordiamo la teoria di Davies (1978) chiamata

scherzosamente “Tesoro, stanno suonando la nostra canzone”: le nostre

passioni nella musica sono richiamate dal ricordo in cui la musica viene

ascoltata, ricordo che riaffiora in termini di stile, frasi musicali, suoni e

quant’altro. La componente affettiva ha dunque radici profondissime che,

come abbiamo visto, vengono manifestate nelle risposte fisiologiche, e

riemerge nella struttura della musica stessa che richiama la tipologia di

suoni del mondo prenatale. Il fare musica per l’uomo, sembra quasi un

voler ricreare, dunque imitare, una situazione che paradossalmente non

ricorda e non conosce e verso la quale non potrà mai accedere.

36

1.3. Estetica dell’imitazione

Riportiamo un passo della voce “imitazione” dal dizionario di estetica:

l’italiano imitazione deriva dal latino imitatio […], ma viene spesso usato come sinonimo di ‘mimesi’ […], cioè di una nozione che secondo alcuni, la filosofia classica erediterebbe dalla teoria musicale del V sec a.C. e che avrebbe il suo centro significativo originario nella danza; così che ‘imitazione’ sarebbe un sinonimo assai imperfetto - perché semanticamente più ristretto […] – di mimesi (Velotti 1999, 146).

Aristotele dice che imitare è connaturato agli uomini fin dalla

fanciullezza, e che la musica procura sollievo rasserenatore e prepara

all’effetto di catarsi (Wulf 2002). L’imitazione che tratteremo noi tuttavia, da

un punto di vista musicale, non sarà imitazione come copia o

duplicazione, bensì imitazione come «presentazione di qualcosa su un

altro piano» (Velotti 1999, 147). Aristotele sostiene che la musica, insieme

alla danza e alla poesia, non viene esclusa da questo gioco di rimandi in

quanto l’imitazione avviene con mezzi diversi e in maniera differente

attraverso oggetti distinti istruendo perché «induce a scoprire il nesso tra

rappresentazione e rappresentato, [quindi] diletta» (ibidem). La musica in

particolar modo è imitazione dell’ethos perché genera un movimento

interno che esprime un carattere, la musica dunque ha effetti etici ed è

molto importante nella formazione dei giovani

Fino al Settecento l’imitazione ha rappresentato il principio a cui si

sono ricondotte le belle arti, ma è con il romanticismo che non è più a

fondamento dell’arte: arte e natura sono entrambe forze generatrici e

l’artista tanto quanto la natura insiste sull’attività creativa. Tuttavia c’è chi

come Schopenhauer è di tutt’altro pensiero:

37

Come l’essenza dell’uomo sta nel fatto, che la sua volontà aspira, viene appagata e torna ad aspirare, e sempre così continua; [...] così l’essenza della melodia è un perenne discostarsi, peregrinar lontano dal tono fondamentale per mille vie; […] eppur sempre succede da ultimo un ritorno al tono fondamentale. Per tutte codeste vie esprime la melodia il multiforme aspirar della volontà; ma col ritrovare infine un grado armonico, o meglio ancora il tono fondamentale, esprime l’appagamento (Schopenhauer 1819, 349).

Confrontando la musica alla pittura Biasutti afferma che, mentre l’arte

figurativa aveva dei modelli già compiuti da imitare, nell’arte del suono, i

modelli del mondo reale sono presi solo come spunto «e poi elaborati e

modificati in base a vari principi, senza ricercare una stretta

analogia» (Biasutti 1999, 8). Gradualmente, il fare musicale ha lasciato la

mera imitazione sensoriale per lasciare spazio a un approccio più

ragionato (con intervalli, accordi, temperamenti e accordature). Si è

avviata in altre parole un tipo di imitazione sonora addomesticata dalle

regole della combinazione musicale dei suoni.

Commentiamo brevemente il saggio di Favaro (2010) sul camouflage

cercando di declinarlo ai nostri scopi, ovvero all’imitazione musicale. Fin

dai primissimi stadi musicali le note musicali perdono la loro identità per

divenire un qualcos’altro che si va a misurare con la costruzione di una

nuova rappresentazione sonora che implica altri contenuti, forme ed

emozioni (Dufourt 1997). Ci sembra di capire dunque che la musica è

prima di tutto rappresentazione. Rappresentazione di cosa? Se

rappresenta qualcosa significa che in qualche elemento vi sarà allora

imitazione. Prosegue e afferma che in musica vi sono cinque tipi di

imitazione: i) quella in senso stretto, usata anche nel gergo musicale che

corrisponde alla fuga; ii) l’imitazione nel tema e nelle sue variazioni, dove

38

le variazioni non sono altro che il tema principale imitato in maniere

diverse; iii) imitazione come travestimento musicale come nel caso delle

parafrasi lisztiane; iv) l’imitazione di nomi come nel caso di Bach che si

firma sullo spartito in notazione anglosassone; v) l’imitazione di elementi

extra-musicali come nel caso del poema sinfonico e della musica a

programma.

Salvo l’ultimo punto, tutti questi casi di imitazione elencati da Favaro

ci sembrano squisitamente di carattere grammaticale (o meglio formale), e

poco toccano il problema della musica come imitazione di un mondo

extra-musicale. In altri termini, ci sembra che i primi quattro punti siano

casi in cui l’imitazione avviene nel dominio del discorso, cioè con il

referente interno all’opera, mentre l’ultimo punto, il solo caso citato da

Favaro, avviene nel dominio del pensiero, ossia dove il referente è esterno

all’opera, addirittura esterno al sistema musicale.

39

1.4. Retorica musicale

1.4.1. Storia della retorica musicale

Verrà ampliato ora il percorso sull’imitazione, adottando in questo

caso il punto di vista della retorica musicale. Imitazione e

rappresentazione sono qui intimamente connesse, la musica infatti imita il

mondo extra-musicale attraverso la rappresentazione della parola. Quanto

anticipato da Favaro (2010), in merito all’imitazione, è stato approfondito e

dettagliatamente organizzato in diverse figure dalla retorica musicale.

Musica e linguaggio per molti versi si abbracciano, la connessione tra

retorica e musica appare dunque molto stretta e i principi della retorica

hanno profondamente influito sulla composizione musicale, ciò in ragion

del fatto che la musica è stata sin dai primi tempi principalmente vocale,

dunque legata alle parole.

Dall’antichità fino al Medioevo, la musica humana, cioè quella suonata

dagli uomini, era proporzione che doveva rispecchiare, secondo le dottrine

pitagoriche, la musica mundana, cioè quella dei corpi celesti, attraverso

semplici rapporti numerici quali la quinta e la quarta (Macey 2004) –

rispettivamente 3/2 e 4/3. Con l’Umanesimo l’attenzione degli umanisti si

sposta verso l’uomo, fagocitando anche le teorie sulla musica, in cui

trattatisti e compositori, catturati dalla Poetica di Aristotele e dal pensiero

che l’arte viene vista come imitazione della natura, iniziano ad interessarsi

al potere che la musica esercita sulle emozioni. Una duplice mutualità che

vede attivi musicisti e poeti. Per fare un esempio, nel testo della

Deploration per la morte di Binchois, Johannes Ockeghem (1410-1497)

scrive che sia la retorica che la musica piangono per la scomparsa del

40

musicista (il quale era anche l’autore di molti testi da lui intonati). Ecco

come Gallo commenta il ricorso alla retorica da parte dei musicisti:

Questa instancabile ricerca dell’artificio, questa perenne esibizione di virtuosismo tecnico caratterizzano tanto la musica dei “fiamminghi” quanto la poesia rhetoriqueurs. Era probabilmente l’unica possibilità per gli artisti di sfuggire alle costrizioni dell’ambiente di corte. (Gallo 1991, 114)

Un primo significativo segno di interazione tra retorica e musica si ha

con Heinrich Isaac (1450-1517) e Josquin Desprez (1450-1521),

l’abbandono delle forme fisse38 permette ora ai compositori di essere più

liberi di muoversi e quindi esplorare più intimamente la relazione tra testo

e musica.

È interessante da questo punto di vista Clement Janequin (1485-1558)

che trasforma la chanson francese in quella che viene chiamata dai

musicologi “chanson a programma”39 per il rapporto imitativo che la

musica intrattiene con il testo (Brown e Freedman 2001; Ulrich 1977).

Janequin, come molti francesi del suo tempo, è molto attento a far aderire

la melodia al ritmo delle parole attraverso un un flusso ritmico

estremamente flessibile che esce dalla misura. L’aspetto più importante,

tuttavia, è la presenza di effetti onomatopeici quali fanfare, canto d’uccelli

e urla da strada come ad esempio nella chanson Le chant des oyseaulx il

cui testo racconta del risveglio primaverile dove si riproduce il canto degli

uccelli, anticipando di quattrocento anni quello che avrebbe fatto

l’ornitologo Messiaen per pianoforte nel suo Catalogue d’oiseaux.

41

38 Le forme fisse sono le strutture tipiche delle musiche da ballo del Trecento in cui la sezione musicale e quella testuale si univano rispettando precise regole fisse proprie di quella forma (rondeau, virelai, ballade, chanson).39 Il termine “a programma” viene preso in prestito dalla musica strumentale romantica.

Durante il Cinquecento l’attenzione per la parola cresce anche per un

altro motivo storico, e cioè in seguito all’affissione delle 95 tesi di Lutero

nel 1517, che mirava, con l’utilizzo della lingua volgare nei riti religiosi, a

una maggiore partecipazione da parte dell’assemblea. La chiesa romana

convoca il Concilio di Trento nel 1543, dal quale emergono tra i tanti

anche criteri di carattere musicale: i) esclusione di musiche profane nel

servizio liturgico; ii) chiarezza del testo che oltre a suggerire norme di

corretta accentazione latina; iii) l’uso della monodia accompagnata al fine

di sostituire la polifonia che ostacola la perfetta comprensione del testo. La

chiesa dunque vuole tenere ben separati i repertori profani e liturgici e

mira a una musica che non deve essere composta «per un vacuo diletto

delle orecchie», ma per conquistare i cuori degli ascoltatori nella

«contemplazione dei beati» (Spanu 1999, 592). Il testo allora acquista una

posizione centrale, viene eliminata la polifonia dal culto e si prescrive

l’integrità dei testi liturgici in quanto anche una sola parola può fare la

differenza tra un cattolico e un protestante.

La parola occupa allora nel Cinquecento, un ruolo centrale e

dev’essere immediatamente accessibile; l’arte musicale diviene, con

parole di Monteverdi, quella seconda prattica dove «l’oratione sia padrona

dell’armonia e non serva»40. Nell’incontro tra parola e musica occupa un

posto di rilievo, sia per qualità sia per quantità, il madrigale italiano

(Hammerstein 1988), che è la forma musicale perlopiù profana più diffusa

del XVI secolo. Dagli anni ‘30 fino alla fine del Cinquecento il testo

acquista talmente tanta importanza che i compositori si misurano nella sua

interpretazione e nel rappresentare la parola.

Nel Madrigale l’aderenza alla parola può avere diversi gradi:

42

40 In contrasto con la prima pratica in cui la musica dominava la parola.

osservanza della struttura tecnica e prosodica; illusione visiva e pittura sonora dei riferimenti naturalistici; illustrazione d’affetti; espressione di contenuti psicologici e moti sentimentali (Gallico 1978, 85).

Se è vero che, come scrisse Liberati in una lettera del 1685, «la

musica sia servile alle parole, e non le parole alla musica» si auspicherà

una retorica musicale opposta al contrappunto41, un ritorno alla purezza

della melodia in favore di una maggior intelligibilità del testo.

1.4.2. I madrigalismi

Come già detto, di notevole importanza per la musica occidentale è il

madrigale italiano, la cui novità consiste proprio nel rivedere il rapporto tra

musica e testo (Privitera 2004), anzi, il madrigale «rappresenta dunque la

fine di un rapporto di indifferenza tra il testo e la musica» (Ponzio 2009,

126). Questo fenomeno è stato reso possibile dall’abbandono della forma

strofica che permette al compositore di aderire ai contenuti semantici della

parola o del testo senza più ricorrere alla forma fissa che si ripete: ad ogni

verso corrisponde una frase musicale.

Il madrigalismo42 è lo strumento prediletto dei compositori di

madrigali e consiste nella «rappresentazione pittorica delle

parole» (Macey 2004, 318) che può avvenire sia in veste sonora che in

veste grafica. Il caso più semplice di madrigalismo può essere inquadrato

nell’onomatopea, ossia nel mimare musicalmente i suoni del mondo extra

musicale come ad esempio una battaglia, il canto degli uccelli o le onde

del mare. Corrisponde a una precisa figura retorica cioè all’ipotiposi – così

43

41 Che ha caratterizzato l’epoca precedente, tanto che il Quattrocento viene spesso designato come “epoca d’oro della polifonia”.42 Nel Grove lo troviamo alla voce “Word painting” (cfr. Carter 2001).

importante che Burmeister nel 1606 la inserisce nel suo trattato di retorica

– che comprende una vasta sottoclasse di figure retoriche, molte senza

nome, che servono ad illustrare parole o idee (Wilson et al. 2001). Alcuni

esempi di ipotiposi tratti da Kircher si rintracciano nell’anabasis e nella

catabasis che rappresentano musicalmente la salita e la discesa, o nella

circulatio che corrisponde alla descrizione del “girare” attraverso una

melodia di otto note congiunte che partono e arrivano da/allo stesso

punto.

Un’eccessiva aderenza al testo tuttavia rischia di diventare una sterile

e vacua espressione manierista. Vincenzo Galilei ad esempio, nel suo

Dialogo della musica antica del 1581, considerava le rappresentazioni

pittoriche dei compositori di madrigali capaci di suscitare solamente ilarità,

anziché una seria reazione emotiva, egli appoggiava l’idea che una nuova

musica dovesse basarsi sulla monodia accompagnata piuttosto che

sull’escogitare nuovi mezzi per rappresentare la parola (Macey 2004,

331). In questo modo si apre la via al Barocco e ritornando alla purezza

della monodia.

Non tutto però viene percepito uditivamente, il madrigalismo può

essere anche visivo43, ed è il caso di quelle musiche in cui il significato

della parola viene rappresentato visivamente attraverso la simbologia

musicale sulla partitura. Grazie al sistema di scrittura musicale occidentale

semi-simbolico, per cui non totalmente arbitrario, molti madrigalismi visivi

sono anche sonori: ad esempio, il metodo più elementare per

rappresentare il “salire” è quello di utilizzare una scala ascendente, e ciò

corrisponde sia sul piano visivo che su quello uditivo.

44

43 Nel Grove lo troviamo alla voce “Eye music” (cfr. Dart 2001).

Un caso abbastanza comune nei compositori tra XVI e XVII secolo

era quello di sfruttare i colori delle note, come avviene nel madrigale

cromatico in cui le note nere44 potevano richiamare concetti come “notte”,

“cecità”, “morte” e così via (Dart 2001). Vi sono altri esempi: una croce

viene rappresentata da una nota col diesis45; cinque perle vengono

rappresentate da cinque note bianche (Carter 2001). Un esempio molto

noto è “l’autografo melodico” di Bach sulla partitura: grazie alla notazione

anglosassone è possibile utilizzare le lettere dell’alfabeto fino alla “H”46.

Orlando di Lasso, seppur di origine fiamminga, preferiva la pronuncia del

suo nome italiana allo scopo di inserirsi nella partitura con la successione

melodica LA-SOL. Un esempio attuale di madrigalismo visivo lo troviamo

negli Elio e le storie tese, nella canzone Burattino senza fichi: la melodia

che il burattino Pinocchio canta è composta sulle note FA-RE-MI-DO

esattamente mentre il testo recita “quanto da fare mi do”.

1.4.3. La trattatistica barocca

Come conseguenza della stretta relazione tra retorica e musica,

l’estetica della musica barocca si basa sugli affetti47 (Butler 2004):

attraverso la retorica bisogna prima di tutto suscitare gli affetti

dell’ascoltatore. Come dice Zarlino (1558), la musica deve commuovere

l’anima e disporla per i vari affetti, i compositori ora pianificano

razionalmente il contenuto affettivo dell’opera e si attendono determinate

risposte emotive dal pubblico. Mentre nel Cinquecento italiano i

45

44 Le più brevi, siamo nella notazione mensurale bianca (Vedi Apel 1962).45 In tedesco il diesis è kreuz, ossia “croce” in italiano.46 Nel caso specifico si avrà che B: SIb; A: LA; C: DO; H: SI naturale.47 Dal latino affectus, l’equivalente al greco pathos.

procedimenti retorici erano impiegati per lo più nell’aderenza tra testo e

musica, ora nel Seicento tedesco il motivo principale è muovere l’affetto.

Nasce in Germania e si codifica la Affektenlehre, ossia la teoria che

applica alla musica barocca le regole della retorica classica, che produce

e mantiene per quasi due secoli una lunga serie di trattatisti.

Il primo vero trattato di retorica musicale appartiene a Joachim

Burmeister, il quale, nel suo Musica poetica del 1606, supera l’approccio

abbastanza intuitivo dei suoi predecessori che affidavano ai modi

ecclesiastici il potere di veicolare determinate emozioni. Secondo Zarlino

ad esempio i modi con la terza maggiore (DO-FA-SOL) sono vivaci e allegri,

mentre quelli con la terza minore (RE-MI-LA) sono tristi e dolci (Macey

2004). Burmeister (1606) ritiene che la figura retorica è più efficace

dell’ethos modale nel muovere gli affetti. L’applicazione dei principi retorici

per lui dev’essere un allontanamento dal classico modo di comporre

basato fino a d’ora sulle normali regole del contrappunto. Appare

significativo che, sebbene la normale prassi rinascimentale vedesse nei

procedimenti imitativi una pratica da usare con parsimonia, se non

addirittura da evitare48, di ventisei figure elencate nel suo trattato, ben due

terzi riguardino l’imitazione. La sua suddivisione è di carattere, diremmo

noi oggi, sintattico o grammaticale: vi si trova infatti una ripartizione in

figure che riguardano la melodia, l’armonia o entrambe. Tuttavia per

questo motivo è stato oggetto di critica per non aver dato il giusto spazio

agli affetti e di aver semplicemente elencato una serie di artifici volti alla

composizione musicale.

Ereditando il pensiero di Burmeister, Johannes Nucius pubblica nel

1620 il Musices Poeticae trovando un’originale analogia tra i colori del

46

48 cfr. analisi del miserere di Josquin in Macey (2004).

pittore e la retorica per i compositori, in assenza della quale l’opera

musicale è priva d’arte e risulta noiosa. Egli incita i compositori a imitare le

figure retoriche dell’oratoria affinché anche la musica possa acquisire

varietà ed eleganza. Sempre a Nucius si deve la suddivisione gerarchica

tra figure principali e secondarie. Christoph Bernhard, nel Tractatus

compostionis augmentatus del 1657, seguendo il pensiero di Nucius sulla

suddivisione tra figurae principali e secondarie facendo, fa derivare le

prime dalla retorica classica e le seconde dalla prassi esecutiva che

chiama figurae superficiales. Con la metà del Seicento le discussioni

teoriche si concentrano sulla potenza affettiva delle figure e sulle emozioni

che esse suscitano nell’ascoltatore come ad esempio si osserva nel

Musurgia universalis sive ars magna consoni et dissoni di Kircher del

1650, in cui si sostiene che le figure di ripetizione servono ad esprimere

emozioni come la ferocia e lo sprezzo.

Col Settecento si inizia a sentire l’influsso dell’Illuminismo e le figure

iniziano ad essere catalogate sotto la tendenza alla classificazione della

conoscenza in generale. Nei Musicalische Sommer-Gespräche di Ahle

(1698), si indica al compositore che in un primo tempo deve analizzare il

testo da mettere in musica, successivamente musicarlo piegando la

musica in modo da rendere più evidente la figura retorica impiegata nel

testo; si consiglia inoltre di utilizzare in musica le stesse figure retoriche

dell’oratoria usate nel testo. Nella lunga trattatistica sulla retorica musicale

non manca nemmeno chi come Vogt, nel 1719, consiglia l’uso di alcool

per stimolare la fantasia del compositore per l’inventio musicale. Di forte

influsso illuminista, appare l’opera di Johann Mattheson, Der vollkommene

Kapellmeister del 1739, che estende la retorica a tutti i parametri della

musica e propone al compositore di formarsi un quadro completo di tutte

le emozioni e di comporre la musica di conseguenza. Suggerisce una

47

distinzione tra passioni semplici e passioni complesse che combinano più

passioni semplici: il compositore deve tenere conto di questo e

comportarsi di conseguenza adottando una figura per ogni passione. Ad

esempio raggruppa orgoglio altezzosità arroganza e consiglia di utilizzare

per queste passioni tempi lenti, figure musicali che richiedono serietà e

sempre ascendenti. Nel suo impianto teorico trova spazio anche per

organizzare le sezioni della retorica classica come dispositio, confutatio,

narratio ed esclamatio e metterle in relazione alla forma musicale. Ad

esempio l’esclamatio viene suddivisa in tre categorie: la prima vede

dominare la gioia, la seconda il desiderio e la terza le grida di

disperazione. Mattheson infine proseguendo nel pensiero di Vincenzo

Galilei, disapprova l’abuso da parte degli esecutori di tali figure retoriche

perché gli appare che le usino in eccesso e nei luoghi sbagliati.

Mentre nel corso del Seicento si comincia ad abbandonare la parola in

favore di una musica strumentale, che culminerà nella musica assoluta

dell’Ottocento, molto più illuminista di Mattheson appare il Der critischer

musicus del suo contemporaneo Scheibe (1745) in cui si propone al

compositore di non imitare semplicemente le figure retoriche dell’orazione,

ma di scegliere quelle che sono naturali per la musica in quanto le prime

appartengono a un dominio estraneo a essa.

Verso l’Ottocento si va a perdere quasi totalmente la nozione di

espressione retorico-musicale, tanto che, nel suo compendio storico

redatto tra il 1788 e il 1801, Johann Nikolaus Forkel ammette che la

conoscenza della retorica musicale è andata perduta. Tuttavia qualche

traccia della retorica degli affetti rimane: alcuni autori appoggiano l’idea di

dover creare un contrasto attraverso la varietà degli affetti, in quanto

questa rispecchia meglio di quelli singoli la psicologia mutevole dell’uomo.

48

1.5. La Pubblicità

1.5.1. Musica come attrazione

Si conclude questo percorso introduttivo delineando una breve storia

della musica utilizzata nella pubblicità. Si proseguirà con alcuni pensieri ad

essa rivolti: sulla sua influenza, sulla sua struttura e sulle sue funzioni.

Verranno toccati brevemente anche il jingle e la musica nei luoghi di

consumo. La preistoria della pubblicità risale al medioevo, più

precisamente al tempo in cui i venditori cantavano le qualità del proprio

prodotto per catturare l’attenzione dei passanti. Questi canti vengono

chiamati street cries (Stilwell 2001), letteralmente “urla da strada”. Il più

antico esempio conosciuto, che è un mottetto a tre voci, ci è rimasto nel

Codice di Montpellier n. 319 del XIII secolo. Delle prime forme di street

cries non si sa molto: la voce era accompagnata da strumenti rumorosi

quali trombe e tamburi allo scopo di attirare l’attenzione.

La storia della musica per pubblicità, ha in ogni modo inizio solo da

quando la stampa è diventata economica. Durante il XIX secolo le urla da

strada si tramutano in jingle stampati su cartoline, riviste e giornali, ma

non muoiono completamente: nei grandi magazzini della costa orientale

degli Stati uniti vengono allestite orchestre per allietare il consumatore

negli acquisti. Già all’indomani della prima guerra mondiale le musiche

utilizzate per i grandi magazzini segmentavano la clientela. Le urla da

strada scompaiono definitivamente in favore delle registrazioni con la

possibilità di fissare il suono su un supporto.

La musica è entrata nella pubblicità radiofonica per rendere meno

sgradevoli i comunicati pubblicitari parlati (Julien 1989). È una

49

componente privilegiata dello spot in quanto attiva «associazioni affettive,

emozioni, [e] desideri irrazionali» (Simeon 1995, 81). Anche quando il

prodotto pubblicizzato non ha nulla di pregiato da vantare come nel caso

della margarina, l’accostamento con una musica “barocca” lo eleva

(Motte-Haber 1982).

In linea generale la musica negli spot deve essere corta,

accattivante, ritmica e che presenti analogie con il testo verbale (se

presente); non si escludono doppi sensi di carattere sessuale. Diversi

sono i procedimenti per cui viene scelta una musica esistente: i) si sceglie

una canzone per una parola che nel testo si intona al prodotto come nel

caso di True colors di Cyndi Lauper per la Kodak; ii) si cambia parte del

testo di una celebre canzone per declinarlo ai contenuti del prodotto da

pubblicizzare, ad esempio You’re givin’ me good vibrations dei Beach

Boys diventa Sunkist’s giving me good vibration; iii) si sceglie una musica

per un particolare contenuto testuale ed è il caso della famosa apertura di

Einstein on the beach di Philip Glass (1947-) usata dalla Orange

Communication (Stilwell 2001).

1.5.2. Musica nella pubblicità

Nel 1982 Gerald Gorn pubblica un pionieristico articolo con l’intento

di dimostrare che la musica di sottofondo in una pubblicità influenza

l’acquisto da parte dei consumatori del prodotto pubblicizzato.

Nell’esperimento, due gruppi di soggetti vengono esposti a semplici

immagini di penne accompagnate da musiche considerate dai

partecipanti, attraverso un pre-test, come piacevoli o non-piacevoli;

successivamente si presenta un’opportunità di acquisto. Dai risultati

emerge che i soggetti preferiscono le penne pubblicizzate con la musica

50

che essi ritengono più piacevole. Le ipotesi di Gorn vengono dunque

confermate: un affetto positivo verso la musica influenza la scelta

all’acquisto.

Benché la musica appaia importante ai fini della memorizzazione e

del riconoscimento del prodotto, oltre al fatto che contribuisca alla

costruzione dell’identità e ai processi di aggregazione giovanile, Ala e

Ghezzi (1983) si domandano come mai in Italia la ricerca trascuri il potere

degli elementi musicali nella pubblicità. La musica nella pubblicità ha un

ruolo fondamentale che spesso si sostituisce al parlato: attrae e seduce

con atmosfere sapori e sensazioni (Spaziante 2005). Come sottolinea

Cinzia Bianchi, la pubblicità in questi ultimi anni lascia sempre meno

spazio alla narratività per concentrarsi sulle passioni e sulle emozioni

«basando la propria efficacia sulla presentazione di sensazioni collegate

al prodotto o alla marca» (Bianchi 2005, 15-16).

Linda Scott (1990) sostiene però che gli studi sulla musica in

pubblicità debbano avere una concettualizzazione più complessa della

semplice dicotomia basata sul piacere. D’accordo con Dowling e Harwood

(1986), che il riconoscimento e la comprensione della musica si acquisisca

attraverso gli anni di acculturazione personale e che venga attivata dalla

memoria49, Scott appoggia l’idea che le implicazioni culturali nella fruizione

della musica in pubblicità siano enormi. Come un segno può svolgere

diverse funzioni o può essere sostituito da un sinonimo e come in musica

il tono (altezza tonale, pitch) non ha significato in sé, ma lo acquisisce solo

in un contesto armonico, allora il significato di un segno può essere

estrapolato solo dal contesto in cui compare. Analogamente la musica

nella pubblicità può essere compresa solo nella relazione con le altre

51

49 Sull’apprendimento implicito cfr. Tillmann e collaboratori (2000).

componenti quali immagini e parole. Commentando Langer (1942), Scott

afferma che il significato di una pubblicità è una speciale costellazione di

tutte le connotazioni implicate. Si viene a creare una struttura

grammaticale che non è un simbolo, ma ha una missione “simbolifica”,

ovvero lega diversi simboli, ciascuno con almeno una connotazione

frammentaria, per dare vita a un termine complesso. Ogni singola

componente (parole, voce, musica, colori e forma) dunque interagisce

dinamicamente con le altre al fine di creare una rete di significati, che

vengono interpretati utilizzando un’esperienza culturale condivisa.

Per Ala e Ghezzi (1983), la musica ha il potere, grazie a quella sorta

di “ingegneria genetica”, di manipolare i nostri sogni e i nostri desideri, di

riassemblare «secondo la logica propria di questo apparato, archetipi e

riserve collettive di simboli» (Lombardi Satriani 1973; Ala e Ghezzi 1983,

104-5). La musica nella pubblicità è popular music, musica di massa per le

sue caratteristiche estetiche, sociologiche e commerciali, è una “musica

d’uso” alla Erik Satie o una “musica d’ambiente” alla Brian Eno50. La

pubblicità attinge alla letteratura musicale a piene mani, si appropria

senza attenzioni di simboli, di associazioni e di attributi di valore. Opta per

messaggi musicali stereotipati per ridurre al minimo l’incertezza alla

ricerca dell’efficienza e della persuasività del messaggio.

Simeon (1995) ritrova nella musica per la pubblicità tre principi

associativi: i) una musica diegetica, dove svolge un ruolo narrativo come

nel caso in cui si rappresenti un party; ii) una musica che risponde a criteri

analogici sottili, come ad esempio se si vuole reclamizzare un olio si

opterà per «un suono morbido e delicato, ancora abbastanza vicino

all’oggetto» (Motte-Haber 1982, 103); iii) una musica scelta secondo criteri

52

50 cfr. Muzak in Marconi (2001b).

apparentemente arbitrari. Simeon fa notare che in quest’ultimo caso,

sebbene la scelta musicale appaia arbitraria, la musica viene utilizzata per

veicolare concetti quali «bellezza, pulizia, felicità e potenza» (Simeon

1995, 82).

Per Marconi (2001b) invece, la musica nello spot assolve

principalmente due funzioni: spettacolarizzare e sorprendere. Per

“spettacolarizzazione”, esso vede che il messaggio pubblicitario non

appare più come forma di argomentazione critica, piuttosto come uno

spettacolo da fruire esteticamente «sulla base di opposizioni quali bello/

brutto, piacevole/spiacevole, divertente/noioso o coinvolgente/straniante

(Delalande 1993)» (Marconi 2001b, 684). Per quanto riguarda il

“sorprendere” la musica nella pubblicità ha il fine di attirare l’attenzione,

sfruttando accostamenti insoliti tra parola immagini e musica piuttosto che

attraverso l’utilizzo di musiche sconosciute:

famosi creativi […] hanno sempre cercato di suscitare sorprese e meraviglie […]; hanno sempre stimolato l’immaginazione del pubblico, captandone l’attenzione c o n a r g o m e n t i l o n t a n i d a l p r o d o t t o pubblicizzato» (Gazzara 1993, 98).

Secondo Eco (1968), nel registro visivo la figura retorica

predominante in pubblicità è l’antonomasia. Riprendendo Eco, Marconi

(2001b) ritrova che analogamente l’incipit della Sinfonia n. 40 di Mozart

rappresenta la specie “Musica di Mozart”, un riff di chitarra rappresenta il

rock, una settima e nona stanno alla dissonanza come un accordo

maggiore alla consonanza. Per attribuire un certo valore a questi

frammenti egli ritiene che è necessario ricorrere ad associazioni

stereotipate. A tal proposito, Ala e Ghezzi (1983) presentano il caso

dell’aspirina Bayer. In questo spot si osservano diversi primi piani di

53

persone rappresentano il bacino di utenza del prodotto, ad ogni persona

corrisponde una fascia d’età che viene rappresentata da uno strumento

preciso. Ai bambini ad esempio è associato il pianoforte che sembra un

carrillon, agli adolescenti il flauto, ai ventenni le chitarre elettriche, ai

trentenni l’armonica a bocca e ai quarantenni i violini. Viene sfruttato

dunque il potere dell’associazione tra genere musicale e fascia d’età.

Elogiando il mondo rumoristico delle casalinghe riprodotto dai

pubblicitari, gli autori, elevano la musica a “bene di lusso” per via della sua

“inutilità”. Il mondo delle pulizie è solitamente rumoroso e privo di musica,

individuano un’equazione secondo la quale se il rumore è uguale alla

sporcizia e il silenzio al pulito, in uno spot con commento sonoro, la

musica si oppone al rumore e quindi viene associata al pulito. In merito al

target giovanile sostengono che è il sound ad attrarre i giovani: portano ad

esempio il blues utilizzato dalla Brooklyn e dalla Levi’s o la canzone

d’autore italiana per i gelati Algida. Sempre in merito al sound la musica

elettronica ha il potere di connotare il “futuro”, quindi la tecnologia51,

prodotti tradizionali nobilitati e ridefiniti, “precisione”52.

Da un punto di vista strutturale, essi osservano che per rispettare un

tempo che va dai quindici ai sessanta secondi, si ricorre a un’economia di

elementi, in cui il più delle volte risulta necessario suddividere la forma

musicale in due parti. Vi sono allora due temi che non sempre compaiono

in una dimensione prettamente musicale: questa bipartizione va più

54

51 Si tenga presente l’articolo di Ala e Ghezzi è del 1983, probabilmente oggigiorno le cose sono diverse.52 Se la realizzazione musicale appare molto difficile o addirittura impossibile da eseguire per un musicista si connota un maggior senso di tecnologia.

interpretata come una domanda-risposta53, il cui intento si individua nel

tentativo di evitare la ridondanza.

Secondo Marconi, solitamente, la canzone pubblicitaria

è di breve durata, e ha una linea melodica e un profilo ritmico molto semplici ed evidenti, con un’articolazione fluida, una velocità media, gradi in prevalenza congiunti, ambito non troppo ampio, regime tonale-modale normale, qualità timbriche familiari e una certa semplicità nell’organizzazione strutturale discorsiva. (Marconi 2001b, 688)

1.5.3. Il jingle

Il termine jingle rivela origini antichissime il cui significato oscilla tra il

suono onomatopeico di gingilli e la composizione orale caratterizzata da

ripetizioni e alliterazioni. In ogni modo, il termine si riferisce a un’emissione

sonora “primordiale” che «ha la particolarità di porsi come segnale

acustico percussivo e di attrarre immediatamente l’attenzione di chi

ascolta» (Gazzara 1993, 93).

Alla voce “Jingle” nel dizionario della musica e dei musicisti, Grove,

si trova che il jingle è una composizione musicale destinata allo scopo di

promuovere un prodotto; spesso cantato, ma anche strumentale, se

cantato è composto da due versi uniti da una rima (Miranda-Pérez 2001).

Come nel caso della musica negli spot anche il jingle vede le sue prime

apparizioni nel XIX secolo in forma di “musica a stampa” in figurine e

periodici, ma è con l’avvento della radio che diventa un efficace strumento

nelle mani dei pubblicitari. Il primo jingle della storia della pubblicità di

55

53 Negli spot, la forma musicale bipartita si rintraccia solitamente nella contrapposizione musica/parlato, voce maschile/femminile e così via.

massa risale al 24 dicembre 1929; a testimoniare l’eredità dalle street

cries, sta il fatto che è stato inciso dai proprietari stessi dell’attività che

veniva pubblicizzata (Gazzara 1993).

Secondo Burner (1990) un messaggio cantato viene memorizzato

più facilmente di uno parlato anche se accompagnato musicalmente, per

questa ragione i pubblicitari preferiscono i jingle cantati. Si usano spesso

canzoni famose su cui viene adattato un testo che elogia il prodotto,

oppure si ricorre ad associazioni stereotipate come una musica irlandese

per un whisky e una sudamericana per il caffè. Per Spaziante il jingle

«ricopre, da un certo punto di vista, il ruolo che il logo ricopre nella

comunicazione visiva: un elemento minimale che riassume in poco spazio-

tempo un’alta densità semantica» (Spaziante 2005, 158).

Nello spot dev’essere riconoscibile in pochi tratti, proprio come il logo

o la headline rispettivamente nel dominio del visivo e del verbale. Sul

piano uditivo lo contrapponiamo al commento sonoro dello spot come il

logo nel visivo al visual: entrambi non devono necessariamente essere

coerenti con i rispettivi visual e sonoro che variano di spot in spot, ma lo

devono essere con l’immagine di marca. Il jingle dev’essere ricordato, per

questo motivo lo troviamo il più delle volte in rime baciate e ridondanze sia

melodiche che fonetiche e dev’essere il più semplice e familiare possibile

(Marconi 2001b). Spesso le parole chiave vengono ripetute per ottenere

una maggiore interazione con il consumatore, nella speranza che il jingle

venga citato anche in situazioni estranee al mondo della pubblicità

(Gazzara 1993).

56

Buona parte dei jingle si basano sulla scala pentatonica54, in termini

semiologici si ipotizza un restringimento di codici, perciò è una che viene

scelta in nome di una facile memorizzabilità (Ala e Ghezzi 1983). Le

melodie basate sulla pentatonica non hanno un percorso ben delineato a

differenza della scala diatonica e in un certo modo viene a mancare

l’elemento temporale. Citando Mellers (1981), i due autori affermano che

l’utilizzo della pentatonica porta a un processo di identificazione più che di

ricerca dell’identità. La pentatonica comporta l’identificazione con la

musica e di conseguenza con il prodotto, è un «dimenticare il nostro

mondo per immergerci in quest’altro, una venerazione di carattere

religioso» (Ala e Ghezzi 1983, 116).

1.5.4. Musica nei luoghi di consumo

Marconi (2001b) fa notare che la musica viene sfruttata anche nei

luoghi di consumo al fine di combattere il silenzio, coprire i rumori di fondo

e quindi distogliere l’attenzione, ma soprattutto per rendere confortevole

l’ambiente. Si preferiscono musiche euforiche per invogliare l’acquirente e

metterlo in un atteggiamento favorevole all’acquisto. La melodicità non

dev’essere troppo coinvolgente per non attirare troppo l’attenzione, ma

dev’essere sufficiente a far sentire la presenza di una voce amica (Stefani

e Marconi 1992). La velocità della musica in questi luoghi dev’essere

moderata, evitando la lentezza che toglie motivazione, e l’eccessiva

velocità che lo induce a concludere rapidamente l’esperienza di

57

54 La pentatonica è la scala composta da cinque suoni di origine africana che è alla base del blues e del jazz. Oggi si ricava dalla scala maggiore diatonica privata del IV e VII grado, cioè il tritono (la dissonanza per antonomasia), ciò la rende abbastanza ambigua da essere utilizzata in più contesti armonici (oltre alla tonalità a cui appartiene anche le due tonalità adiacenti nel circolo delle quinte) ed estremamente cantabile, quindi memorizzabile.

consumo55. Con la dinamica si spinge ad eccitarlo quando nel mattino è

assonnato, e a calmarlo nel tardo pomeriggio dopo una giornata di lavoro.

Molto importante è il fatto che per ogni tipologia di consumatore si sceglie

una musica adatta, così una musica per giovani favorisce la loro

identificazione e una correlazione tra l’essere giovani ed essere acquirenti.

58

55 Riguardo al tempo, Tagg (1981) fa notare che si cerca di sincronizzare i movimenti del consumatore al ritmo della musica.

1.6. Risoluzione

In questo breve percorso sono stati portati dati a favore della tesi che

la musica presenta forti analogie con il linguaggio naturale e sembra

essere un’esperienza molto importante per l’uomo. È stato osservato, da

un punto di vista estetico, che l’imitazione è un’attività connaturata

all’uomo ed è molto presente in musica. La retorica musicale, che si

adagia su quella oratoria, nel caso dei madrigalismi ha lo scopo di

rappresentare, dunque imitare, un mondo extra-musicale.

Tra tutte le arti la musica ci appare – e ci scusiamo per il “musico-

centrismo” – quella più vicina all’uomo, quella più naturale, per due motivi:

in primo luogo utilizza il suono, medium preferenziale del linguaggio, in

secondo luogo, come abbiamo visto con Rousseau e Darwin, sembra

essere antecedente a quest’ultimo. La musica inoltre sembra essere

strutturata secondo una grammatica che per molti versi, e che tra poco

approfondiremo, è simile a quella del linguaggio.

L’importanza della musica non solo è nota agli psicologi che la

studiano, ma anche all’uomo della strada, in particolar modo al titolare del

grande magazzino, che vuole rendere confortevole l’esperienza di

acquisto dei suoi consumatori. Da quando è stato possibile fissare il suono

su un supporto stabile, ma soprattutto diffonderlo ad altre persone in tempi

e spazi differenti dall’hic et nunc, la musica non ha più abbandonato la

pubblicità. La musica negli spot attiva associazioni affettive, aiuta a

memorizzare un testo verbale, attrae e seduce, può raccontare e

sorprendere, nonché farsi venerare. In che modo si attivano questi

processi? Come è possibile che una serie di soli sette suoni riesca a

produrre determinati effetti di senso? Qual è allora il significato della

musica?

59

60

2. SVILUPPO

61

62

Lo sviluppo, la parte centrale della forma sonata, consiste nel far

interagire i temi musicali. In questa sezione del nostro lavoro si tenterà di

sviluppare e far dialogare tra loro i concetti precedentemente esposti, in

particolar modo il capitolo è stato diviso in tre parti, la prima dedicata alla

semiologia musicale, la seconda in cui si analizza la musica con gli

strumenti forniti dalla linguistica, e un’ultima sezione in cui le figure

retoriche dell’imitazione vengono disposte in un continuum di analogia.

Per quanto riguarda la semiologia della musica si farà riferimento alle

ricerche condotte sui significati evocati dagli intervalli, dalla melodia e

dalla strumentazione utilizzata. Saranno decisive al fine della nostra

argomentazione le parti dedicate alla musica come imitazione di un

qualcosa di esterno ad essa come ad esempio le espressioni vocali e i

movimenti spaziali in cui si approfondirà la tecnica cinematografica del

mickey-mousing.

La nostra ipotesi è relativa alla possibilità che il sistema musicale e

quello linguistico condividano numerosi aspetti. In particolare si

prenderanno in esame gli elementi fonologici, morfologici e sintattici e

saranno prese in esame le differenze tra le culture orali e quelle basate

sulla scrittura. Porremo particolare attenzione sulla semantica musicale

tentando di conciliare le teorie sul significato musicale proposte dalla

psicologia cognitiva e dalla semiotica. Utilizzando l’implementazione del

modello di percezione dei suoni al fine di delineare una struttura del segno

musicale che possa abbracciare le varietà musicali del Novecento

concluderemo che la musica è un linguaggio poetico.

Nell’ultima parte si proporrà un tassonomia delle figure musicali di

imitazione postulando un continuum che va dall’arbitrarietà all’imitazione

secondo un criterio che, ancora una volta, scaturisce dal modello cognitivo

della percezione musicale.

63

2.1. Semiologia della musica

La semiologia studia il segno, nella sua struttura e nel modo in cui

viene interpretato. Pioniere di questa disciplina è il linguista ginevrino

Ferdinand De Saussure che nel suo corso di linguistica (1916) studia il

segno linguistico come una correlazione di due piani: quello del significato

e quello del significante, dove al primo corrisponde un concetto e al

secondo un’immagine acustica. Il segno per De Saussure, allora, unisce

un’immagine acustica cioè il significante, a un concetto che è il significato:

la parola scritta o pronunciata “albero” è il significante, mentre l’albero in

sé è il significato. Laddove il significato risiede fuori dalla lingua, il

significante invece si trova all’interno. La semiotica musicale appare negli

anni Settanta come l’applicazione della linguistica alla musica (Tarasti

2002). Nessun oggetto per l’uomo ha un’esistenza se non rappresenta o

significa per questo qualcosa; è compito della semiotica della musica

studiare il segno musicale nella sua struttura e nel rapporto che intrattiene

con chi lo ascolta.

Per introdurre questa parte di lavoro, si richiama il celebre lavoro di

Deryck Cooke del 1959, The Language of Music, lavoro che con la

semiotica condivide poco, ma ci sembra il punto di partenza

nell’intenzione di rintracciare un significato a un preciso segno musicale.

Cooke utilizza l’espressione “termini musicali” per intendere dei vocaboli

rintracciabili in «combinazioni di due o più note [che formano] brevi frasi

che sono i termini di base del vocabolario musicale» (Cooke 1959, 301), e

associa perciò a determinate condotte musicali determinati significati.

L’accordo di tonica ad esempio, viene considerato come il punto di riposo,

il punto dal quale si parte e verso il quale si ritorna, mentre quello di

dominante è visto come il punto intermedio, verso il quale si parte e dal

64

quale si ritorna. Si distingue la tragicità evocata dalla terza minore dalla

gioia della terza maggiore, la nota che vede il lato buono delle cose, quella

del piacere. A livello di contorno melodico, si osserva nell’ascesa

l ’ es te r io r i zzaz ione d i un ’emoz ione , ment re ne l la d iscesa

un’interiorizzazione, cosicché a un andamento ascendente in minore si

avrà un’esteriorizzazione di un sentimento di pena. In un andamento

discendente in maggiore si avrà un sentimento passivo di gioia, verranno

accolti dei benefici e si avranno conforto, consolazione e rassicurazione,

se poi questo percorso termina sulla tonica si avrà come la sensazione di

essere tornati a casa. Un arpeggio ascendente in minore (I-IIIm-V)

risulterà come un’asserzione di dolore, un compianto, una protesta contro

la sfortuna, se a questo segue una scala in maggiore, si avrà un momento

glorioso, il conforto dopo il turbamento.

Ci sembra dunque di capire che questi singoli “vocaboli” se

giustapposti interagiscano tra loro: ogni brano è un tutt’uno entro il quale

gli effetti dei vari frammenti già codificati si interpretano e si condizionano

l’un l’altro di nota in nota, di battuta in battuta, di movimento in movimento;

ogni frammento immerge nuovamente la propria identità all’interno di una

nuova espressione complessiva.

2.1.1. Il significato in musica

Nella nostra società consideriamo la musica come se fosse una

lingua materna, si nota tuttavia che per quel che riguarda

l’alfabetizzazione, e cioè l’acculturazione attraverso i manuali, l’accento

viene sempre posto sull’aspetto sintattico, tralasciando quello semantico

con significati e significanti (Stefani, Marconi e Ferrari 1990). Questo

probabilmente a causa della classica definizione sulla differenza tra

65

musica e linguaggio esposta da Hanslick a metà ottocento nel suo Il bello

musicale56 in cui la differenza consiste nel fatto che

nel linguaggio il suono è solo segno, cioè un mezzo per lo scopo di esprimere qualcosa di completamente estraneo a questo mezzo; nella musica il suono ha un importanza in sé, cioè scopo a se stesso (Hanslick 1854).

Ma è indubbio che la musica condivida numerosi altri aspetti oltre a

quello sintattico col linguaggio, e appurato che la musica abbia una

propria sintassi, è possibile parlare di significato?

Zuckerkandl (1956) afferma che non tutte le serie di toni formano una

melodia: quando sentiamo un gatto che cammina sul pianoforte di certo

non percepiamo una melodia, perché questa è senza senso. La melodia è

dunque per l’autore una serie di toni che produce senso. Chiarisce con un

esempio: prendendo la parola “art” e mescolando le lettere si ottengono

diverse parole composte da suoni articolati che hanno senso come “rat” e

“tar”, ma anche altre senza senso come può essere “tra” (l’autore si

riferisce ovviamente alla lingua inglese), questo ad esempio del fatto che

per creare senso non è sufficiente giustapporre fonemi. Continua

richiamando il caso di chi soffre di disturbi della percezione dei toni (tune

deafness): chi soffre di questa patologia percepisce sì i singoli toni,

tuttavia non riesce a ricondurli a una melodia, quello che queste persone

sentono è per molti versi paragonabile a una lingua sconosciuta dove si

sentono vocali e consonanti, ma non si riesce a ricondurle a parole57. Sul

piano musicale queste melodie per queste persone sembrano al gatto che

cammina sul pianoforte.

66

56 Hanslick E. 1854, Vom Musikalisch-Schoen. Ein Beitrag zur Revision der Aesthetik der Tonkust, Leipzig, tr. it. Il bello Musicale, 1978, Firenze: Giunti (Marconi 2001a).57 Molti esempi di pazienti con disturbi a livello cerebrale si trovano in Sacks (2008).

Il significato musicale ha una duplice natura: Meyer (1973) individua

in primo luogo un significato “incorporato” che risiede nelle strutture

musicali stesse, che riguarda la dinamica di tensioni e risoluzioni, attese

soddisfatte o deluse, in secondo luogo individua un significato

“designativo”, cioè che rimanda a qualcosa di estraneo al linguaggio

musicale. Analogamente Middleton (1990) distingue la “significazione

primaria” che è interna alla musica e che ha a che fare con la relazione tra

le note e la struttura formale, dalla “significazione secondaria” che

riguarda le emozioni e le immagini che la musica stessa evoca. Il

musicologo Hanslick e il compositore Stravinsky, in un’ottica formalista,

affermano che il significato musicale non può che essere interno alla

musica, a partire dalle categorie di Middleton avrebbero perciò detto che

nella musica si ha solo significazione primaria.

Koelsch e collaboratori (2004) nel loro celebre studio pubblicato sulla

rivista Nature Neuroscience riassumono quattro differenti tipi di significato

musicale: i) un significato che emerge dalle connessioni attraverso frame

of reference suggeriti da pattern o forme comuni (pattern in termini di

altezza, tempo, dinamiche e timbro); ii) un significato che emerge

dall’interazione di strutture formali che creano pattern di tensione e

risoluzione; iii) un significato che emerge dalla suggestione di un

particolare stato emotivo; iv) un significato che emerge da associazioni

extra-musicali (come ad esempio possono essere gli inni di stato). I primi

due punti ci sembrano essere quelli della significazione primaria di

Middleton, mentre gli altri due quelli della significazione secondaria o il

significato designativo di Meyer.

Sempre in un’ottica formalista, sono in molti a sostenere che la

musica esprima solo se stessa e che sia autoreferenziale, specialmente

nell’ambito della psicologia cognitiva. Il significato musicale sarebbe

67

sintattico piuttosto che semantico (Booth 1981). Kraut (1992), per

esempio, considera il significato musicale l’esperienza correlata a uno

stimolo musicale, mentre Raffman (1992) lo associa alle sensazioni che la

musica scaturisce, Sloboda (1992) invece, attraverso dei questionari,

cerca una correlazione tra determinati passaggi musicali e le reazioni

fisiche emozionali quali occhi lucidi e brividi o “pelle d’oca”. Ma l’ascolto

non è sempre di carattere emozionale. Kivy (1989) afferma che

l’ascoltatore sceglie se concentrarsi sulle «qualità espressive della

musica, oppure su altre qualità» (Kivy 1989, 59), mentre Davies (1994) fa

notare che l’ascolto è una questione di atteggiamento, dove Delalande

(1993) parla di “ascolti-tipo” indicando che l’ascolto solfeggistico, la cui

finalità consiste nel riconoscere i tratti grammaticali, esclude l’ascolto

emozionale. Il significato musicale infine, secondo Smith (1987), dipende

dal grado di alfabetizzazione musicale: i musicisti a differenza dei non-

musicisti sono sintatticamente orientati, questo significa che traggono

piacere da una buona forma e da una buona condotta sintattica.

Ci sono autori che attribuiscono il significato musicale direttamente al

modo in cui il messaggio musicale viene veicolato, in particolar modo

Zuckerkandl (1956) nega che il significato musicale faccia riferimento a

qualcosa di esterno alla musica sostenendo che invece si rivolge alla

musica stessa, vale a dire che il significato non è la cosa indicata, ma il

modo in cui questa cosa viene indicata dove il modo è ciò che Meyer

(1956) chiama stile, comprensibile solo in un contesto sociale.

Infatti, in una prospettiva antropologica Cross (2009) afferma che il

significato della musica non può essere scisso dal contesto culturale entro

il quale la musica viene fruita, questo emerge da processi inter e intra-

68

personali ed è formato dalla matrice culturale58. Se un tempo la musica

era soggetta a scopi quali riti messe o danze, la musica “assoluta” e cioè

autosufficiente e autoreferenziale è un qualcosa di più recente (Romano

1998). Questa musica è, secondo Wackenroder, un linguaggio che noi non

conosciamo nella vita corrente, che si può riconoscere solo come il

linguaggio degli angeli; non è comunicazione inter-umana, ma intra-

umana e cioè alla ricerca dell’ignoto, dall’esterno all’interno (Dahlhaus

1978).

In opposizione ai formalisti, da un punto di vista psicanalitico, Mancia

(1998) afferma che il linguaggio musicale è un linguaggio metaforico con

potere superiore a quello del parlato in quanto è in diretta connessione

con emozioni e sentimenti. Nello stesso ambito Giannatasio (1994)

supporta l’idea che la musica interviene laddove il linguaggio si rivela

insufficiente, per esprimere un campo della vita mentale che esula dalle

potenzialità della parola. Per Fubini, la semanticità della musica non

deriva da “termini” precedentemente fissati e confermati, ma è

indeterminata, nel senso che il significato musicale ha una plurivalenza

contestuale: «Solo in un complesso contesto sintattico i suoni, o meglio i

gruppi di suoni, acquistano un significato» (Fubini 1973). Anche il

linguaggio utilizzato per “parlare di musica” è metaforico, infatti Antovic

(2009) ci ricorda che la musica è astrazione, e l’unica via per avvicinarsi

ad essa è quella della metaforizzazione, cioè la mappatura del concreto

sonoro attraverso l’astratto spaziale come ad esempio l’associazione di

categorie tipo alto/basso a suoni acuti/gravi.

La musica è una realtà a forte impatto emotivo, ma al tempo stesso

misteriosa e non descrivibile (Romano 1998) perciò non può essere

69

58 Per la musica vista in una prospettiva evoluzionistica cfr. Cross (2005; 2010).

organizzata secondo la dicotomia del significante e del significato perché

a causa della sua asemanticità le strutture sonore non sono inventariabili

in un vocabolario (Cano 1994). Tuttavia, come abbiamo visto, essendo la

musica collegata ai suoni prenatali, il significato musicale starebbe nella

sua causa, nell’unione simbiotica con la madre; sarebbe quindi questa

stessa esperienza travestita. Si reintroduce quindi a livello di esperienza la

corrispondenza tra un significante, cioè la musica, e un significato, ossia il

primordiale rapporto con la madre (Romano 1998).

2.1.2. Gli intervalli e il loro significato

Partendo dalle idee del letterato Pietro Bembo, il quale nel suo Prose

della volgar lingua del 152559 afferma che il suono delle parole produce

particolari reazioni emotive negli ascoltatori, Zarlino (1558) indaga, con un

approccio decisamente innovativo per il suo tempo, la dimensione affettiva

della musica. Il trattatista cerca una correlazione tra gli intervalli musicali e

le emozioni che questi suscitano, trovando ad esempio che gli intervalli

maggiori di terza e sesta suscitano sentimenti aspri, mentre quelli minori

sono espressione di tristezza (Macey 2004). Analogamente, ma attraverso

i recenti strumenti della semiotica, Gino Stefani con Luca Marconi e

Franca Ferrari (1990) intraprendono una ricerca60 sul significato degli

intervalli musicali – sia da un punto di vista linguistico che da quello socio-

semiotico – per dar voce “attraverso i canali del sapere” il punto di vista

della gente, ossia la competenza comune che è certo diversa da quella

70

59 Bembo P. 1525, Prose della volgar lingua, a cura di C. Dionisotti, in Prose e rime di Pietro Bembo, Torino: UTET, 1966 (Macey 2004).60 La cui metodologia viene ampiamente discussa.

dei musicologi o dei semiotici. Qui, per facilità espositiva, illustreremo tali

intervalli in ordine crescente, dal più piccolo al più grande.

L’intervallo di seconda è, secondo i tre autori, il “passo della scala”, la

distanza minima nello spazio organizzato musicale. A dare l’effetto di

scala, infatti, sono necessari almeno due intervalli consecutivi che danno

vita a una melodia che neutralizza le funzioni tonali. L’ascoltatore

percepisce ogni gradino come il più piccolo frammento della scala, che

quindi non è più il semitono, ma l’intervallo di seconda che può essere sia

di un semitono che di un tono intero, a seconda che sia una seconda

minore o maggiore. L’intervallo di seconda diventa perciò il grado zero

della melodia.

Viene portato ad esempio il celebre motivo dell’ultimo movimento

della Nona sinfonia di Beethoven (1770–1827), l’Inno alla gioia: il senso

che se ne trae è di melodia elementare, di movimento continuo. In canzoni

come I am the walrus dei Beatles e in Centro di gravità permanente di

Battiato la voce si tiene su una corda di recita alternando seconde

ascendenti e discendenti ad ogni sillaba. Il passo della scala si trova

spesso negli ornamenti che caratterizzano da sempre la storia della

musica61, virtuosismi e decorazioni vocali che di norma non vengono

scritti, ed è proprio questo che induce gli autori ad affermare che per

spiegare il senso di questo intervallo bisogna partire dalle radici orali e dai

codici paralinguistici. Gli autori concludono l’analisi di questo intervallo

mostrandoci un frammento dal preludio per pianoforte Voiles di Debussy:

lo stile esatonale62 suggerisce un senso di esotismo orientaleggiante, una

71

61 Sugli ornamenti cfr. Karolyi (1980, 46).62 La scala esatonale viene anche chiamata “scala a toni interi”, infatti suddivide l’ottava in sei toni uguali anziché sette.

scala “distorta” e sospesa, armonicamente non definita come le pennellate

impressioniste.

Un caso particolare di seconda si rintraccia nella seconda minore

discendente che viene chiamata dagli autori la “nota dolente”. L’esempio

che ci viene mostrato è tratto dal Trovatore di Verdi ed è la parte di una

zingara che sta bruciando al rogo ed esclama “Ah!”: siamo in tonalità di LA

minore, l’esclamazione avviene sulle note FA-MI, prima sul V grado, poi sul

I. Il senso osservato è quello del lamento, che appunto, secondo loro

«l’espressione orale del lamento è una emissione breve, appena

discendente, abitualmente ripetuta» (Stefani et al. 1990, 126). Aggiungono

che tale percezione di lamento non deriva dal solo intervallo di semitono,

ma soprattutto dalla funzione cadenzale che, toccando VI e V grado della

scala minore, porta con sé il senso di “minore” malinconico e instabile. Si

fa notare che il senso di lamento non viene annullato nemmeno in un

contesto “post-tonale” come può essere l’exaudi della Sinfonia dei salmi di

Stravinsky.

La seconda cromatica è per Stefani Marconi e Ferrari (1990) il

“suono di mezzo”, la nota tra due note della scala diatonica; conferisce

alla melodia un tono sentimentale e languido. Gli autori costruiscono il

senso del cromatismo in opposizione a quello del diatonismo portando

alcuni esempi: se una scala diatonica viene usata in una situazione

normale, il cromatismo la altera, la rende disturbata, sofisticata. Il

cromatismo conferisce un senso di rallentamento: se il passo diatonico è

una marcia o una corsa, col cromatismo si scivola, si striscia, si vola. Il

cromatismo dà tensione e instabilità, incertezza, emotività e disequilibrio

rispetto alla stabilità, sicurezza, decisione ed equilibrio del diatonismo. La

trasformazione avviene anche sul piano sintattico in quanto si passa da un

regime a sette note a uno a dodici. Quando il cromatismo viene percepito

72

come nota di mezzo, e cioè quando l’armonia rimane ferma, il percorso

melodico risulta sinuoso, morbido, sfumato e rallentato come nel caso

della canzone Il clarinetto di Arbore. Un altro esempio di cromatismo è in

Bianco Natale dove si percepisce un senso sfumato, vago, confuso,

offuscato e rallentato.

Come è stato visto per i madrigalisti, anche i nostri autori sono

dell’idea che il cromatismo è sinestesico: nel tema principale del film Il

terzo uomo di Orson Welles, Harry Lime theme, vi è un cromatismo che

suggerisce l’ondeggiare di cui parla la canzone, un movimento minimo,

morbido e slittante. E ancora: Il volo del calabrone di Rimsky-Korsakoff

non viene forse evocato grazie ai cromatismi? Il cromatismo contribuisce

in alcuni casi a dare un senso di vivacità, allegria e grazia come in Com’è

bella la città di Gaber, e aggiungiamo che il linguaggio di Mozart è pieno di

cromatismi di questo genere. In altri casi si presenta anche come

virtuosismo nel “belcanto”, artificioso, spettacolare e sofisticato come la

scala cromatica discendente in terzine nella Lucia di Lammermoor di

Donizetti. Infine, tale intervallo, può come nei casi di Wagner, o ancor più

Schönberg portare a disagio, ansia, a uno spaesamento che dà vertigine:

non a caso gli autori, riferendosi a Schönberg e Webern, parlano anche di

“intervallo della crisi”.

L’intervallo di terza viene considerato da Stefani e collaboratori come

l’intervallo del “primo canto”, quello della nostra infanzia, delle cantilene e

delle filastrocche: Giro giro tondo, Din don campanon. Non richiede un

particolare sforzo fisiologico, è facile piacevole semplice e immediato,

piccolo e bello, in una parola è primordiale. La terza minore dondola, culla

e ondeggia, questo lo sanno le nostre mamme che ci cantavano la ninna

nanna usando la terza minore. Dal punto di vista sintattico questo

intervallo combina piccole dimensioni con un’alta densità melodica, non è

73

in tensione verso altri gradi e come la sesta è melodico perché dichiara se

il modo è maggiore o minore. Procedere per terze, continuano gli autori,

dà un senso di cantilena, che a differenza del procedere per seconde e

cioè puntare l’attenzione sul passo più breve che si può fare, ci si focalizza

sul primo canto. Le terze, che come già detto hanno un sapore infantile,

sono adatte ai saltelli al cavalluccio e a tutti i giochi che si fanno durante la

fanciullezza. Riguardo alla cadenza di terza si scrive che «non è, come

quelle di 4ª e 5ª, ‘tonale’, logico-sintattica, decisa e perentoria; […] si

potrebbe dire [che è] una cadenza ‘femminile’ opposta a una

‘maschile’» (Stefani et al. 1990, 33). Nella pubblicità l’intervallo di terza

addolcisce e intenerisce, cosicché la caciotta Baika diventa, per mezzo

dell’intervallo di terza, la dolce “caciottina”. La terza discendente inoltre,

imita anche un certo tipo di comportamento orale, è il caso della

canzonatura “Scemo!”, di un richiamo come in Hey Jude dei Beatles, Heidi

e il richiamo iniziale “Ooh!” nel A-ronne di Berio. Si aggiunge che, essendo

gli accordi sovrapposizioni di terze, cantarle in successione dà sempre un

effetto di facilità, semplicità, ma il risultato non è più infantile, ricorda più la

musica strumentale ed è il caso di Rock around the clock di Bill Haley;

«cantare scopertamente sulle 3ᵉ degli accordi è una sorta di ‘cantar

musicando’ […] filastrocca per adulti» (Stefani et al. 1990, 42-43), una

presa di distanza che possiamo osservare in canzoni come Ob-la-di ob-la-

da dei Beatles e Ma la notte no di Arbore.

Gli intervalli di quarta e di quinta corrispondono per gli autori al

segnale d’inizio, all’intonazione, ma anche alla conclusione e

all’affermazione; sono le due facce della stessa medaglia, l’uno il rivolto63

dell’altro e possiedono un’identità assai simile. Sono intervalli che

74

63 Il rivolto consiste nell’inversione degli intervalli che si ottiene abbassando di un’ottava la nota più alta cosicché rivoltando re-la che è un intervallo di quinta si ottiene la-re che è un intervallo di quarta.

potremmo chiamare primordiali per una serie di motivi: in primo luogo

sono i primi intervalli, esclusa l’ottava, che si trovano nella serie armonica

prodotta da una corda vibrante64; in secondo luogo, in una prospettiva

storica, sono gli intervalli da sempre associati a trombe e corni come

segnali di attacco65; in terzo luogo, come affermano gli autori,

costi tuiscono […] i r i ferimenti più consueti e, verosimilmente, più agevoli dal punto di vista dell’emissione, per i percorsi melodici vocali, come confermano i repertori di tradizione orale, anche pre-tonale (Stefani et al. 1990, 61).

Gli intervalli di quarta e quinta, proprio per il loro senso di attacco e

conclusione, spesso compaiono nella melodia quando si tratta di

affermare la configurazione di una struttura, cioè negli attacchi e nelle

cadenze: stabiliscono con vigore e chiarezza il senso tonale della melodia.

Si rintraccia spesso un senso un senso di popolare, specialmente nel caso

degli accompagnamenti al basso: è il caso della musica da ballo e nel

liscio dove il basso procede ininterrottamente dalla tonica alla dominante

dell’accordo che accompagna.

Il senso di slancio della quarta viene percepito in particolar modo

quando la dominante precede la tonica in posizione ritmica di anacrusi,

cioè quando la tonica si trova all’inizio della battuta ed è spiegabile, anche

questo fenomeno, con la struttura del suono armonico: ogni suono

armonico in sé produce una serie armonica che forma un “accordo” di

dominante e che in maniera del tutto naturale tende a risolvere verso un

suono che dista una quarta ascendente, venendo a realizzare perciò una

75

64 La serie armonica produce intervalli che vanno dal più grande al più piccolo: ottava, quinta, quarta, terza maggiore, terza minore e seconda (Pierce 1988).65 Gli strumenti di avviso o di attacco, un tempo sprovvisti di pistoni, potevano riprodurre solamente i suoni armonici della tonalità in cui lo strumento era accordato (Cfr. Rimsky-Korsakoff 1992).

specie di micro cadenza perfetta. Dello stesso effetto ma per motivi

differenti è la quarta che dalla dominante scende alla tonica: tale

movimento, secondo gli autori, viene associato all’abbassamento

prosodico che corrisponde all’estinguersi del fiato e funziona come un

segno di interpunzione, come una virgola. La quinta può assumere anche

un certo sapore di “passato”. In molta musica è possibile ritrovare la

matrice orale arcaica del recitativo in cui, a seguito di un’intonazione di

quinta, la voce si stabilisce su una corda di recita sulla dominante per poi

ritornare alla tonica (Stefani 1982). Questo movimento melodico assume

un senso di passato e di arcaico o di cantastorie come nel caso della

canzone di Guccini Il vecchio e il bambino.

Gli intervalli evocano grandi spazi e grandi distanze: sono gli

intervalli delle praterie musicate da Ennio Morricone (1928-), o di quelle

distanze che ci separano dalla terra promessa nel tema musicale del

colossal Exodus. Il potere di evocare grandi spazi è noto anche ai

pubblicitari che lo hanno utilizzato nello spot Pino Silvestre nel quale alle

immagini di un cavallo che galoppa in vasti spazi si associa una musica

costruita interamente sull’intervallo di quarta. Con le quarte è possibile,

seguendo la lezione di Scriabin, comporre armonie che, al pari di quelle

esatonali di Debussy, sono statiche e adatte ad atmosfere tranquille per

via della mancanza di semitoni che caratterizzano l’armonia diatonica

(Brindle 1992).

Secondo Stefani e i suoi collaboratori, gli intervalli di quinta diminuita

o quarta eccedente66 rappresentano un movimento strano, alterato,

anomalo, che richiama chi è in preda a emozioni talmente forti che non

riesce a controllare la voce, sono dunque gli intervalli dei gesti incontrollati

76

66 Gli intervalli di quarta eccedente o quinta diminuita sono caratterizzati dalla stessa ampiezza, tuttavia, essendo in un contesto diatonico, il loro nome cambia in base alle note che li compongono; sono due intervalli enarmonici.

e inconsueti. Per verificare il senso di pertinenza di tale intervallo, provano

a sostituirlo con quelli di quinta o quarta giusta e riscontrano che questi

gesti diventano normali e misurati. Da un punto di vista vocale

articolatorio, tale intervallo dista un semitono dalle quarte o quinte giuste,

è difficile da intonare in quanto è più di una quarta (è una quarta

aumentata) e meno di una quinta (una quinta diminuita). Da un punto di

vista strutturale tale intervallo si trova sul IV e VII grado, cioè secondari,

che per loro natura tenderanno a muoversi verso il III e il VIII, perciò è un

intervallo carico di tensione, il fulcro della settima di dominante. Questo è

un «intervallo medio che si oppone a quelli giusti, è o eccedente o

insufficiente, non comune, scorretto» (Stefani et al. 1990, 88). La sua

instabilità si riscontra anche quando, in un momento di slancio, la melodia

non giunge alla sua meta, cioè la quinta, ma si ferma prima, un semitono

sotto. Il passo successivo appare dunque come il raggiungimento della

meta prefissata, per cui, raggiungere la quinta giusta, sembra la

correzione di questo “errore” che è uno slancio insufficiente. La più

celebre espressione per definire tale intervallo è “Diabolus in musica”, che

connota una serie di caratteristiche negative quali morte male e peccato,

che gli permettono di essere usato in situazioni oscure e funeste.

L’intervallo di sesta per gli autori è l’intervallo del cuore perché

corrisponde a una voce dolce e profonda. Queste caratteristiche si

rintracciano nel parlato emotivo in Uno su mille di Gianni Morandi e

nell’affettuosa profondità di Buonanotte fiorellino di De Gregori. Tale

intervallo viene considerato dagli autori il più melodico tra tutti: è ampio ma

non eccessivo, piacevole, tenero, emotivo e gratificante. Inoltre, non

svolgendo funzioni armoniche come l’intervallo di quarta o di quinta,

sembra che la sua natura sia spiccatamente melodica, mostrandosi

dunque adatto ad investimenti simbolici quali volo e sogno. Il tema del

77

sogno si ritrova ne Il sogno d’amore di Liszt e nella disneyana I sogni son

desideri cantata da Cenerentola, nonché nell’Op. 68 di Schumann, tutti

casi in cui appare il tema del sogno e la sesta appare come l’intervallo

caratteristico della melodia. Nel celebre Libiamo dalla Traviata di

Giuseppe Verdi (1813–1901) diviene un gesto orale esclamativo di tono

euforico che sottolinea la voglia di vivere e nella pubblicità per esempio,

rappresenta il cuore di panna del cornetto Algida, nondimeno l’intimità dei

baci Perugina, e il brindisi ascoltato nella traviata viene declinato per la più

recente Coca Cola.

L’intervallo di settima è invece un grande sbalzo in alto non

conclusivo che veicola un senso di grande enfasi. Come nell’intervallo di

quarta eccedente, questo è un ampio gesto di una persona in preda a forti

emozioni incontrollabili, un gesto eccessivo. Da un punto di vista

articolatorio, la settima è un grande intervallo dissonante e difficile da

intonare, è «’qualcosa in più’ rispetto alla ‘giusta misura’ di 6a e ‘qualcosa

in meno’ rispetto alla ‘totalità’ di 8va» (Stefani et al. 1990, 99) e per sua

natura non potrà mai essere conclusivo. Appare, rispetto al movimento

armonioso dell’intervallo di sesta, come storto e scorretto, disarmonico e

squilibrato. In pubblicità tale intervallo viene utilizzato in contrapposizione

a quello di sesta come nel caso dell’amaro Averna, dove funge da

appoggiatura per la sesta: un ampio salto dissonante che crea tensione e

che si risolve sulla sesta, per poi successivamente dissiparla e produrre

un rilassamento.

L’ottava per i nostri autori (Stefani, Marconi e Ferrari 1990) è

l’intervallo potente che ci viene illustrato con l’inizio del secondo

movimento della “nona” di Beethoven: un gesto semplice e grandioso,

energico. Si ha lo stesso suono ad altezze diverse, ubiquità, ma anche

movimento tra gli estremi, andare “a tutto gas” ma senza forzare.

78

Caratteristiche di questo intervallo sono la decisione, la sicurezza, la

semplicità e la stabilità; sulla tonica si aggiunge affermazione e

conclusività. Si fa notare notare che l’ottava enfatizza il grado in cui viene

collocata, per cui se si trova su un grado che svolge una funzione ben

precisa la sottolineerà, in caso contrario assumerà una dimensione più

melodica (come ad esempio avviene su una terza o su una sesta).

L’ottava discendente è anche la stilizzazione del grido, uno sfogo

improvviso e grande, seguito da una caduta a picco che a seconda dei

casi – analizzati dagli autori nel Trovatore di Verdi, l’”opera del grido” –

può essere: i) un richiamo di attenzione se sul V grado; ii) una

proclamazione solenne, rituale, priva di emozioni se sul I grado; iii)

un’espressione carica di violenza drammatica se sul VII grado; iv)

un’intonazione ampia, ma dolce, con sfumature emotive affettuose se sul

III grado.

Ma l’ottava non è solo identità, può essere utile anche per separare:

nella canzone Love me or leave me di Donaldson, le parole “love” e

“leave” appaiono su due ottave differenti; inoltre può essere usata anche

come effetto straniante, spersonalizzazione espressiva ad esempio in

Centro di gravità permanente di Battiato in cui l’ultima sillaba della parola

“imperatori” viene alzata di un’ottava.

2.1.3. La melodia e il suo significato

Stefani e Marconi (1992), sempre in un’ottica semiotica, sviluppano il

precedente lavoro sugli intervalli musicali, tentando di rintracciare un

senso dalle melodie nel loro insieme di elementi. Se prima si è cercato il

significato di determinati tratti musicali, ora, convinti che questi possano

79

solo convergere e non essere il senso stesso della melodia, ipotizzano un

senso melodico e vi fanno coincidere una serie di tratti musicali.

Iniziamo con il tema del sogno in cui secondo gli autori esso

scaturisce da melodie la quale articolazione è fluida e legata, il movimento

è lento e la melodia si sviluppa in un ambito che supera l’ottava. Portano

ad esempio il Träumerei di Franz Schubert (1797–1828): qui si percepisce

un andare libero da regole e limiti, quasi un volo, e questo viene

certamente suggerito dall’ambito molto dilatato della melodia, si parte dal

DO centrale per arrivare in poco più di una battuta al FA di un’ottava sopra.

Per quanto riguarda il flusso ritmico Stefani e Marconi fanno notare che in

queste melodie è praticamente assente, non vi sono accentazioni

particolari, la melodia è legata e le durate sono più o meno uniformi.

Analogamente, per rappresentare il sogno, gli autori osservano che il

movimento lento viene usato anche nel cinema attraverso il ralenti.

I temi del desiderio e della tenerezza condividono con quelli del

sogno e del volo i tempi lenti, la scarsa ritmicità e i movimenti legati. Due

caratteristiche appaiono salienti per gli autori: cromatismi e appoggiatura.

Il cromatismo, come precedentemente spiegato, è il “suono di mezzo”, è il

fuori tonalità che conferisce alla melodia un carattere languido e

sentimentale, mentre l’appoggiatura è una nota estranea all’armonia67 che

sta sul tempo forte e che si “appoggia”, cioè risolve, nel tempo debole su

una nota che fa parte dell’accordo. Questi due tratti si trovano ad agire

insieme nel motivo conduttore del film Cenerentola di Walt Disney in cui

compare un’appoggiatura cromatica. L’appoggiatura, in quanto ritardo,

provoca un piacere differito, dunque un desiderio, e appare anche come

80

67 Distinguiamo che, in un contesto tonale, una nota “fuori tonalità” non fa parte del sistema diatonico di sette note, mentre una nota che “non fa parte dell’armonia” è semplicemente estranea all’accordo che viene suonato in quel momento e può essere sia diatonica che cromatica.

un’amplificazione melodica, un’enfasi, che gli autori vedono come

traduzione di una pressione emotiva, affettiva, e che richiama il ritardando

del comportamento orale della voce tenera desiderante (Fonagy 1981,

1983). Il cromatismo, allo stesso modo, dilata e rallenta il movimento

accentuando l’emotività. Sempre in questo brano disneyano si osserva

che, a seguito di questa appoggiatura cromatica, compare un salto di un

intervallo di sesta, quello che come abbiamo visto sopra appare essere

l’intervallo “del cuore” (Stefani et al. 1990) e non a caso il testo in queste

quattro battute recita: «A wish is a dream your heart makes».

Con la melodia è possibile veicolare un effetto di senso di un

qualcosa di super, come super-uomini, super-eventi o una super-music

attraverso l’uso di intervalli di quarta, quinta e ottava e marcando gli

accenti ritmici. Tutti questi tratti convergono nel motivo conduttore del film

Star Wars che si apre con una terzina di RE in anacrusi e due minime sulla

nuova battuta rispettivamente SOL e RE un’ottava sopra. Tali intervalli in

questi contesti esprimono due effetti di senso: il primo riguarda gli intervalli

presi per sé stessi cosicché quarta e quinta appaiono come mossa sicura

e decisa e l’ottava come affermatività e totalità; il secondo significato è di

carattere spaziale e riguarda la conquista di grandi spazi in poco tempo,

una grande impresa dunque, condotta da grandi uomini. La scansione

ritmica è ben marcata e pulsante, non vi sono sincopi, sono passi sicuri e

ben scanditi, non vi sono incertezze, le terzine non fanno altro che

marcare il flusso ritmico venendo a creare un senso di solidità e stabilità.

Gli autori vedono in questo tipo di melodie un fare diametralmente opposto

a quelle che abbiamo visto riguardare i sogni, i desideri e la tenerezza; le

caratteristiche musicali dei “super-uomini” riguardano il pensiero e l’azione

piuttosto che la melodia e il sentimento, inoltre, gli intervalli di quarta,

quinta e ottava sono funzionali anziché melodici, i “super-uomini” devono

81

agire e non perdere tempo a sognare. Spesso in queste melodie non vi

sono nemmeno sfumature espressive, nemmeno crescendo o diminuendo

e dal punto di vista ritmico si rintraccia che questi accenti così marcati

corrispondono ad impulsi di energia: i nostri super-uomini non hanno

momenti di debolezza.

Specie nella musica cantautoriale, Stefani e Marconi (1992)

individuano che la melodia serve principalmente a supportare un testo che

è la parte fondamentale della canzone il cui scopo è raccontare qualcosa.

Queste melodie sono caratterizzate da una scarsa melodicità, ma

soprattutto da un’altezza melodica ed intensità relativamente costanti. A

spiegare questo fatto gli autori richiamano una situazione molto comune:

gli annunci, come quelli che si possono ascoltare in stazione, devono

essere privi di inflessioni d’altezza e variazioni di intensità al fine di

convogliare l’attenzione direttamente sul messaggio (Fonagy 1981, 1983).

Allo stesso modo i cantautori utilizzano la musica per accompagnarsi e

preferiscono risparmiare sulla melodicità al fine di porre l’attenzione sulle

parole. Questo genere di melodia vocale appartiene a una tradizione

musicale prettamente orale come è appunto quella dei cantautori, ma la

ritroviamo anche in generi come rap o heavy metal, dove nel primo caso si

invita a focalizzarsi sul testo, nel secondo sull’arrangiamento. Queste

musiche “parlate” si rintracciano fin dai tempi in cui i cantastorie dovevano

raccontare le loro storie senza l’ausilio di microfoni o amplificatori, e

quando da supporto mnemonico non era stata ancora inventata la scrittura

musicale: la linea melodica doveva essere perciò il più lineare possibile

per essere sia compresa a distanza che facile da ricordare per il

cantastorie. Un comportamento analogo si trova nel repertorio liturgico

gregoriano, anch’esso quasi esclusivamente orale, in cui a seguito di

82

un’intonazione la voce si stabilizza su una sola nota, il tenor, per poi

discendere, analogamente all’intonazione, nella cadenza (Stefani 1982).

Una melodia può portare con sé anche il significato di un

determinato periodo storico; non è necessario un musicologo per

distinguere un canto gregoriano da una canzone pop, ogni melodia perciò

può veicolare significati abbastanza stereotipati di luogo e tempo. Da un

punto di vista armonico per esempio, la successione dei gradi I-IV-V in

dominante connoteranno il significato di blues, come una melodia in ritmo

binario con ritmo sincopato denoterà quello di tango, una melodia che si

apre salendo e prosegue per un determinato tempo sulla stessa nota per

poi discendere, verrà associata a un periodo storico remoto, così come le

sincopi che caratterizzano la musica dell’ars nova del Trecento francese.

Stefani e Marconi presentano il caso della melodia della Lambada come

un racconto passionale, nostalgico e lontano dove la lontananza viene

suggerita dalla condotta modale – il regime musicale che in occidente ha

regnato dai greci fino sistema tonale –, la nostalgia viene rintracciata nella

progressione discendente e la passione nell’uso di intervalli di sesta e

settima sia ascendenti che discendenti. La melodia viene descritta anche

in termini di “racconto” in quanto la melodia si muove per gradi congiunti in

un andamento ritmico sillabico che conferisce appunto il senso di arcaica

intonazione recitativa che si può ascoltare ne La canzone di Marinella di

De André.

83

2.1.4. La strumentazione e il suo significato

Dal punto di vista della fisica del suono, il timbro dipende dalla

combinazione dei diversi suoni parziali che formano l’onda complessa

prodotta dallo strumento musicale, così, i timbri degli strumenti musicali

differiscono grazie alla diversa combinazione delle componenti armoniche

del suono. Cogan e Escot (1976) analizzano attraverso lo spettrogramma i

timbri di vari strumenti e arrivano a stilare una lista degli effetti che le

componenti spettrali del suono hanno sul timbro. Cosicché secondo gli

autori, il secondo parziale aggiungerebbe chiarezza e brillantezza, il terzo

una certa qualità nasale, il quarto stridore e il quinto darebbe un suono

simile al corno.

Fino al XVII secolo, il tipo di strumentazione da utilizzare per

eseguire una partitura non veniva, salvo pochi casi, nemmeno

menzionato, non aveva importanza, in altre parole, una fuga di Bach

poteva venire eseguita sia al clavicembalo che all’organo o al liuto.

Tuttavia noi riteniamo che nel nostro lavoro un piccolo spazio debba

essere dedicato anche alla strumentazione che si sceglie per orchestrare

una musica. Il compositore russo Rimsky-Korsakoff, insegnante di

orchestrazione tra i tanti di Prokofiev e Mussorgsky, elabora un trattato di

orchestrazione adottato da intere generazioni di studenti in tutto

l’occidente e ancora in uso presso i conservatori, in cui, oltre a dare

indicazioni su come orchestrare le singole voci dell’armonia, elenca una

serie di caratteristiche timbriche dei vari strumenti che si utilizzano in

orchestra e che ora, a titolo esemplificativo, in parte riproponiamo. Lo

stesso autore sottolinea che quelle che lui elenca sono esclusivamente

impressioni personali prive di qualsiasi validità scientifica o metodologica e

rammenta in ogni modo, che è compito assai arduo definire con le parole

84

qualcosa come il “timbro” che tocca solamente il senso dell’udito e per far

ciò ci si deve aiutare con termini mutuati da tutti i sensi.

Rimsky-Korsakoff (1891) inizia la sua trattazione partendo dalla

sezione degli archi, più precisamente dal carattere delle singole corde: le

corde più acute hanno nel violino carattere brillante, nella viola sono

mordenti e nasali, mentre la corda più acuta del violoncello possiede una

certa “voce di petto”. Le due corde centrali sono dolci e delicate nel

violino, mentre la più bassa risulta piuttosto stridente e dal suono

leggermente smorzato. L’autore sconsiglia di usare le corde a vuoto se

non per creare effetti particolari in quanto, se non premute, perdono calore

e nobiltà di suono: benché posseggano un suono più chiaro e potente

risultano decisamente meno espressive di quelle premute. Gli armonici

alterano il timbro degli archi in maniera considerevole, risultano freddi e

trasparenti nei passaggi delicati, gelidi e brillanti in quelli in forte. Anche la

posizione dell’archetto incide sul suono, suonare sul ponte dà un suono

metallico, sulla tastiera si ottiene un effetto flautato, velato.

Nella sezione dei legni si rintraccia che il flauto è freddo nella qualità

del suono, è adatto più alle tonalità maggiori che a quelle minori; nelle

prime è indicato per melodie dal carattere allegro e aggraziato, nelle

seconde per melodie tristi, inoltre nel registro basso è freddo e monotono,

mentre in quello alto brillante. L’oboe è allegro, goffo, ingenuo e gaio nelle

tonalità maggiori, triste, patetico e poetico in quelle minori, agitato nel

registro basso e aspro e preciso in quello alto. Il clarinetto nelle tonalità

maggiori viene indicato per melodie allegre e contemplative perché è

plastico ed espressivo, in quelle minori viene scelto per brani appassionati

e drammatici in quanto è indicato per melodie tristi o riflessive. Nel registro

basso è squillante e minaccioso, in quello alto penetrante. Il fagotto nelle

tonalità maggiori è ironico e suggerisce un’atmosfera di allegria, in quelle

85

minori è triste e di sconforto, inoltre nei registri bassi è sinistro, in quelli alti

teso.

In generale, nella sezione degli ottoni, tanto più si tocca il registro

acuto dello strumento tanto più appare brillante, se i piano sono dolci, i

fortissimo sono deflagranti. Le trombe in SIb e la sono incisive e brillanti

nei passaggi in forte, mentre in quelli in piano le note acute sono

argentine, nel registro grave risultano allarmanti e presagenti una

situazione di pericolo. Le cornette sono molto simili alle trombe, ma più

dolci e sensibili. I corni in FA sono strumenti dolci e poetici, nel registro

grave sono cupi e brillanti mentre in quello acuto sono rotondi e pieni. Il

trombone è scuro e minaccioso nel registro grave, brillante e trionfale in

quello acuto. In merito alla sordina l’autore suggerisce che se adoperata

negli ottoni produce un effetto di distanza, tuttavia sacrificando il suono

argentino che contraddistingue tale sezione.

Le impressioni di Rimsky-Korsakoff qui delineate, non devono essere

prese come un trattato sul significato timbrico degli strumenti musicali,

piuttosto come un consiglio da parte dello stesso autore che si eleva, a

ragion della sua esperienza, a fonte senza alcun dubbio autorevole.

Consiglia pertanto al compositore di tenere conto dei suoi consigli e di

agire di conseguenza, ma senza per forza vincolarsi a quanto viene

consigliato:

vi sono quindi anche momenti in cui il sentimento artistico di un compositore gli suggerisce di impiegare strumenti il cui carattere è in contrasto con la melodia, al fine di ottenere effetti grotteschi, eccentrici ecc. (Rimsky-Korsakoff 1891, 25).

86

2.1.5. Musica come espressione

Kivy (1989) osserva che quando si chiede a delle persone di

descrivere un brano musicale queste rispondono “questa musica è…”

aggiungendo nomi di emozioni come può essere ad esempio “questa

musica è triste”. Come ha fatto notare Tormey (1971) un’opera d’arte non

esprime un’emozione, piuttosto è espressione di un’emozione: ad

esempio la dinamica, l’armonia e la melodia di Pavane pour une infante

défunte di Maurice Ravel (1875–1937) non sono i criteri per sostenere che

il brano trasmette tenerezza, piuttosto sono i costituenti di tale tenerezza.

Luca Marconi (2001a) chiarisce questo caso con l’esempio del muso del

San Bernardo che è espressivo della tristezza perché alcuni suoi “tratti”

assomigliano a quelli delle espressioni emotive umane della tristezza.

Chiarisce ulteriormente con un esempio tratto dal Lamento di Arianna di

Monteverdi: il brano è espressivo di una certa emozione perché alcune

caratteristiche in esso contenute sono strutturalmente simili a quelle della

nostra voce. Ascoltando un brano quindi non si percepirebbe l’emozione

espressa dell’emittente, ma un qualcosa di simile a ciò che si percepisce

di fronte a chi esprime tale emozione. Questo, anche per il fatto che di

fronte a un’immagine ambigua l’uomo tende a percepire volti o

configurazioni di esseri animati piuttosto che inanimati; Heinz Werner

parla di percezione fisiognomica: «gli oggetti sono sperimentati soprattutto

attraverso l’atteggiamento affettivo e motorio del soggetto» (Werner 1970,

71).

Si può parlare a tal riguardo di “proiezione metaforica” (Johnson

1987). Se volessimo descrivere il concetto di equilibrio, ad esempio, lo

faremmo partendo dall’esperienza personale con il nostro corpo e cioè

penseremo a mantenerci in una postura eretta e ben bilanciata,

87

caratteristiche che definiscono lo schema di equilibrio. Applicando lo

schema “equilibrio” a una persona, o meglio alla sua personalità,

riconosceremmo in questa certamente la dimensione della simmetria,

presente anche in quella di equilibrio: questa persona possiede delle

caratteristiche tra loro simmetriche e bilanciate. Seguendo Johnson,

Aksnes (1998) applica lo schema equilibrio in ambito musicale a seguito

dell’affermazione del musicologo Jeppesen (1956) il quale sostiene che

gran parte delle melodie di Palestrina (c. 1525–1594) sono ben

equilibrate. Questo equilibrio secondo il musicologo – che prende in

esame l’incipit del primo Agnus Dei della Missa papae Marcelli – è dato

dal fatto che rispetto a un ipotetico punto centrale le parti acute e quelle

gravi sono più o meno equidistanti, egli dunque vede la simmetria.

Aggiunge Marconi (2001a) che all’attivazione dello schema equilibrio

durante l’ascolto del brano di Palestrina contribuisce la percezione cinetica

secondo la quale dopo un grande intervallo, percepibile cineticamente

come grande salto, seguono dei passaggi per gradi congiunti, percepibili

come piccoli passi, «dopo un grande salto, se si cerca di continuare,

senza interruzione, con altri salti, ci si può sbilanciare fino a

cadere» (Marconi 2001a, 28). Vista l’importanza della musica negli stadi

prenatali, Stefani e Guerra Lisi (1999) suggeriscono che la base corporea

di questi schemi può essere rintracciata in «un corpo, prenatale, che

dall’inconscio ci invia i suoi messaggi archetipici (Stefani e Guerra Lisi

1999, 43).

Marconi ci fa notare che nell’enunciato “questa musica è triste” oltre

a una proiezione metaforica assistiamo a un processo metonimico in cui il

prodotto sostituisce il produttore: quello che le persone vogliono dire in

realtà è “questa musica è un’espressione di una persona triste”. Ma su

che basi? Marconi ipotizza che una musica a cui viene associata

88

un’emozione in realtà è l’imitazione dell’espressione vocale di tale

emozione. Benché l’imitazione delle intonazioni vocali non contribuisca a

creare il “bello musicale”, secondo Hanslick,

chi è in preda alla passione sale con la voce, mentre la voce di chi va calmandosi discende; le frasi che hanno un peso particolare vengono pronunciate lentamente, mentre cose secondarie e indifferenti si dicono rapidamente: questi e simili, sono fatti dei quali il compositore di musica vocale, specialmente se drammatica, non può non tener conto (Hanslick 1854, 69).

Dunque ritorna ancora un pensiero di una musica che imita le

espressioni vocali.

Infatti, Fònagy e Magdics (1972) dimostrano che nella musica tonale

le emozioni vengono espresse attraverso caratteristiche melodiche simili a

quelle del parlato, mentre Rudzinski (1993) osserva che l’inflessione

emozionale influisce sensibilmente sul flusso ritmico rendendolo poco

regolare. Imberty (1986) decide allora di verificare l’ipotesi dell’influenza

sulla musica delle inflessioni vocali attraverso un esperimento: a dei

soggetti vengono fatte ascoltare parole cantate con diversi profili intonativi

– ascendente, discendente e sinuoso – e diversi accompagnamenti

armonici – dominante-tonica e due accordi di settima diminuita.

Successivamente è stata fornita una lista di otto parole – affermazione,

contentezza-gioia, interrogazione, esclamazione, inquietudine, sorpresa,

rassegnazione, semplice constatazione – su cui andava scelta la parola

più appropriata al tipo di stimolo ricevuto. Imberty trova che le parole

scelte dalla lista corrispondono al significato base dei profili intonativi e

successivamente che l’armonia può rafforzare o sfumare il significato

base.

89

Un caso particolare di espressione del suono viene rintracciato nella

capacità di essere associato ad altri canali sensoriali come nel caso della

sinestesia, che è appunto un’associazione cross-modale. In musica,

sembra che solo i possessori dell’orecchio assoluto siano in grado di

associare colori a determinate note musicali (Ward 1999). Tra le persone

“comuni” non sembra esserci alcuna correlazione tra colori e frequenze,

infatti, la sinestesia, è un processo che avviene in una sfera individuale e

che varia da caso a caso. In uno, tuttavia, sembra esserci una certa

correlazione tra altezza tonale e chiarezza di colore (Simpson et al. 1956):

995 bambini associano suoni acuti a colori chiari (giallo) e suoni gravi a

colori scuri (blu e violetto). Per mezzo dell’effetto Stroop68 associato a dei

“suoni colorati”, Ward e collaboratori (2006) dimostrano che le persone

sinestesiche si comportano analogamente a quelle normali, mostrando

tempi di risposta maggiori per “colori” visivi e uditivi incongruenti, inoltre,

se sembrano confermate le associazioni dove il colore chiaro sta a un

suono acuto come un colore scuro sta a un suono grave, sembrano anche

confermate certe ricorrenze, all’interno dei sinestesici, tra i “suoni colorati”.

I suoni, inoltre, elicitano sensazioni tattili come ad esempio suoni acuti si

associano a impressioni di freddo, mentre quelli bassi a impressioni di

caldo (Antonietti 2006). Sempre in ambito tattile, si può facilmente

comprendere come il timbro del violino, nella sua “grana”, venga percepito

più liscio di quello ruvido del fagotto.

90

68 L’effetto Stroop (Stroop 1935) consiste nel presentare il nome di un colore (ad esempio “rosso”) stampato con un colore differente da quello nominato (ad esempio in blu). I soggetti devono indicare il colore con cui è stampata la parola rappresentata. Se vi è incongruenza tra il significato della scritta e il colore di stampa, i tempi di risposta risultano più lunghi.

2.1.5.2. Espressioni vocali

Le affinità sopra accennate tra la musica e il linguaggio ci portano a

commentare brevemente alcuni illustri personaggi che si sono occupati del

rapporto tra musica e “verbo”. Darwin ipotizza che la musica si sia

sviluppata dalle vocalizzazioni dei primati sub-umani e che il suo potere

affettivo provenga dal suo uso nei processi di selezione del partner con cui

riprodursi (Darwin 1871)69. Rousseau, nel suo saggio sull’origine del

linguaggio, ritiene che l’origine della musica sia da rintracciare

nell’imitazione dell’armonia come fenomeno naturale nella sua primordiale

complicità col linguaggio, ma non da un punto di vista grammaticale,

piuttosto nei suoi aspetti emozionali. La parola, secondo lui, è nata

dall’amore, dall’odio, dalla pietà e dalla collera, le prime lingue perciò

furono canti e voci appassionate prima d’essere discorsi semplici e

metodici. Ci appare sempre più valida la tesi che la musica sia imitazione

di qualcosa, in questo caso di espressioni vocali.

In Marconi (2001a) si trova un’ampia analisi di frammenti musicali

messi in rapporto alle espressioni vocali di determinati stati d’animo, cioè

si ricerca il modo in cui una musica proietta lo schema di un’espressione

vocale di un’emozione. Quando si è in preda a uno stato emozionale la

prosodia vocale subisce un’alterazione: quando si è tristi, ad esempio, si

tende a parlare a bassa voce senza eccessivi sbalzi di intonazione a una

velocità piuttosto bassa. Riassumiamo alcune delle espressioni vocali

rintracciate da Marconi.

91

69 La tesi di Darwin viene confutata da Sloboda (1985), in primo luogo perché le vocalizzazioni dei primati appaiono involontarie, mentre la musica è un atto volontario, in secondo luogo perché non sembrano avere un’organizzazione interna come può essere quella della musica nell’uomo.

L’espressione vocale della tristezza si riconosce in musica quando il

registro è piuttosto basso, con poche variazioni di altezza, con intervalli

piccoli e un profilo leggermente discendente. L’intensità è limitata e tende

a scendere così come vi si ritrova un’ampio uso di pause. Come abbiamo

visto sopra, a un grande intervallo corrispondono grandi spazi e grandi

sforzi, l’autore allora ipotizza che in un simile stato emozionale non ci sia

tanta energia da spendere, o forse è già stata tutta spesa, quindi la voce

singhiozza e si mantiene bassa, sia di tono che di intensità, e via via perde

forza. Diversamente, all’espressione vocale della gioia corrispondono in

musica grandi intervalli in profili melodici ascendenti, spesso la velocità è

sostenuta e l’intensità alta a cui si aggiunge un ampio uso di suoni

accentati con frequenza non regolare. Nella gioia si hanno tante energie

da spendere.

Un profilo melodico curvo, lineare e regolare corrisponderà

all’espressione vocale della tenerezza. Questa emozione si rappresenta in

musica con intensità e velocità misurate, dove le frasi musicali

corrispondono al tempo che solitamente intercorre tra una presa di fiato e

un’altra, l’articolazione è chiara, fluida e precisa. Si preferisce la

consonanza alla dissonanza.

La collera viene rappresentata dalla ripetizione di una stessa altezza

con improvvisi salti verso note molto acute a cui seguono cadute

simmetriche verso il punto di partenza, quindi un profilo melodico

spigoloso. Intensità e velocità sono generalmente elevate, con un

andamento metrico rigido in cui le pause sono brevi e limitate. Lo scatto di

rabbia invece coincide, il più delle volte, con un improvviso accento

vigoroso verso l’alto per rientrare successivamente al livello base.

Allo stesso modo del trattato di Johann Mattheson, in cui le passioni

venivano raggruppate in semplici o complesse a seconda che siano

92

singole o composte, Marconi (2001a) suddivide le espressioni vocali

individuate da Scherer (1986). In quella che Scherer chiama “voce stretta”,

ossia una costrizione muscolare in seguito a stimoli spiacevoli, Marconi

ritrova che in musica a tale espressione corrisponde una piccola discesa

continua sia sul piano dell’intonazione che in quello della dinamica. Per la

“voce tesa”, cioè quando vi è uno stimolo disatteso, i suoni sono acuti,

molto forti e vengono ripetuti a lungo. All’opposto della voce tesa, Scherer

individua la “voce lassa”, cioè l’espressione di uno stato in cui ci si trova

fuori dal controllo del proprio organismo. Marconi riconosce che questa

espressione viene rappresentata in musica attraverso suoni deboli e bassi

di registro. L’ultimo caso che trattiamo è “la voce rotta dall’emozione”,

quando ad esempio il pianto o la respirazione improvvisa interrompe il

flusso articolatorio; in musicatale espressione viene rappresentata

attraverso l’uso ripetuto di pause.

2.1.6. Musica e movimento

Il suono, possiede in sé il movimento, «implica necessariamente, per

propria natura, uno spostamento anche minimo, un’azione» (Chion 2001,

16), senza movimento non vi è suono. Un’onda possiede per sua natura

energia cinetica, è spostamento d’aria. L’idea del movimento ci viene

anche da un termine tecnico dell’informatica musicale, più precisamente

dal protocollo MIDI70: il termine velocity indica la velocità con cui il tasto

della tastiera viene pigiato dove la dinamica è proporzionale alla velocità

con cui il tasto viene premuto. Quindi ancora movimento, sia nella natura

del suono che nell’esecuzione.

93

70 Acronimo di musical instrument digital interface, un’interfaccia digitale standardizzata per interconnettere strumenti musicali e computer.

Non solo il suono, ma anche la musica è naturalmente collegata al

movimento, più precisamente quello corporeo, tanto che in molte culture

non esistono termini che separino il concetto di musica da quello di danza

(Luccio 1993). Per fare un esempio sulla relazione tra musica e

movimento, gli uccelli hanno sviluppato la capacità melodica sacrificando

quella ritmica, questo perché il loro canto è svincolato dal movimento.

Diversamente negli uomini, il ritmo è molto sviluppato soprattutto grazie al

fatto che la musica è legata al movimento, sia nel momento in cui viene

prodotta quindi nel suonare, sia nel momento in cui viene fruita quindi

nella danza (Von Balthasar 1925). La musica quindi, o più precisamente il

ritmo, si basa sull’alternanza del gesto come ad esempio il succedersi dei

passi nel camminare o le due fasi della respirazione (Antonietti 2006).

La relazione tra musica e movimento è rintracciabile anche nel

modello neurocognitivo della percezione musicale proposto da Koelsch e

Siebel (2005) dove appare un’interazione, e quindi una sovrapposizione di

attività neuronale, tra gli ultimi stadi della percezione e i primi stadi

dell’azione, come ad esempio la funzione premotoria in relazione alla

pianificazione dell’azione (che avviene principalmente tra i musicisti).

Il suono è ovviamente anche spazio. In uno studio si riscontra che la

rappresentazione mentale delle note musicale, analogamente a quanto

avviene per i numeri, avverrebbe lungo una dimensione orizzontale che va

da sinistra per i suoni gravi a destra per i suoni acuti (Rusconi et al. 2005).

Tuttavia l’idea di Meidner (1985) è quella che ci soddisfa maggiormente:

l’ascoltatore crea uno spazio virtuale bidimensionale nel quale colloca le

altezze sull’asse verticale e le relazioni temporali sull’asse orizzontale: due

suoni dello stesso timbro ma di diversa altezza tonale vengono percepiti

come lo stesso suono che si sposta da un punto all’altro. Questo

fenomeno percettivo viene spiegato in ambito visivo da Wertheimer (1923)

94

71, e successivamente ripreso da Diana Deutsch in una teoria più ampia e

che suddivide i fenomeni percettivi di basso livello (Deutsch 1999a) da

quelli di alto livello (Deutsch 1999b).

Delalande e collaboratori (1982) analizzano le produzioni sonore dei

bambini mentre giocano con oggetti inanimati. Hanno notato che i “brrrr”,

“vrrrr” e “bsccc” che questi emettono svolgono la funzione di sonorizzare e

punteggiare a livello sonoro ciò che avviene a livello cinetico secondo un

simbolismo meccanico e cinematico (Chion 2001). Ad esempio, quando

un bambino fa rallentare la macchinina giocattolo contemporaneamente

produce un suono in glissando discendente: intuitivamente i bambini

sonorizzano il movimento più che il rumore proveniente dall’oggetto. Ci

appare interessante l’analogia con i madrigali visivi visti sopra, in quanto la

somiglianza non avviene su un piano strettamente sonoro, quanto sulla

sua rappresentazione; ci sembra quindi che un certo grado di astrazione

sia presente fin dalla tenera età e ipotizziamo che sia un processo

piuttosto naturale. Un procedimento naturale ed intuitivo, usato da molti

compositori che si sono cimentati nella sonorizzazione musicale nel

cinema.

95

71 Esempi di principi di raggruppamento percettivo: secondo il principio di vicinanza si tende a unire figure che sono vicine; secondo il principio di somiglianza le figure uguali o simili vengono raggruppate in uno stesso gruppo; il principio di continuità o di buona forma tende a unire elementi che sembrano avere la stessa direzione; secondo il principio del destino comune si tende a raggruppare elementi che cambiano nello stesso modo; inoltre, secondo il principio di familiarità tendiamo a mettere insieme figure dal significato noto, rispetto a quelle che non conosciamo; il principio di chiusura tende a unire bordi vicini l’un l’altro.

2.1.6.1. Il mickey-mousing

Il termine mickey-mousing viene coniato dal regista russo Sergej

Ejženštejn a seguito della sua ammirazione per Walt Disney per designare

la perfetta sincronia tra immagini e musica (Cooke 2001). Con parole di

Chion, il mickey-mousing è

il tipico procedimento di accoppiamento musica/immagine […] che consiste nel seguire in sincrono il filo dell’azione visiva tramite traiettorie musicali (tratti ascendenti e discendenti come montagne russe) e punteggiature strumentali dell’azione (colpi, cadute, porte che si chiudono) ecc (Chion 2001, 105).

Consiste nel dare spessore di realtà attraverso un commento

musicale nel quale la musica “mima” ogni piccola cosa come nei primi film

appunto di Topolino di Walt Disney (Davis 1999). Della stessa idea appare

anche Simeon (1995) precisando che «la tecnica del mickey-mousing

prende veramente in considerazione più i movimenti delle figure in sé che

non il loro referente» (Simeon 1995, 63). A differenza del leitmotiv, che

associa un tema alla psicologia di un personaggio, la tecnica del mickey-

mousing è molto più legata alla dimensione fisica: analogamente a quanto

abbiamo visto riguardo alla fisiognomica in Marconi (2001a), questa

tecnica associa suoni a immagini in movimento, mima attraverso la

musica (cioè suoni discreti e organizzati) il suono che certe azioni o

movimenti possono produrre.

I compositori che hanno definito tale genere e che sono rimasti tra i

più importanti sono Scott Bradley (1891-1977), l’autore della maggior

parte delle musiche di Tom and Jerry, e Carl Stalling (1891-1972) della

Warner Bros. Non è facile rapportarsi a questo tipo di musica che

comporta alcune difficoltà: le azioni compiute dai personaggi sono

96

irregolari in termini di battiti al minuto, è necessario creare una linea

melodica distesa lungo tutta la sequenza ed è inoltre necessario che i

“colpi” vengano inseriti nell’accompagnamento. La musica è un tappeto

costante e non smette mai, il problema per chi scrive questi commenti non

è quando farla partire o quando farla smettere, piuttosto quale azione si

deve enfatizzare e come; in merito, Richard Stone (in Davis 1999) afferma

che bisogna cercare di stare il più possibile sincronizzati con il maggior

numero di eventi. Questi eventi ormai sono ben codificati ed anzi,

corrispondono a cliché: una camminata di un personaggio sarà musicata

da fagotti e violoncelli in pizzicato, un macigno che cade da un glissando

di piano e ad ogni battito di ciglia corrisponderà un colpo di xilofono.

Un esempio di mickey-mousing su musica preesistente lo offre

Charlie Chaplin nel film Il grande dittatore nella sequenza in cui il giovane

barbiere rade un cliente danzando sulla celebre Danza ungherese n.5 di

Brahms (1833-1897). Un altro esempio, questa volta di musica arrangiata

in post produzione, è il caso della serie televisiva degli anni sessanta

Batman, in cui nei combattimenti ad ogni pugno corrispondeva uno

“strappato” di ottoni o un suono di campana. Un altro esempio lo troviamo

nell’arrangiamento della Rapsodia ungherese n.2 di Liszt per la pellicola

The cat concerto, del 1946, in cui si vedono Tom e Jerry, eterni rivali,

rincorrersi a ritmo di musica.

Un caso del tutto particolare, perché a metà via tra mimo e leitmotiv,

è presente nel film Il traditore di John Ford, del 1935, musicato da Max

Steiner (1888-1971). Gypo è un uomo rozzo che consegna alla polizia il

suo amico Frankie per ricevere una ricompensa; a seguito di questa si

ritrova in un bar a ordinare un whiskey per dimenticare (Chion 2001, 48).

Mentre Gypo beve si ascolta una scala discendente di cinque note che

rappresentano il bicchiere che si sta svuotando, ma a ben vedere queste

97

note sono le prime cinque del tema di Gypo, alle quali segue la

stilizzazione musicale delle monete che cadono, che per tutto il film verrà

ripreso come il tema del tradimento. Dunque ci sembra che Steiner abbia

voluto sì imitare e quindi stilizzare in sincrono ciò che si vede sullo

schermo, ma è anche vero che questi frammenti musicali portano

all’interno del film significati psicologici da associare ai personaggi.

Esattamente agli antipodi del mickey-mousing troviamo l’a-

sincronismo del poeta regista Cocteau sulle musiche del compositore

George Auric (1899-1983) al quale si chiedeva, secondo la normale

prassi, di scrivere le partiture per determinate scene del film. Tuttavia

Coucteau, molto legato alla poetica del surrealismo, era solito modificare

la sequenza delle parti musicali stravolgendo completamente

l’accostamento originale pensato dal compositore (Simeon 1995). Il

compositore ciò nonostante accettava di buon grado l’operare del regista

in quanto oppositore accanito del mickey-mousing:

sottolineare in maniera diretta tutto quello che presenta lo schermo è un errore. Se si vede qualcuno salire le scale niente è più stupido che voler accompagnare ogni passo, ogni movimento con un rumore qualsiasi in orchestra (Auric 1978, 67).

2.1.7. Tipologia di segni musicali

Proponiamo qui di seguito la classificazione delle tipologie di segni

musicali proposta da Philipp Tagg in un convegno tenuto all’Università

degli Studi di Trento nel 1990. Il suo approccio alla musica è di tipo

semiotico, le strutture musicali per lui sono una sorta di sistema simbolico

costruito culturalmente, per questo motivo l’analisi musicale non può

secondo lui prescindere da un’analisi sociale. Propone l’unione

98

dell’approccio musicologico con quello semiotico: è necessario

considerare il significato sociale in quanto la relazione tra le strutture

musicali e le formazioni sociali è molto stretta. È impossibile, secondo

l’autore, parlare di strutture musicali senza definirle attraverso il loro valore

pragmatico come percezione simbolica, perciò propone una tipologia di

segni musicali che include l’anafonia, la sineddoche di genere, il

marcatore di episodi e l’indicatore di stile (Tagg 1990).

2.1.7.1. Anafonie

Nell’anafonia (anaphone) si trova l’imitazione di un modello esistente

che può essere sonoro, cinetico o tattile, e in base a queste caratteristiche

Tagg crea tre tipi di anafonie. L’anafonia sonora è la stilizzazione

onomatopeica di suoni non musicali come ad esempio lo scorrere del

ruscello di Schubert, il tuono nella Pastorale di Beethoven o il B52 di Jimi

Hendrix (1942-1970). Come fa notare Rosing (1977), in quanto questi

esempi presentano una stilizzazione vi è una bassissima relazione

acustica tra i due suoni (quello imitato reale e quello che imita musicale),

questa relazione è basata semplicemente su una convenzione culturale.

Lo stesso si può dire per i suoni che hanno a che fare con la relazione tra

il corpo umano e lo spazio ed il tempo, che rientrano in quelle anafonie

che Tagg chiama cinetiche come ad esempio il cavalcare e il camminare,

movimenti che vengono stilizzati nella marcia o nel galoppo (nomi peraltro

inclusi nel vocabolario musicale). Questa relazione con lo spazio ed il

tempo può esistere anche con gli animali (vedi il volo del calabrone o uno

sciame di locuste) e oggetti (ancora il B52 o il treno), nonché movimenti

soggettivi o impressioni (come le onde del mare). Analogamente si

comportano le anafonie tattili e a tale proposito Tagg porta l’esempio del

99

tappeto d’archi tanto usato nelle scene d’amore a Hollywood che, grazie

alle proprie caratteristiche sonore (attacco e coda lenti, spesso molto

riverberati), produce un effetto di omogeneità, spessore e ricchezza i quali

tradotti in una sinestesia tattile scaturiscono il senso di lusso, comfort e

levigatezza.

2.1.7.2. Sineddoche di genere

Nel linguaggio verbale la sineddoche è una parte che sostituisce il

tutto. Per Tagg la sineddoche di genere è un set di strutture musicali

ritenute caratteristiche di un dato stile musicale e che vengono inserite in

un altro stile musicale. Continua con un esempio musicale tratto dalla

celebre scena della doccia dal film Psycho (1960) scritta da Bernard

Herrmann (1911-1975): ascoltando questo frammento alla radio, cioè

slegato dalle immagini, viene associato più facilmente, per via delle sue

caratteristiche strutturali, a un pezzo di Penderecki (1933-) piuttosto che a

uno degli Abba o a Brian Adams, denotando con sé il significato di

“composizione moderna atonale” e connotando quelli di “difficoltà”,

“problemi seri”, “angoscia”72. Molto simile all’anafonia anche la sineddoche

di genere connota un campo semantico esterno alla musica, ma questo

non avviene attraverso una diretta omologia sinestetica o strutturale, ma

avviene attraverso la mediazione di uno stile musicale.

La sineddoche di genere contiene due stadi di referenza: un primo

che va da quei pochi elementi di uno stile alla totalità dello stile, un

secondo che va da questo stile in toto verso la cultura alla quale

100

72 Come fanno notare Owings e Morton (1998), le caratteristiche acustiche dei suoni ripetuti sulle note alte – come quelli che commentano la celebre scena di Psycho – sono molto simili al suono prodotto dagli animali in stati di intensa paura e aggressività, per cui non vi è solo una sineddoche di genere, ma vi si ritrova anche un’anafonia sonora.

appartiene. Per fare un esempio un riff di chitarra con distorsione molto

esagerata può richiamare sia il genere Heavy Metal, che la cultura

giovanile che fruisce tale genere musicale.

2.1.7.3. Marcatori di episodi e indicatori di stile

Si farà qualche accenno ai marcatori di episodi e agli indicatori di

stile che, ai fini della nostra discussione, non riteniamo interessanti. I

marcatori di episodi sono dei frammenti corti, il quale significato ha un

analogo linguistico in “dopo di ciò, “dopo un lungo tempo”, “sta per

accadere”, “condurre a”, sono dei “connettori musicali”, che ci conducono

a un nuovo materiale linguistico come nel caso dell’inizio del ritornello di

Fernando degli Abba: sei ottavi in anacrusi che puntano “a qualcos’altro”,

cioè al ritornello.

Gli indicatori di stile per Tagg, sono una sineddoche di genere

particolare. L’autore ci ricorda che la musica basa le sue regole su un

ridottissimo set di elementi, ma attraverso questi riusciamo a distinguere

un blues da un brano di Mozart. La steel guitar che siamo abituati ad

ascoltare nel genere country, è dello stesso genere una parte, se inserita

in un altro contesto, agisce da indicatore di “esotismo”.

101

2.2 Un approccio linguistico

Come le lingue naturali, anche la musica è un sistema articolato su

più livelli. È nostra intenzione tentare di analizzare, in una prospettiva

strutturalista, il sistema musicale con gli strumenti della linguistica poiché,

come già spiegato, tra linguaggio e musica vi sono diverse

sovrapposizioni, inoltre perché tra tutte le arti, la musica riflettere maggiori

affinità con il linguaggio naturale.

Ferdinand De Saussure nel suo Corso di linguistica generale (1916)

propone una serie di punti chiave per lo studio moderno del linguaggio,

gettando le basi per la nascente semiologia. De Saussure parte

inizialmente dalla distinzione tra langue e parole cioè l’aspetto sociale e

l’aspetto individuale del linguaggio, in altri termini quelle che Chomsky

(1965) chiamerà competenza e prestazione ossia cosa un parlante sa

della propria lingua e cosa in pratica realizza. Il segno linguistico, per De

Saussure, è un’entità a due facce in cui un concetto si lega a un’immagine

acustica mediante un rapporto arbitrario, come dimostra la differenze tra le

diverse lingue nel mondo. Altro punto fondamentale dell’impianto teorico

saussuriano è la distinzione tra una linguistica diacronica che studia

l’evoluzione della lingua e una linguistica sincronica che “congela” la

lingua e si sofferma su un momento studiandone gli stati. Da una

prospettiva, De Saussure evidenzia che le variazioni foniche prodotte dai

singoli parlanti, come la cadenza o l’intonazione, escludono l’identità totale

della parola che tuttavia rimane riconoscibile; l’identità delle parole per De

Saussure è data dal valore, cioè «dalle relazioni che [alcuni elementi]

intrattengono con altri elementi del sistema, dalle posizioni che ricoprono,

dalle differenze che li caratterizzano» (Traini 2006, 41). Appare dunque

importante, nella definizione di valore, distinguere i rapporti che gli

102

elementi linguistici intrattengono tra loro riconoscendo un asse orizzontale

che viene definito sintagmatico in cui il rapporto tra questi è in praesentia

e un asse verticale definito associativo dove il rapporto è in absentia.

In ambito musicale, in merito alla competenza ad esempio, è stato

rintracciato che è possibile percepire le relazioni tra elementi strutturali

quali tono e ritmo sviluppando delle aspettative anche per melodie mai

sentite (Butler 1992), ma questo, a patto che siano comprese in un

sistema musicale familiare all’ascoltatore (Jones 1976). Sulla distinzione

saussuriana di diatopia, cioè quando una lingua varia nello spazio, e

diacronia, cioè quando una lingua varia nel tempo, è possibile portare due

esempi dove il primo si rintraccia nel canto gregoriano che, benché legato

alla liturgia73 e, in quanto forma musicale prettamente orale, variava da

monastero a monastero (Cattin 1991); il secondo caso si rintraccia nella

musica rock che pur utilizzando un unico sistema musicale si scorgono

notevoli differenze tra quello grintoso statunitense e quello più melodico

inglese. Procediamo ora con l’analisi del sistema musicale attraverso gli

strumenti linguistici.

2.2.1. Fonologia

Ogni linguaggio naturale seleziona, per costruire le parole, una serie

di suoni che si chiamano “fonemi”, l’italiano per esempio, ne possiede

circa una trentina divisi fra sette vocali e ventitré consonanti. Da un punto

di vista fisico, i fonemi sono porzioni di spettro acustico che possiedono

idealmente determinati parametri di frequenza e durata, entro i quali le

varianti individuali non dovrebbero produrre differenza a livello di

103

73 Il canto gregoriano non poteva essere modificato, era opera di Dio trascritta da San Gregorio (590-604).

comprensione. In altri termini, ogni linguaggio pertinentizza il continuum

sonoro, ossia tutto quello che con la voce si può fare, in una gamma di

suoni, cioè in determinate classi entro le quali è possibile discriminare un

suono rispetto a un altro.

Secondo Sloboda il fonema in musica corrisponde alla nota musicale

in quanto è caratterizzata da una frequenza e una durata. La fonologia dei

toni riguarda «il modo in cui le scale sono suddivise», vale a dire «il

sottoinsieme (o sottoinsiemi) di altezze che una cultura sceglie costituisce

la scala (o le scale) di tale cultura» (Sloboda 1985, 59). Sloboda porta ad

esempio uno studio psicologico condotto da Locke e Kellar (1973) in cui si

chiede a dei soggetti di discriminare l’altezza tonale di una nota – nello

specifico la terza di una triade che poteva essere o maggiore o minore –

cioè trovare i confini tra le categorie di note da cui è emerso che

l’ascoltatore ha la competenza di segmentare, come per il linguaggio, il

continuum sonoro e dare perciò giudizi di intonazione su una determinata

nota. Per quanto riguarda la durata, Sloboda si riferisce in primo luogo

all’inviluppo del suono74 e in secondo luogo alla categorizzazione del

tempo. Riguardo a quest’ultima si è fatto notare che in musica vi sono due

tempi: uno relativo e uno assoluto, il primo è strettamente musicale,

mentre il secondo è di carattere individuale. In merito al tempo relativo si

riscontra che gli ascoltatori tendono a categorizzare ciò che ascoltano in

un tempo musicale relativo cioè viene creata una struttura ritmica che

segmenta il tempo in più parti, generalmente due o tre, mentre, per quanto

riguarda il tempo assoluto, si trova che è impossibile riprodurre con

esattezza ciò che un musicista esegue allo stesso modo in cui è

impossibile riprodurre esattamente la pronuncia di una parola.

104

74 L’inviluppo del suono è lo sviluppo nel tempo della forma d’onda e viene definito attraverso quattro parametri: attacco, decadimento, sostegno e rilascio (cfr. Lombardo e Valle 2002).

Appare, tuttavia, che quanto illustrato da Sloboda nel capitolo sulla

fonologia musicale riguardi principalmente la competenza dell’ascoltatore

a riconoscere delle categorie già formate e definite. Si ritiene qui invece,

che analogamente al linguaggio, la fonologia musicale debba studiare in

primo luogo il temperamento, cioè il modo in cui viene pertinentizzato il

continuum sonoro, e successivamente studiare il modo in cui dall’insieme

di suoni trovati si arrivi a creare, come appunto afferma Sloboda, dei

sottogruppi di suoni che diventano note musicali. L’autore, pur parlando di

diverse culture musicali e del modo in cui le scale vengono suddivise, non

utilizza il termine “temperamento”. Qui si ritiene che costruire una scala sia

un passo successivo a quello di segmentare lo spazio sonoro: nella

cultura musicale odierna, ad esempio, si suddivide lo spazio d’ottava in

dodici suoni equidistanti, dai quali per ogni scala se ne estrapolano sette.

Costruire la scala dunque ci sembra che corrisponda nel dominio del

linguaggio non a scegliere i suoni, quanto piuttosto stabilire quali suoni,

una volta trovati, possono giustapporsi e quali non lo possono fare per

formare le parole.

2.2.2. Morfologia

La morfologia nelle lingue naturali studia la forma delle parole, vale a

dire il modo in cui delle unità minime, chiamate morfemi, si legano tra loro

per formare parole. Nell’italiano ad esempio, il morfema “ragazz-” significa

in generale essere umano di giovane età a cui si aggiungono i morfemi “-

o”, “-a”, “-i” e “-e” che definiscono genere e numero. Per formare le parole

vi sono delle regole specifiche per ogni lingua, per esempio la parola

slovena “Trst”, che significa in italiano “Trieste”, nella nostra lingua non

può esistere in quanto vengono violate le regole per la formazione delle

105

parole, le quali stabiliscono che ogni nucleo sillabico debba contenere

almeno una vocale.

Nella musica, la componente morfologica si rintraccia proprio nella

formazione degli accordi che nel sistema tonale non sono una mera

giustapposizione di suoni, ma piuttosto una sovrapposizione di note a

intervallo di terza75 cosicché l’accordo di DO maggiore si costruisce

attraverso le note di DO-MI-SOL. Vi troviamo tre modi per modificare

morfologicamente un accordo che consistono nel cambiarne lo stato, nel

colorarlo o nel cambiarlo di modo (nei limiti dell’armonia funzionale). Così

come si può dire che tra “ragazz-o” e “ragazz-a” non vi è differenza di

significato se non nel genere, allo stesso modo un accordo rimane tale

nelle sue “declinazioni”. Abbiamo detto che il DO è composto dalle note

DO-MI-SOL, l’armonia funzionale ci dice che, anche se rivoltato76, non

cambia funzione, cosicché DO-MI-SOL avrà lo stesso significato armonico di

MI-SOL-DO variando tuttavia, per la diversa organizzazione interna dei

suoni, la tensione e quindi la propensione al movimento. Un accordo può

essere anche colorato, cioè vi si aggiungono voci al fine di conferirgli un

sapore o un colore particolare, pur senza sacrificarne la funzione

armonica. In italiano, per esempio, è possibile unire a una radice

morfologica dei morfemi che aggiungono significato, come nel caso di

106

75 Sembra utile a tal proposito portare l’esempio della musica jazz e dei cosiddetti voicing. Come nella musica tonale, anche nel jazz sovrapporre terze può portare a un accordo comprensivo di sette voci cioè tonica, terza, quinta, settima, nona, undicesima e tredicesima dove a livello teorico non si può avere una nona senza settima o una tredicesima senza undicesima. Il voicing è la riduzione a quattro voci di accordi che potrebbero averne anche sette (perciò tutto il “materiale” diatonico) finalizzata ad agevolare il pianista nell’esecuzione con la mano sinistra in quanto quella destra è occupata nella melodia per cui vanno omesse delle voci che sono spesso la fondamentale e la dominante in quanto realizzate dal contrabbasso, mai la terza e la settima per via della loro importanza nel definire il ruolo dell’accordo (cfr. Santorsola 2000). Questo è molto importante secondo noi perché, benché il jazz sia una musica molto diversa da quella tonale, questo approccio rispecchia l’impostazione cognitiva della sovrapposizione per terze.76 Il rivolto di un accordo consiste nel mettere al basso una nota diversa dalla tonica.

“ragazzino” che significa uomo di giovane età di sesso maschile a cui si

aggiunge la connotazione “piccolo” (”ragazz-” + “-in-” + “-o”). Allo stesso

modo in armonia è possibile aggiungere a una triade delle voci al fine di

modificare il colore lasciando intatta la funzione: DO-MI-SOL-SI-RE ha la

stessa funzione dell’accordo DO-MI-SOL, tuttavia la settima e la nona

aggiungono una particolare sfumatura restringendo in un certo senso il

campo semantico. Infatti, come “ragazzo” è più indefinito di “ragazzino”

così un accordo a tre voci risulta più indefinito e ambiguo di uno a cinque

voci77. Sempre nelle varianti morfologiche facciamo rientrare il

procedimento di cambiare la tonalità a un brano che dalla tonalità

maggiore passa a quella minore o viceversa. È possibile, data una

melodia armonizzata, cambiare sia il modo della melodia che quello

dell’armonia mantenendo intatti i rapporti e le gerarchie tra i gradi. È

sufficiente, a livello generale, alterare le note che interessano la struttura

della tonalità cosicché passare da DO maggiore a DO minore comporterà

l’abbassamento di un semitono tutti i SI, i MI e i LA oppure se si vuole

passare da LA minore a LA maggiore verranno alzati di un semitono i FA, i

DO e i SOL e la melodia manterrà intatta la sua identità ma con un sapore

diverso. I procedimenti appena delineati sono alla base del “fare

musicale”, ogni compositore infatti si trova costantemente a variare i

percorsi armonici colorando le armonie o variando il modo come avviene

ad esempio nella parte centrale della forma sonata, dove sono sviluppati i

temi esposti e dove il compositore può dare libero sfogo alla sua fantasia.

Esistono parole nel linguaggio verbale che possono avere più

significati che vengono attivati a seconda del contesto, ma esistono dei

107

77 Sulla base dell’ambiguità funzionale di un accordo si costruisce il sistema modale del jazz. Per esempio, mentre sull’accordo DO-MI-SOL è possibile suonare sia una scala ionica che una misolidia in quanto differiscono per il VII grado, su quello di DO-MI-SOL-SIb si è vincolati a suonare la scala misolidia escludendo quindi la ionica.

casi in cui una parola assume contemporaneamente più significati, come

nella frase «Milano pulita è l’aspirazione di tutti», dove “aspirazione” è sia

desiderio di vedere Milano pulita che il “lavorare da parte di tutti” per

renderla pulita, e rientra nella figura retorica dell’anfibologia (Calabrese

2008) interessando principalmente l’area semantica della parola. Anche in

musica un accordo può avere più significati che emergono dal contesto

armonico come ad esempio l’accordo di DO maggiore è I grado in tonalità

di DO maggiore, V grado in FA maggiore, IV in SOL maggiore e così via.

Possiamo dire che l’anfibologia musicale è rintracciabile nelle

modulazioni78, più precisamente nei passaggi modulanti, in cui degli

accordi “perno”79 comuni alle due tonalità assumono allo stesso tempo

due significati armonici fino a ché la modulazione non viene conclusa: tutti

i DO prima della modulazione sono I grado di DO, successivamente

diventano IV grado di SOL ma durante la modulazione sono parte di

entrambe le tonalità.

Le parole nel linguaggio si susseguono formando delle frasi, lo

stesso avviene per il materiale musicale dove le frasi vengono

inframmezzate dalla punteggiatura musicale, quella che gran parte dei

manuali associano alle cadenze. La cadenza perfetta (V-I) spesso viene

associata al punto, ma se l’accordo che precede la tonica è una settima di

dominante (V7-I) la cadenza diventa molto più di un punto e assomiglia a

una chiusura di paragrafo, mentre la cadenza plagale (IV-I) e la cadenza

imperfetta (V-I6)80, per il loro carattere poco conclusivo, assomigliano più a

108

78 Tarasti (2002) vede l’ambiguità nell’enarmonia che è il rapporto tra due suoni diversi nella notazione, ma di altezza identica come per esempio tra DO# e REb.79 cfr. Piston (1941)80 Il numero “6” in alto significa che l’accordo è in stato di primo rivolto (in merito alla cifratura degli accordi cfr. Piston 1941).

delle virgole laddove la cadenza sospesa (I-V) si può rintracciare nei tre

puntini di sospensione.

2.2.3. Sulla scrittura

Walter Ong (1982), nel suo celebre lavoro sulle tecnologie della

parola, evidenzia che il pensiero e l’espressione dei parlanti che fanno

parte di una cultura che non conosce la scrittura sono profondamente

diversi da quelli cresciuti nella scrittura, perché la tecnologia della scrittura

pone il parlante in una condizione di non ritorno, da cui non è possibile

pensare le parole senza vederle rappresentate. Il pensiero delle persone

che non conoscono la scrittura risulta per Ong aggregativo e paratattico,

cioè è basato su frasi coordinate piuttosto che subordinate, in cui la

ridondanza risulta fondamentale al fine della memorizzazione del discorso

che non può scindersi dai parlanti quindi dal contesto. Per questo motivo, i

parlanti analfabeti, appaiono tradizionalisti e conservatori, il sapere è

vincolato dalle persone e deve essere vicino all’esperienza umana e alla

vita quotidiana da cui deriva anche una certa difficoltà nell’astrazione.

Parimenti Sloboda (1985)81 evidenzia soprattutto gli svantaggi che la

scrittura può portare e che consistono in primo luogo all’allontanamento

del pensiero dal parlante, successivamente a un impoverimento della

comunicazione in quanto scrivere significa preservare solo le informazioni

fonetiche tralasciandone altre quali gesti, toni, ritmo e intonazioni. Nella

musica allo stesso modo la notazione ha portato sia vantaggi che

svantaggi.

109

81 Gli esempi di Sloboda (1985) in merito alla diversità tra culture orali e culture scritte sono tratti dalla musica tonale occidentale e dai canti dei Venda del sud Africa, culture musicali molto distanti tra loro.

Analogamente alla scrittura per il linguaggio, la notazione permette al

pensiero melodico di divenire più complesso perché non più legato alla

memoria, senza scrittura sarebbe difficile pensare alla polifonia del

Cinquecento, ma soprattutto alla complessa architettura del contrappunto

bachiano nell’Arte della fuga, nonché alle melodie “infinite” di Wagner. La

scrittura, dunque, rende il pensiero musicale più lungo e articolato, ne

consente una composizione ragionata perché permette di ponderare i

rapporti tra le parti ma soprattutto rende possibile la progettazione e quindi

la costruzione di forme complesse e lunghe impensabili per una cultura

orale. Le culture musicali orali, a dispetto di quelle basate sulla scrittura,

sono prevalentemente conservatrici: i canti gregoriani dell’ultimo periodo,

quello antecedente alla scrittura, sono ad esempio un assemblaggio di

frammenti melodici pre-esistenti, allo stesso modo nel blues l’impianto

armonico, salvo micro-cambiamenti, è sempre lo stesso tanto che la

progressione armonica viene definita standard proprio per sottolineare la

sua struttura fissa e invariabile (una definizione usata anche nel jazz, il

quale possiede la stessa natura orale). Ciò che nel blues varia è la

melodia affidata all’improvvisazione che avviene, analogamente ai poemi

omerici descritti da Ong, secondo cliché fissi che vengono chiamati

pattern, cioè “campioni”. Quello che rende un brano diverso dall’altro nel

blues è la scelta e l’accostamento dei pattern, ma soprattutto il tocco

dell’esecutore che coincide con l’autore.

Se si riprende il discorso di Sloboda sugli svantaggi della scrittura

che, come già anticipato «può portare a un impoverimento della

comunicazione» (Sloboda 1985, 375), è assolutamente vero, in luce di

quanto detto riguardo al fatto che il blues sia basato sull’improvvisazione,

che esso deve la sua sopravvivenza ai supporti di registrazione.

Fortunatamente nel Novecento, gli apparecchi fonografici hanno reso

110

possibile fissare e riprodurre la musica improvvisata; del blues allora non

rimarrebbe nulla e si perderebbe ogni traccia come è successo con le

improvvisazioni Chopin82. Il supporto fonografico permette non solo di

uscire dall’hic et nunc83 ma anche di poter registrare tutte le informazioni

di cui la notazione non può tenere conto84. Nel blues ad esempio – ma

anche nel rock e in genere in tutte le musiche in cui compare la chitarra –

si usa spesso il cosiddetto bending, che consiste nel “tirare” la corda della

chitarra alzando l’intonazione di un quarto di tono, sfumatura che nella

nostra notazione convenzionale non è possibile registrare; lo stesso si può

dire per quei fraseggi che, benché siano estremamente semplici e intuitivi

da suonare, risultano molto complessi da trascrivere a livello ritmico. La

notazione, inoltre, non riesce a tenere conto del timbro, se non fornendo

un’indicazione dello strumento da utilizzare, sistema che rimane sempre

molto approssimativo. Si può allora concludere che, analogamente al

linguaggio, la notazione cristallizza il modo in cui la musica viene pensata,

non solo nella limitatezza delle informazioni che veicola, ma anche perché

condiziona il compositore facendo che si muova solo entro i soli parametri

di cui essa tiene conto.

Scrivere la musica significa operare una traduzione inter-

dimensionale, ossia lavorare tra materiali differenti85, che consiste nel

rappresentare sul piano visivo un qualcosa che avviene sul piano

111

82 «Purtroppo le improvvisazioni di Chopin sono un libro chiuso per sempre. Non avremo mai idea di quello che furono» (Iwaszkiewicz 1991, 80). Lo stesso vale per Bach e Beethoven, dei quali si parla in termini di formidabili improvvisatori.83 Non ci riferiamo alla perdita dell’aura tracciata da Walter Benjamin (1936), piuttosto vogliamo evidenziare la possibilità di ascoltare un brano in un tempo e in uno spazio che sono diversi da quelli dell’esecuzione.84 Senza supporti fonografici aggiungiamo che non sarebbe nemmeno possibile registrare quelle che nella prossima sezione chiameremo “onomatopee extra-linguistiche”.85 Ci sembra quanto mai vera l’espressione di Frank Zappa: «Parlare di musica è come ballare di architettura» (Zappa e Occhiogrosso 1990)

sonoro86. Fortunatamente entrambi i piani sono bidimensionali: il piano

visivo è composto da due assi, quello orizzontale e quello verticale, il

piano sonoro da quelli della frequenza e del tempo87. Fin dai primi sistemi

di scrittura, cioè i neumi apparsi attorno al IX secolo, l’uomo si è

rapportato allo spazio associando intuitivamente alla dimensione verticale

l’altezza del suono rappresentando i suoni acuti più in alto rispetto a quelli

gravi. Nel XIII secolo è stata introdotta, con la notazione quadrata, la

possibilità di indicare anche il tempo, molto importante in vista dell’avvento

delle grandi composizioni polifoniche del XV secolo che portano allo

sviluppo della notazione mensurale bianca – il prototipo della notazione

moderna codificata verso il XVII secolo – dove altezze e durate vengono

definite attraverso un sistema semi-simbolico88.

Il modo in cui l’uomo si è rapportato intuitivamente alla notazione

della musica rispetto alla scrittura per la parola riflette il carattere spaziale

della musica rispetto all’arbitrarietà della parola. Il linguaggio verbale

utilizza dei segni che vengono scelti arbitrariamente, per cui il segno “a”

non ha nulla a che fare con il suono /a/, allo stesso modo la parola

“albero” non ha alcuna relazione di somiglianza con il concetto di albero. Il

sistema di notazione sviluppato in occidente invece, come abbiamo

appena visto, seppur astratto mantiene sempre un livello di analogia con

lo spazio, un ulteriore dato che supporta in primo luogo la tesi di Meidner

(1985) secondo il quale l’ascoltatore rappresenta mentalmente uno spazio

112

86 Ci affascina il fatto che se scrivere è rappresentare nel visivo ciò che avviene nel sonoro, il madrigalismo consiste nel rappresentare nel piano sonoro ciò che avviene nel piano visivo.87 Ci sembra interessante far notare che già la frequenza in sé implichi il tempo; quello che l’uomo definisce “suono” altro non è che “colpi” così ravvicinati che permettono di percepire un “suono” la cui altezza tonale è in rapporto alla quantità di colpi che avvengono in un secondo.88 Sulla notazione musicale cfr. Cattin (1991), Lanza (1984) e Apel (1962).

virtuale bidimensionale dove colloca tempo e altezza tonale, in secondo

luogo la tesi che la musica è rappresentazione di qualcosa di extra-

musicale (come abbiamo visto a proposito dei madrigalismi e nella parte

dedicata alla semiologia della musica).

2.2.4. Musica come forma di argomentazione

Da quando si è affermata la forma sonata si è compresa l’importanza

che lo sviluppo del materiale tematico svolge al suo interno. Come stiamo

tentando di dimostrare in questo lavoro, in un’argomentazione, in genere,

è importante esporre i temi di cui si vuole parlare, svilupparli per riprenderli

successivamente al fine di trarne delle conclusioni. Nella parte introduttiva

si espongono gli argomenti, anche multidisciplinari, che verranno trattati,

nella parte centrale si sviluppano questi argomenti cercando di collegare

tra loro le teorie, nella parte finale, riprendendo gli argomenti, si traggono

le conclusioni alla luce della trattazione appena compiuta. Allo stesso

modo si comporta la forma sonata classica89 che è tripartita – in quanto

comprende esposizione, sviluppo e ripresa – e bitematica – perché utilizza

due temi, il primo costruito sull’impianto di tonica e dal carattere

movimentato, il secondo costruito prevalentemente su quello della

dominante o sulla relativa maggiore ed è più disteso90. Nell’esposizione si

mostrano i due temi che nello sviluppo andranno fatti interagire al fine di

coglierne ogni sfumatura armonica attraverso contrasti, sovrapposizioni e

sviluppi in senso stretto (tema della variazione), mentre nella ripresa i due

113

89 Quella sviluppata da Haydn, Mozart, Beethoven durante il classicismo viennese che si è protratta fino a metà del XIX secolo.90 Sulla natura dei due temi della forma sonata bisogna ricordare che, benché codificata, ogni compositore si comporta come crede. Qui tuttavia ci rifacciamo alla teoria della forma così come è stata codificata durante il classicismo viennese.

temi originali vengono recuperati, i quali, dopo il lungo e tortuoso percorso

dello sviluppo, appariranno più chiari e finalmente, dopo l’indagine

psicologica condotta nello sviluppo, verranno conosciuti nel profondo;

spesso i compositori decidono di anteporre una breve introduzione o

concludere con una codetta91.

Un caso specifico di argomentazione musicale è rappresentato dal

Miserere di Josquin Des Prez (1450-1521) il quale decide di seguire le

raccomandazioni dei trattati di retorica sulla dispositio che è quella parte

della retorica che determina l’organizzazione del materiale. Quintiliano92 in

merito raccomanda che davanti a un giudice conviene aprire l’orazione,

cioè l’exordium, presentandosi deboli allo scopo di suscitare pietà per

scatenarsi successivamente nella peroratio in «un fiume di eloquenza per

riuscire a far appello alle emozioni del giudice nel modo più

efficace» (Macey 2004, 326). Analogamente Josquin affida l’exordium al

secondo tenore che implora pietà su una singola nota molto debole che

viene seguito dal basso che lo imita. Successivamente, nella peroratio

(misura 19), tutte le voci entrano generando un energico senso di climax

(Macey 2004).

2.2.5. Sintassi

La sintassi del linguaggio musicale condivide con quella del

linguaggio naturale caratteristiche come la discretezza, la linearità e la

ricorsività. Il discreto è l’opposto del continuo, nel senso che l’informazione

viaggia attraverso pacchetti e tra questi non vi è nulla e per linearità si

114

91 Sulla forma sonata cfr. Bellisario (1981), Azzaroni (1997) e Ulrich (1977).92 Quintiliano, Institutio oratoria, ed. con testo a fronte a cura di A. Pennacini, 2 voll., Torino: Einaudi (Macey 2004).

intende che questi pacchetti vengono disposti in fila l’uno dopo l’altro

mentre con ricorsività «s’intende […] la capacità di iterare all’infinito un

processo sulla stessa struttura» (Moro 2006, 77), in altre parole è la

capacità di produrre strutture potenzialmente infinite attraverso la

combinazione gerarchica ma lineare di elementi discreti.

Una pionieristica analisi della sintassi musicale, che anticipa di

vent’anni le idee di Chomsky nell’ambito della linguistica, lo rintracciamo

nel musicologo Heinrich Schenker (1935), il quale crede che la

comprensione musicale consista nella costruzione mentale del sistema di

rapporti tra i suoni musicali. Alla base di ogni buona composizione

musicale c’è sempre una stessa struttura di base, l’Ursatz, che poi viene

sviluppata a livello superficiale dal compositore, l’Urlinie per cui secondo

Schenker una buona composizione musicale si manifesterebbe nei tratti

superficiali cioè nell’atto individuale, riflettendo una struttura di base

comune. Questo processo, per molti versi, sembra simile alla distinzione

saussuriana tra langue e parole, vale a dire tra la parte sociale e la parte

individuale. Nella musica tonale i percorsi armonici partono da uno stato di

equilibrio iniziale, ossia la tonica, procedono verso la dominante che

introduce la tensione e quindi ritornano all’equilibrio, cioè alla tonica. A

livello superficiale, per creare interesse, questo percorso non è così

lineare, ma viene, con parole di Schenker, “prolungato” cioè concretizzato

attraverso lo “s-volgimento” (aus-komponierung): una progressione

armonica come I-I6-V-I non sarebbe che il prolungamento della struttura di

base I-V-I. Come Schenker, anche il linguista Noam Chomsky (1957)93

afferma che tutti i linguaggi naturali hanno a livello profondo la stessa

struttura. Consideriamo ad esempio la frase “Giovanni ama Maria” che

115

93 Sloboda (1985) respinge l’idea che Chomsky abbia conosciuto l’opera di Schenker, semplicemente afferma che è un caso di due menti creative che in assoluta indipendenza hanno affrontato nella stessa maniera due argomenti differenti.

rispecchia una struttura di base composta da sintagma nominale

(Giovanni) e sintagma verbale (ama Maria). Un’altra frase come “il cane

rincorre il gatto” rispecchia a livello base la stessa struttura, come anche “il

tuo deforme cane randagio rincorre il mio amato gatto”; entrambe sono

costituite da un sintagma nominale (il cane; il tuo deforme cane randagio)

e uno verbale (rincorre il gatto; rincorre il mio amato gatto).

Sviluppando le idee della riduzione di Schenker e della sintassi

generativa di Chomsky, il musicologo Fred Lerdahl e il linguista Ray

Jackendoff pubblicano nel 1983, nell’ambito della psicologia cognitiva, un

lavoro che risulta di notevole importanza per lo studio della sintassi

musicale e che consiste nell’indagare il processo ideale che verrebbe

compiuto dall’ascoltatore tipo individuando i principi cognitivi generali che

stanno alla base della fruizione musicale94. Nel linguaggio ciò che udiamo

sono i suoni delle parole da cui grazie alla competenza linguistica è

possibile estrapolare i rapporti gerarchico-sintattici, nondimeno nell’ascolto

musicale, ciò che giunge alle nostre orecchie sono le note, che

successivamente vengono ricondotte a una struttura astratta che è la

sintassi. Seguendo Chomsky (1957) e utilizzando la sua rappresentazione

per mezzo dei diagrammi ad albero, gli autori formalizzano una teoria

generativa della musica tonale (Generative Theory of Tonal Music) che

vede un ascoltatore competente95 utilizzare una serie di regole analitiche e

116

94 Tuttavia, in un articolo dello stesso anno Lerdahl e Jackendoff (1983b) argomentano alcune differenze tra la loro teoria e quella di Schenker: innanzitutto la loro è una teoria psicologica e non estetica, Schenker infatti parla di “buona composizione” mentre gli autori usano “well-formedness rules”. Schenker si serve della sua teoria per illuminare i capolavori, laddove Lerdahl e Jackendoff la utilizzano per indagare i principi della cognizione musicale ed è applicabile sia ai capolavori che alla musica triviale perché la mente dell’ascoltatore rimane sempre la stessa.95 Competenza secondo Chomsky è la capacità del parlante (o dell’ascoltatore) a riconoscere ciò che è giusto da ciò che è sbagliato, che si forma in maniera implicita e non ha nulla a che vedere con l’alfabetizzazione che si forma in maniera esplicita. L’acquisizione di una lingua «è una cosa che a un bambino succede, non una cosa che un bambino fa, (cfr. Chomsky 1992)» (Moro 2006, 70).

ricorsive per rappresentarsi mentalmente ciò che ascolta. Partendo

dall’Ursatz di Schenker trovano che è possibile giungere all’Urlinie

attraverso un procedimento ricorsivo che viene realizzato, nel loro modello

come in quello di Chomsky, attraverso la “ramificazione” gerarchica del

diagramma. Per gerarchia gli autori intendono degli elementi o delle

regioni adiacenti che sono in relazione e che ne contengono – o possono

contenerne – degli altri, una relazione di appartenenza o contenenza che

avviene tra i livelli con un procedimento di tipo ricorsivo.

La loro rappresentazione della struttura sintagmatica aiuterebbe

inoltre a disambiguare gli accordi nel consueto fenomeno della

modulazione visto sopra. È celebre la frase ambigua di Chomsky “Gianni

colpì l’uomo col coltello” che può significare sia che Gianni colpisce per

mezzo di un coltello sia che l’uomo colpito possedeva un coltello. In

questa frase vi ritroviamo, utilizzando i termini di analisi di Schenker, una

stessa struttura di superficie e due diverse strutture di base. Per mezzo

della rappresentazione della struttura sintagmatica ad alberi, è possibile

rappresentare e quindi attivare un senso o un altro semplicemente

associando il sintagma “col coltello” o a “colpì” o a “l’uomo”. Allo stesso

modo gli accordi perno possono essere associati a una regione tonale

piuttosto che a un’altra semplicemente rappresentandoli attraverso il

diagramma ad alberi proposto da Lerdahl e Jackendoff (1983a).

Abbiamo visto con Ong (1982), in merito alla tecnologia della

scrittura al servizio della parola, che un parlante analfabeta rispetto a uno

alfabetizzato utilizza uno stile prevalentemente paratattico piuttosto che

ipotattico e anche che l’alfabetizzazione musicale influisce sulla

complessità del pensiero melodico/armonico del compositore. Questa

diversità legata alla cultura scritta può essere rintracciata anche nella

sintassi musicale dove le culture orali utilizzeranno prevalentemente una

117

sintassi paratattica e quelle scritte ipotattica. Come abbiamo appena visto

con Schenker, in tutte le buone composizioni musicali, cioè in quelle del

periodo tonale, si rintraccerebbe una stessa struttura di base che,

sviluppata, cioè prolungata, darebbe vita all’opera di un particolare autore.

Questo sviluppo potrebbe essere associato allo stile ipotattico che si

rintraccia nei parlanti alfabetizzati, crediamo, infatti, che una lunga

progressione armonica – come può essere un tema delle ultime sinfonie di

Beethoven – possa essere definita ipotattica perché una modulazione

estemporanea è per molti versi simile alla subordinazione del pensiero

linguistico, infatti, nella musica tonale gli accordi si concatenano allo

stesso modo delle tonalità che vanno a formare le “regioni armoniche” che

sono peraltro visibili graficamente negli alberi sintattici proposti da Lerdahl

e Jackendoff (1983a). Diversamente dalle culture musicali basate sulla

scrittura, quelle orali – e prendiamo ad esempio buona parte della musica

pop e rock – utilizzano un materiale armonico melodico ridotto e

ridondante come il riff, che nel rock è una frase musicale molto breve che

viene costantemente ripetuta, anche per tutto il brano, e che non viene

legata alle altre secondo le regole della sintassi tonale, ma semplicemente

per giustapposizione. Rappresentando un brano rock con il diagramma ad

albero di Lerdahl e Jackendoff si osserverebbe, come conseguenza della

mancanza di regioni armoniche subordinate, una “ramificazione” molto

ridotta96.

Nella sintassi del linguaggio naturale le frasi subordinate sono legate

alle principali attraverso le congiunzioni subordinate come avviene nella

frase “Gianni compra un libro che un suo amico che ha conosciuto a

118

96 Nei seminari tenuti da David Pesetsky si è provato a estendere la teoria generativa della musica tonale di Lerdahl e Jackendoff (1983a) dimostrando in particolar modo che gli elementi musicali si combinano come gli elementi lessicali nelle frasi. Particolare attenzione viene posta alla regola ricorsiva dell’attaccamento e della composizione (Pesetsky 2007; Katz e Pesetsky 2009).

scuola gli ha consigliato”, dove è la congiunzione “che” a tenere uniti i tre

sintagmi. È stato sottolineato che nelle musiche da noi definite ipotattiche

vi è uso di subordinate, ora ipotizziamo che le congiunzioni subordinanti in

musica si possano rappresentare con la dominante secondaria, ossia la

dominante della dominante97 cosicché la frase sopra trova un analogo in

musica nella progressione “DO - LAm - REm - RE - SOL - SOL/SI - DO - DO7 -

FA” in cui compaiono due congiunzioni: il RE (composto da RE, FA#, LA in

cui FA# esce dalla tonalità di DO per andare in quella di SOL) che diventa

dominante di SOL e il DO7 (composto da DO, MI, SOL, SIb dove quest’ultimo

esce dalla tonalità di DO per entrare in quella di FA) che diventa settima di

dominante di FA.

2.2.6. Significato

Proporremo ora una teoria sul significato musicale divisa in due

momenti: dapprima, proseguendo l’approccio generativo proposto da

Lerdahl e Jackendoff (1983a), si proverà ad analizzare la sintassi tonale

attraverso il percorso generativo del senso di Greimas, successivamente

si proporrà un modello di percezione del significato musicale utile per

mettere a punto una definizione del segno musicale che tenga conto degli

aspetti sensoriali e cognitivi coinvolti.

119

97 La dominante secondaria si ottiene trasformando in maggiore il V grado del V grado della tonalità cosicché se SOL è V grado di DO, la dominante secondaria sarà RE che è V grado di SOL (ma anche II di DO); in DO maggiore il II grado è minore, per cui alzando la terza esso potrà fornire la tensione sufficiente per tendere e quindi risolvere su SOL.

2.2.6.1. Il percorso generativo del senso

Negli anni Settanta Algirdas Julien Greimas elabora, partendo

dall’assunto che il senso è un sistema semantico che viene organizzato

per livelli di profondità, un pensiero secondo il quale gli elementi più

profondi genererebbero quelli più superficiali attraverso delle regole di

conversione. Greimas (1983), il quale ritiene che «il senso può essere

colto solo attraverso la sua narrativizzazione» (Traini 2006, 133), riforma

da Vladimir Propp (1928) le sfere d’azione e chiama attanti quelle figure

astratte e molto generalizzabili che devono compiere un’azione, che nel

concreto della narrazione diventano attori, e sviluppa la grammatica

narrativa allo scopo di rintracciare una grammatica elementare della

narratività. Chiariamo con un esempio: una principessa deve essere

salvata dal principe, ma questo, per salvarla, deve sconfiggere il drago

con l’aiuto della spada. In questo caso entrano in gioco quattro attori che

sono il principe, la principessa, il drago e la spada i quali svolgono

rispettivamente i ruoli attanziali di Soggetto, Oggetto, Opponente e

Aiutante98; partendo dal fatto che, secondo Greimas, la narrazione è una

struttura di trasformazioni attraverso congiunzioni e disgiunzioni99, il

programma narrativo di base nel nostro esempio sarà che il Soggetto

(principe) deve congiungersi con l’Oggetto (principessa), ma deve

superare l’Opponente (drago) per mezzo di un Aiutante (spada).

Possiamo ora intraprendere un percorso generativo del senso anche

per quello che riguarda il materiale musicale. Abbiamo visto prima con

120

98 Si può anche avere un attore che ricopre più ruoli attanziali e viceversa, come nel caso in cui la principessa sia cercata di più principi (ogni persona è un attore, ma tutti hanno lo stesso ruolo).99 In termini psicoanalitici, l’ascolto musicale viene concepito come una serie ininterrotta di lutti (Mancia 1998): ci si separa continuamente da forme compiute in attesa di nuove forme.

Schenker (1935) e poi con Lerdahl e Jackendoff (1983a) come da una

struttura di base si arrivi a una struttura di superficie attraverso un

procedimento ricorsivo. Possiamo dire che i ruoli attanziali di Soggetto e

Oggetto vengono ricoperti entrambi dalla tonica, il grado più importante da

cui tutto nasce e verso cui tutto torna, per cui avremo che il Soggetto

tonica deve congiungersi con l’Oggetto tonica, mentre il ruolo di

Opponente viene ricoperto dalla dominante, dalle dissonanze e dai

percorsi armonici più imprevisti, così, tanto più azzardata sarà la

lontananza dal centro tonale, tanto più sarà “cattivo il drago”. Gli attori in

questo modello, come nelle narrazioni, saranno diversi per ogni brano, più

precisamente per ogni tonalità tanto che in DO maggiore l’attore DO

svolgerà sia il ruolo attanziale di soggetto che quello di oggetto e il SOL

sarà il suo opponente, mentre in tonalità di SOL troveremo l’attore SOL

come Soggetto e Oggetto e il RE come Opponente. Come nelle storie una

macro narrazione è un insieme di micro narrazioni, così nei percorsi

armonici vi saranno di volta in volta dei sub-passaggi, magari in altre

tonalità, che tenderanno in ogni modo alla tonica della tonalità di

partenza100, inoltre, più sarà arduo il percorso e maggiore sarà il grado di

piacevolezza all’ascoltatore. Tale schema pare peraltro molto simile a

quello proposto da Lerdahl (1988) presentato nella teoria del Tonal pitch

space theory (TPST): le relazioni sintattiche tra gli eventi musicali sono

espresse in termini di distanza che li separa dal centro tonale (la tonica)

cosicché, se alla dominante si assegna il valore 5, altrettanti punti servono

per ritornare alla tonica101. Domandiamoci ora che interesse potrebbe

121

100 Pensiamo alla forma sonata in cui i due temi sono in tonalità di tonica e di dominante.101 Alla base dello studio di Lerdahl (1988) troviamo la teoria della tensione e del rilassamento sviluppata da Lerdahl e Jackendoff (1983a) per cui partendo dalla tonica e arrivando alla dominante si crea una tensione che verrà dissipata solo ritornando alla tonica perciò un rilassamento.

avere una storia in cui si narri di un principe che non deve salvare la

principessa e che per centinaia di pagine non succeda nulla;

analogamente, che interesse potrebbe suscitare un brano con un solo

accordo102? È altrettanto vero che un brano in cui la tonica non viene mai

raggiunta, genererebbe frustrazione in chi lo ascolta, infatti, come osserva

Meyer (1956), il ruolo del compositore è a metà via tra il soddisfare e il

non soddisfare le aspettative dell’ascoltatore, pensiero che viene espresso

anche da Reginald Smith Brindle in una prospettiva diretta alla

composizione musicale in cui afferma che il nuovo tema

non dev’essere tanto diverso da distruggere il senso di coesione, né tanto simile da non dare alcuna sensazione di cambiamento (Brindle 1992, 48).

Una posizione complementare alla nostra ipotesi è quella di Marconi

(2007) che ricostruendo il processo generativo del senso del sistema

tonale, si concentra sul livello semantico profondo delle strutture semio-

narrative e non vede il percorso armonico come congiunzione del

Soggetto all’Oggetto – che rientra nell’impianto di Greimas nel livello di

superficie –, ma vede piuttosto la tonica muoversi da uno stato di tonica a

uno di non-tonica chiamato dominante per poi ritornare a uno stato di

tonica. L’autore continua con la dichiarazione di Schopenhauer secondo la

qua le la mus ica è « i l l inguaggio de l sent imento e de l la

passione» (Schopenhauer 1819, 349), spiega la narrativizzazione della

musica tonale in termini di pulsioni passionali e di raggiungimento della

meta attraverso «”metafore concettuali” (Lakoff e Johnson 1980, tr. it. p .

22) che [strutturano] l’esperienza delle musiche tonali proiettandovi aspetti

122

102 Ricordiamo che siamo in un regime tonale per cui si escludono lavori sperimentali del calibro di No pussyfooting (Brian Eno e Robert Fripp) o dell’Op. 16 di Schönberg (dove viene utilizzata la kangfarbenmelodie cioè la melodia di colori di suono) in cui non vi compaiono né progressioni armoniche né riferimenti alla musica tonale.

dell’esperienza narrativa o di quella emotiva» (Marconi 2007, 10), e

realizza le metafore secondo cui “un brano tonale è un percorso narrativo”

e “un brano tonale è un percorso emotivo”.

Se Eero Tarasti afferma che

l’intero sistema di Greimas103 è applicabile alla musica ed ha forti paralleli con il modello musico-analitico di Heinrich Schenker, sistema parimenti ‘assiomatico’ e generativo (Tarasti 2002, 18-19)

riteniamo che la nostra ipotesi possa convivere con quella di Marconi

e contribuire ad arricchirla piuttosto che porsi in conflitto con essa in

quanto abbiamo visto – oltre a Schenker anche con Chomsky e con

Lerdahl e Jackendoff – che anche in musica è possibile partire dalle

strutture di base per arrivare a quelle di superficie.

2.2.6.2. Modello percettivo della significazione musicale

Abbiamo avuto modo di osservare fino a questo momento come vi

siano molteplici teorie sul significato musicale. Gli studi semiotici si

concentrano sul significato extra-musicale che sembra dipendere

dall’essenza imitativa del linguaggio musicale come nel caso

dell’imitazione comportamenti orali (Fonagy 1981, 1983), di espressioni

vocali (Marconi 2001a), o come è possibile rappresentarla lungo la

dimensione spaziale (Meidner 1985; Stefani et al 1990; Stefani e Marconi

1992). In relazione a un significato propriamente musicale si concentrano

gli studi nell’ambito della psicologia cognitiva come nel caso degli

esperimenti sul priming armonico i quali rivelano che un accordo porta con

123

103 Un’altra applicazione dello schema attanziale di Greimas viene fornito da Tarasti (1991) che vede la melodia del classicismo viennese e del successivo romanticismo trasformarsi in attore virtuale fino a diventare protagonista del discorso musicale.

sé un significato sintattico, cioè il ruolo che svolge in un contesto

armonico: Bharucha (1987) ad esempio, ipotizza una rete semantica

analoga a quella linguistica (Collins e Loftus 1975) in cui gli accordi in

relazione armonica sono maggiormente legati rispetto a quelli che non lo

sono. Riprendendo Middleton (1990) che parla di significazione primaria e

secondaria, si potrebbe allora includere le idee di significato musicale ed

extra-musicale in un sistema che tenga conto di connotazione e

denotazione che non sono qualitativamente diverse, ma lo sono

quantitativamente, e che questa quantità consista in porzioni di significato

che investono l’oggetto musicale.

I modelli di percezione musicale mostrano che lo stimolo viene

elaborato nel tempo muovendosi dal basso verso l’alto cioè dal sensoriale

verso il cognitivo, in altri termini dal biologico al culturale (McAdams 1996;

Koelsch e Siebel 2005; Peretz e Coltheart 2003) o ancora, dall’uditivo al

musicale; allo stesso modo sembra sia possibile implementare questo

modello aggiungendo dapprima il modulo della denotazione e

successivamente quello della connotazione continuando perciò il percorso

che dal collettivo procede verso l’individuale. Luis Hjelmslev (1943), che

riprende da De Saussure l’idea che il segno è l’unione di un significante e

di un significato, ritiene che la funzione segnica sia la relazione tra il piano

dell’espressione (significante) e quello del contenuto (significato) e che

questa relazione prenda il nome di denotazione che a sua volta può

essere espressione di un altro contenuto la cui relazione prende il nome di

connotazione104 che è una significazione addizionale.

Il modello percettivo uditivo/musicale procede dal suono alla musica

o, in altre parole, la decodifica inizia dal piano dell’espressione per arrivare

124

104 «Se l’espressione /casa/, che denota il contenuto “edificio di uso privato”, viene pronunciata con la “c” aspirata toscana, allora tale espressione contrae una seconda relazione con il contenuto connotativo “toscanità”» (Traini 2006, 79).

a quello del contenuto, così, se si volesse implementare il modello di

percezione musicale con la funzione segnica di Hjelmslev, si ipotizzerebbe

che la denotazione debba precedere la connotazione per due motivi: in

primo luogo, per contiguità con gli studi di psicologia, l’elaborazione del

materiale musicale procede da un’elaborazione caratteristiche fisiche a

quelle dello stimolo per quello che significa. In secondo luogo, per

contiguità con il concetto di langue e parole, l’elaborazione del materiale

musicale avviene in un primo stadio secondo procedimenti comuni a tutti

gli uomini – che abbiamo potuto vedere negli universali musicali –,

successivamente per il significato “sintattico” di una determinata cultura

musicale – che abbiamo potuto vedere in merito alla sintassi musicale – e

infine per il significato che l’ascoltatore associa al suo oggetto musicale105

e secondo noi più si aggiungono livelli connotativi più ci si dirige verso

l’individuale. Ritornando perciò al nostro modello di percezione del

125

105 Il percorso della percezione qui delineato in termini di universale/culturale è osservabile grosso modo anche in termini neuroscientifici nel percorso che l’informazione compie procedendo dagli organi di senso verso la corteccia cerebrale: inizialmente il suono viene elaborato per la sua importanza ai fini della sopravvivenza (localizzazione, intensità e frequenza), successivamente sempre per tali motivi si compie l’analisi della scena uditiva secondo i principi della Gestalt. Solo in un secondo momento il materiale acustico diviene musicale e per esserlo vi è bisogno di cultura, per esempio, un rumore improvviso e molto intenso attira maggiore attenzione di una meravigliosa sinfonia di Mozart, questo perché Mozart non è indispensabile alla sopravvivenza. Questa premessa per dire che le elaborazioni di basso livello vengono svolte in aree subcorticali che potremmo chiamare “primordiali” per via del loro antecedente sviluppo sia a livello ontogenetico che filogenetico, le elaborazioni di alto livello invece vengono svolte nella corteccia cerebrale, cioè quella che grosso modo corrisponde alla memoria semantica e che per la sua ampiezza e capacità distingue l’uomo da tutti gli altri animali. Un altro caso che ci aiuta a comprendere questa differenza tra basso e alto livello ci viene dalla teoria di Chomsky (1965) secondo la quale la lingua madre viene acquisita – entro i dodici anni – senza sforzo e senza consapevolezza a differenza di una lingua che si deve imparare il cui apprendimento richiede sforzo e consapevolezza. Questo dimostrerebbe in un altro modo la differenza tra innato e culturale, nel senso che l’acquisizione della lingua è un fenomeno basato sulla facoltà innata di linguaggio propria dell’uomo, infatti è dimostrato che mentre l’elaborazione della lingua madre si rintraccia grosso modo nelle aree di Broca e Wernicke, quella di un linguaggio appreso avviene in altre zone della corteccia cerebrale. Sembra, tuttavia, che un lungo training musicale influisca sulla capacità di decodificare la prosodia del parlato grazie all’enorme capacità cognitiva richiesta dalle operazioni musicali; il materiale musicale, dunque, sembra essere elaborato dai musicisti come un linguaggio naturale, al punto tale da modificare la forma dello strato subcorticale (Wong et al. 2007).

significato musicale, avremo che in un primo momento un determinato

frammento musicale verrà elaborato per il suo significato sintattico,

successivamente per quello semantico in senso stretto. Nella denotazione

vi è un giudizio di coerenza con una determinata sintassi, cioè gli accordi

vengono valutati nel loro significato funzionale, successivamente, nella

connotazione, si compierebbe un’ulteriore elaborazione, di carattere

connotativo, cioè una significazione secondaria. Si potrebbe per cui

mettere in ordine i significati musicali individuati da Koelsch e collaboratori

(2004) disponendoli lungo un asse che dalla denotazione arriva alla

connotazione, che dalle esperienze comuni all’uomo come ad esempio la

metaforizzazione spaziale, si proceda verso un significato legato a una

cultura come ad esempio il riconoscimento di un inno di stato, fino a

un’esperienza personale come nel caso di una musica associata a

un’esperienza personale.

Riassumiamo il modello ipotizzato di percezione del significato

musicale come un sistema strutturato in blocchi che si susseguono a

livello temporale: i) elaborazione delle informazioni relative al suono quali

frequenza e intensità; ii) applicazione dei principi di organizzazione

percettiva; iii) analisi del contorno melodico, l’analisi degli intervalli e

codifica in un sistema tonale; iv) costruzione di una struttura musicale

quale armonia, ritmo e metro; v) associazione di questi elementi a un

lessico musicale; vi) associazione del lessico musicale tramite memoria

associativa a un lessico extra-musicale.

126

2.2.6.3. Prime conclusioni sul significato musicale

Come già accennato, la semiotica considera il significato musicale

come esterno alla musica, mentre la psicologia lo individua nella sintassi.

Pesetsky (2007) afferma che la musica si differenzia dal linguaggio

naturale in quanto manca un lessico con un referente esterno. Se da un

lato è difficile dimostrare che la musica possieda un significato extra-

musicale, dall’altro è facile dimostrare che alcune parole del linguaggio

non abbiano un referente esterno, il significato di queste parole, come

quello individuato dagli psicologi in ambito musicale, è prettamente

funzionale. È il caso delle congiunzioni, cioè quelle parti invariabili del

discorso che coordinano o subordinano unità sintattiche, o il caso dei

pronomi il cui scopo è quello di sostituire un sintagma e che assumono un

significato contestuale come nel caso della frase “la macchina che ho

comprato ieri” dove il che sta per la macchina. In musica, analogamente,

le “parole” sono utilizzate per coordinare altre parole il cui significato,

come già evidenziato dagli studi psicologici è specificatamente sintattico.

È anche vero che, come abbiamo visto, un elemento musicale

esprime sia un ruolo sintattico che qualcos’altro per cui la coppia di

accordi SOL7-DO denoterebbe in primo luogo una cadenza perfetta, poi

una dissonanza che segue una consonanza, potrebbe inoltre connotare

una tensione dissipata, o ancora rappresentare metaforicamente uno stato

di disagio a cui segue uno stato di agio e, aggiungendo strati di

significazione, se realizzata in un certo modo, questa cadenza potrebbe

rappresentare la classica chiusura del periodo musicale nel ballo liscio, o

ancora, se i due accordi sono disposti ad altezze differenti, è possibile

connotare una spinta positiva se l’intervallo è ascendente o negativa se

discendente.

127

Si potrebbe riassumere che per parlare di significato musicale è

necessario individuare prima il livello in cui questo può essere rintracciato

e risulta quindi necessario a tale scopo fornire il modello del segno

musicale.

2.2.7. Il segno musicale

Dal modello di percezione del significato musicale si intuisce che

l’elaborazione cognitiva del materiale musicale procede: i) da regole

universali a regole culturali; ii) da un’elaborazione sensoriale ad una

cognitiva; iii) dalle caratteristiche fisiche dell’oggetto al significato che esso

richiama nella nostra memoria a lungo termine quindi; iv) dall’espressione

al contenuto perciò; v) dall’espressione individuale – la parole di De

Saussure e la struttura di superficie di Schenker – al contenuto culturale –

langue e struttura di base. Da queste premesse è possibile far derivare

un’analoga teoria del segno musicale aiutandoci ancora una volta con la

definizione di funzione segnica individuata da Hjelmslev (1943), la quale

implica un’espressione e un qualcosa di espresso che viene chiamato

contenuto. Questi due piani a loro volta vengono suddivisi, nel suo

impianto teorico, in materia, forma e sostanza dove la materia è tutto

quello che può essere formato, la forma è ciò che appunto forma cioè la

griglia di pertinentizzazione della materia, e la sostanza è la materia

formata. Come già anticipato, sembra che i modelli di percezione musicale

riflettano, attraverso la strada che il suono compie per divenire musica e

poi qualcos’altro, un percorso analogo che dal piano dell’espressione

conduce a quello del contenuto. Tenendo presente che, se per formare un

enunciato orale si procede dalle strutture astratte alla successiva

realizzazione concreta in un percorso che dalla sintassi attraverso

128

l’inserimento delle parole, poi con l’articolazione si produce un suono, per

decodificare un enunciato si procederà inversamente: dal suono, quindi

dal riconoscimento delle parole, in seguito attraverso le regole della

sintassi infine, estrapolando la gerarchia, si evince il significato, e lo

stesso meccanismo di codifica e decodifica si può dire che avvenga per la

musica. Ogni livello possiede delle proprie regole di formazione che dalla

materia informe conduce a una sostanza formata, dove è fondamentale il

concetto di “generatività”.

A questo punto ci torna utile ricordare quanto detto da Marconi

(2001a) in merito al muso del San Bernardo che appare come “espressivo

della tristezza”. Anche in musica un brano “espressivo della tristezza”

viene spiegato da Marconi in termini di imitazione di un’espressione

vocale di tale stato. Come è possibile allora rintracciare il contenuto nel

segno musicale? Proviamo a pensare a un qualcosa composto da diversi

piani, ognuno dei quali suddiviso in materia e forma la cui sostanza, cioè

la sintesi dell’interazione tra queste due e viene generata nel piano

sottostante. Individuiamo ora, dal più esterno al più interno, sei piani del

nostro segno musicale che chiamiamo, esecuzione, suono, tono, sistema,

denotazione e connotazione dove gli strati superficiali, attraverso un

procedimento ricorsivo, generano quelli più interni. Questo modello ci

aiuta a concepire il segno musicale alla luce del fatto che tutto oggi può

considerarsi musica, dove “tutto” si intende essere qualsiasi materia e

qualsiasi forma in qualsiasi piano, si vuole perciò fornire un modello che

non tenga in considerazione la sola musica tonale, ma anche quella

aleatoria e quella elettronica. Ricordiamo che se da un punto di vista

ricettivo gli strati superficiali sono l’espressione di quelli interni, è anche

vero che dal punto di vista dell’emittente coincidono con la condizione

necessaria senza la quale il messaggio non ci sarebbe: il timbro di voce di

129

una persona, poi la lingua, sono la conditio sine qua non del suo

enunciato orale, come in musica vi è il timbro e il temperamento.

PIANO strato

ESECUZIONE M: tutto il meccanico

F: limiti biologici, meccanici, fisici

SUONO M: udibile

F: forma d’onda

TONO M: udibile

F: temperamento

SISTEMA M: n note

F: sintassi, organizzazione

DENOTAZIONE M: ambiguità metrica armonica ecc.

F: accordi, struttura, metro

CONNOTAZIONI -- significazioni aggiuntive

metafore di movimento e spazio

associazioni personali

associazioni affettive

Il piano dell’esecuzione è ciò che nel modello percettivo viene

elaborato nei primissimi stadi e riguarda il suono preso per sé nelle sue

caratteristiche fisiche che a un livello musicale corrisponde alla

riproduzione meccanica e per questo motivo la materia comprende tutto

ciò che è possibile “fare nel mondo”, i cui limiti biologici, fisici e meccanici

di esecuzione rientrano nella forma. Ci è sembrato opportuno includere

questi limiti, in quanto diverse forme nel piano dell’esecuzione possono

già delineare un effetto di senso in quanto la musica può essere rumore

prodotto da un martello pneumatico, una musica creata al computer di

impossibile esecuzione umana o una musica suonata dall’uomo. Nei limiti

130

umani ad esempio possiamo vedere l’impossibilità a raggiungere certe

velocità di esecuzione, dove nei limiti fisici si scorge l’impossibilità di

sentire certi suoni come ad esempio l’onda quadra perfetta106 mentre nei

limiti meccanici che sono in qualche modo legati con quelli fisici capiamo

che un diffusore non potrà mai replicare perfettamente ciò che viene

registrato da un microfono come questo non riuscirà a registrare

perfettamente ciò che uno strumento reale produce. A livello di musica

suonata nella forma dell’esecuzione distinguiamo il tocco dello

strumentista – cioè le minime variazioni individuali lungo le dimensioni di

tempo (assoluto) e frequenza – ma anche il momento esatto in cui questo

suona, per cui due versioni della Quinta sinfonia di Beethoven anche se

suonata dallo stesso strumentista comporta una variazione nel piano

dell’esecuzione e lo stesso discorso è valido per i supporti audio: una

registrazione della Quinta sinfonia di Beethoven a 16bit è diversa da una a

24bit.

Il piano dell’esecuzione genera quello che chiamiamo piano del

suono. Bisogna osservare che nel Novecento il rumore107 è entrato

prepotentemente nel nostro sistema musicale e il modo in cui Henri

Pousseur lavora all’opera Scambi ci appare significativo, infatti il

compositore “forma” dal rumore attraverso degli equalizzatori determinati

intervalli di spettro sonoro fino ad arrivare a porzioni talmente ridotte che

riesce a estrapolare un’onda sinusoidale, un procedimento sottrattivo in

cui si scorge un’analogia con la scultura. In questo piano la materia è

composta da tutte le frequenze che l’uomo può udire dove la forma

131

106 L’onda quadra esiste solamente a livello teorico, poiché essendo quadra si dovrebbe trovare nello stesso momento in due punti differenti.107 Qui si intende rumore in senso lato e senso stretto, dove al primo corrisponde l’idea condivisa di rumore in opposizione al suono intonato, al secondo corrisponde il termine tecnico di “rumore bianco” come suono caratterizzato dalla presenza aleatoria di tutte le frequenze udibili.

estrapola da queste una precisa “forma d’onda” che è quello che in

musica viene chiamato timbro. Il piano del timbro genera ed è espressione

di quello del tono, in quanto un tono può essere riprodotto con diversi

strumenti.

Il piano del tono, benché in rapporto al modello percettivo

corrisponda ancora ai bassi livelli di elaborazione, inizia a lavorare sul

materiale musicale e riguarda l’aspetto fonologico della musica dove nella

materia vi è un continuum di suoni armonici108 che comprende ancora

tutto l’udibile, nella forma vi compaiono i temperamenti, cioè le regole che

stabi l iscono quanto e come segmentare l ’ottava – cioè la

pertinentizzazione – ed è l’espressione del piano chiamato sistema in

quanto è possibile suonare (o meglio, tradurre) un brano in diversi

temperamenti come ad esempio la musica antica che prima dell’attenta

filologia novecentesca veniva eseguita col temperamento equabile

ignorando quelli del tempo.

Il sistema è quel piano in cui si lavora sui suoni individuati dal

temperamento (essendone la sostanza) che rientrano nello strato della

materia, per esempio la sostanza del piano del temperamento nella

musica tonale è composta da dodici note e che sarà la sintassi a dare a

queste una forma e un percorso. La sintassi corrisponde alla strategia di

organizzazione del materiale della sostanza individuata dal temperamento

che è la forma del piano del suono e che in occidente il più delle volte

corrisponde al sistema tonale, ma che può coincidere anche con la

132

108 La differenza tra suono armonico e inarmonico è rintracciabile nelle componenti spettrali, dove nel primo queste hanno un rapporto numerico di 2:1, mentre nel secondo non vi è alcun rapporto. Un suono armonico è per esempio il suono di una corda che vibra o quello della voce umana, un suono inarmonico è il rumore bianco, un sasso che cade, una campana e molti strumenti dell’orchestra che vengono chiamati appunto “non intonati”.

dodecafonia o con l’atonalità. Queste regole formano il materiale musicale

in accordi, percorsi melodici, strutture ritmiche e metriche.

Il piano della denotazione corrisponde ai procedimenti cognitivi di

alto livello come quelli indagati, per esempio, in ambito psicologico nelle

ricerche sul priming armonico che appunto sono la sostanza formata dalla

sintassi armonica. Nello strato della materia compare tutto il materiale

scaturito dalla sintassi; è compito della forma dare un primo significato

che, come abbiamo visto nel modello percettivo, è di carattere sintattico.

Ad esempio: le note DO-MI-SOL denotano l’accordo di DO maggiore e un

accento posto ogni tre note denota un ritmo ternario. A seconda della

forma, che anche in questo caso è dettata dalla sintassi musicale, alla

materia DO-MI-SOL vi corrisponderà una sostanza diversa questo infatti può

essere anche la configurazione di un accordo di LA minore di settima

senza la fondamentale109. È su questo piano che lo stimolo polisemico

riceve un’identità, come nel caso delle figure ambigue in cui le

interpretazioni vengono considerate tutte

egualmente plausibili e dare a ognuna, volta per volta, un posto nello stato di coscienza, cosicché ogni volta diveniamo coscienti di una sola interpretazione (Zeki 2007, 85).

Come afferma Hjelmslev, la connotazione è una significazione

aggiuntiva ed è il contenuto di un’espressione che include a sua volta

un’espressione e un contenuto, per esempio la parola “cuore” denota

“muscolo indispensabile alla vita” e connota “sede dei sentimenti”. Nella

133

109 Riguardo l’interpretazione degli accordi, ricordiamo che nell’Ottocento, in cui regnava la concezione dell’armonia dettata dalla serie armonica del suono teorizzata da Rameau, l’accordo diminuito del VII grado (ad esempio il SIdim in tonalità di DO maggiore che è composto dalle note SI-RE-FA) veniva pensato come il primo rivolto dell’accordo di settima costruito sulla dominante senza la fondamentale in quanto l’accordo diminuito non compare nella serie armonica e quindi nella natura del suono.

connotazione non vediamo la possibilità di suddividere il piano negli strati

della materia e della forma, quanto la possibilità di aggiungere strati di

connotazione: dopo aver denotato il concetto di tonica, “tonica” può

connotare riposo e in un contesto più ampio “riposo” può connotare,

attraverso una metafora, lo stato di pace raggiunto dopo uno stato di

tensione. Nella connotazione si ritrovano tutti gli esempi visti

precedentemente sugli intervalli, sulla melodia e in quei casi di musica che

imita le espressioni vocali nonché il movimento.

Ognuno di questi piani contribuisce a fornire un effetto di senso. Se è

facile pensare alle conseguenze di una melodia piuttosto che un’altra,

soffermiamoci allora sull’effetto che produrrebbe una minima variazione

nello strato della forma sul piano del suono come nel caso degli

amplificatori per chitarra di fattura inglese piuttosto che americana, che

hanno caratterizzato e reso celebre nonché riconoscibile il suono di un

paese dove il caso più emblematico è rappresentato dal chitarrista dei

Queen Brian May. Se in studio Brian May avesse deciso di usare, per le

stesse identiche parti, un altro amplificatore, il risultato avrebbe portato a

una minor connotazione di “inglesità”, andando a toccare di conseguenza

anche la sfera emozionale. Infatti, questi piani interagiscono con le

emozioni nella stessa maniera dei moduli percettivi evidenziati da Koelsch

e Siebel (2005): un’esecuzione particolare può emozionare più di un’altra,

ma anche un’idea melodica o un complesso procedimento armonico

nonché il modo di richiamare un referente esterno alla musica come nel

caso dell’onomatopea o interno come nel caso dell’intertestualità e lo

stesso vale per i procedimenti imitativi che si ascoltano nelle fughe. Tutti

questi esempi sono serviti per mostrare come la musica, ad ogni livello di

analisi, susciti emozioni, come è anche vero che queste determinano il

tipo di ascolto – come abbiamo visto nella breve citazione di Zarlino

134

(1558) – nel senso che, come in un vortice, una buona predisposizione

aiuta a ben predisposrsi.

Questo modello aiuta a capire come sia possibile emozionarsi con un

brano dodecafonico, uno elettronico o aleatorio: nel caso della

dodecafonia ciò che viene apprezzato dall’ascoltatore è la scelta, da parte

del compositore, del modo in cui si organizza il materiale musicale che

avviene nel piano del sistema, e non fa certo eccezione John Cage – che

con la cui musica aleatoria intendeva spodestare il compositore da una

posizione dominante – in quanto una scelta a livello di sistema in ogni

modo la compie, cioè “non organizzare”, anche perché sappiamo che pure

il non voler comunicare è comunicare.

2.2.8. Conclusioni: un linguaggio poetico

Nella nostra proposta linguistica abbiamo avuto modo di scoprire, in

una prospettiva strutturale, quanti aspetti della musica siano condivisi con

quelli del linguaggio. Parncutt (1989) sostiene che l’ambiguità in musica

gioca un importante ruolo perché genera aspettative multiple, mentre nel

linguaggio naturale è da evitarsi, ma parlare di linguaggio nel caso della

musica è inappropriato, e se mai la musica fosse un linguaggio sarebbe

certo più vicina alla poesia che alla prosa. Se vogliamo attribuire alla

musica una delle funzioni del linguaggio individuate da Jackobson (1966),

rintracciamo una funzione principalmente poetica cioè che è incentrata sul

messaggio e sulla sua elaborazione formale. È vero che, sia nel

linguaggio musicale che in quello naturale, la sintassi è importante al fine

di veicolare un messaggio in quanto senza questa risulterebbe

incomprensibile, ma nel linguaggio poetico, a differenza della prosa, è

fondamentale la ripetizione e la struttura in versi, inoltre è volto a

135

rappresentare immagini e suscitare emozioni, tutte caratteristiche che

abbiamo potuto vedere nel corso di questo lavoro anche per la musica. Il

concetto di frase in musica è molto noto e ogni manuale di analisi ci

insegna che dallo sviluppo di una cellula melodica è possibile creare frasi

molto lunghe o addirittura intere sinfonie110. Il discorso musicale si articola

in un continuo alternarsi di frasi, che possono essere viste come una serie

di domande e risposte che a loro volta insieme forniranno la domanda a

una nuova risposta e così via111 e proprio come nella metrica vengono

distinte in base a uguaglianza, somiglianza e diversità usando le lettere

dell’alfabeto112. Aggiungiamo oltre a ciò che il linguaggio per descrivere la

musica fa ampio uso del vocabolario usato per descrivere il testo poetico,

per fare un esempio, se prendiamo un dizionario di metrica scoviamo che

su circa duecento voci, oltre la metà riguardano in qualche modo la

musica (Bertone 1999) e ciò anche per le cause storiche che abbiamo

potuto vedere in merito alla retorica musicale.

Per rintracciare un referente in musica è necessario situarsi nel

livello della connotazione, lo stesso avviene per il testo poetico mentre nel

testo in prosa ciò avviene in minor misura. Fondamentale per la musica e

per la poesia è quella che viene chiamata “licenza poetica” ossia la

possibilità di uscire dagli schemi grammaticali al fine di conseguire un

risultato sonoro o visivo, ma soprattutto è molto importante l’ambiguità

lessicale, che permette di aprire diverse vie interpretative; strumenti

questi, il cui fine può essere rintracciato nel pensiero di Meyer (1956) in

136

110 Celebre è il primo movimento della Quinta sinfonia di Beethoven costruito attorno alla cellula melodica semicroma-semicroma-semicroma-minima.111 Questi elementi sono l’inciso, la semifrase, la frase e il periodo.112 Per distinguere le componenti formali in musica si utilizzano le lettere dell’alfabeto cosicché l’uguaglianza viene rappresentata dalla stessa lettera, la similitudine dalla stessa lettera apostrofata e la diversità con lettere diverse. Ad esempio: A è uguale ad A, diverso da B e simile ad A’ (sulla forma cfr. Bellisario 1981; Azzaroni 1997).

merito alle aspettative musicali e cioè che sono necessari a rendere

l’opera interessante. Se in merito all’ambiguità del linguaggio musicale ci

siamo già esposti, cerchiamo di capire cosa si può intendere per licenza

poetica in musica chiamando in causa l’opera di Richard Wagner

(1813-1883) che è stato il precursore della disgregazione tonale, colui che

ha esasperato il cromatismo e anticipato l’atonalità di Schönberg che

sarebbe poi sfociata nella dodecafonia. Wagner, pur collocandosi in pieno

romanticismo cioè all’apogeo del sistema tonale, utilizza un linguaggio

basato sulla defunzionalizzazione delle quadriadi che distruggono le forze

attrattive della “vecchia” armonia tonale da cui ne risulta una musica

apparentemente dissonante (pur riflettendo un’armonia di base simile a

quella dei suoi colleghi) costruita con un linguaggio che si può dire basato

sulla sintassi tonale, ma da cui prende le distanze per motivi poetico-

espressivi.

137

2.3 Tassonomia delle figure imitative

Arrivati a questo punto della ricerca, è il momento di proporre una

tassonomia delle figure musicali di imitazione analizzate nei termini della

nostra proposta di segno musicale. Per elaborare questa parte ci siamo

serviti del modello di descrittori linguistici del suono musicale (linguistic

descriptors of musical sound) proposto da Thomas Porcello (1996).

Servendosi del modello tripartito delle strategie linguistiche per la

mappatura della forma sonora di Rhodes (1994) – in cui si tripartisce il

continuum linguistico in forme non lessicali, forme onomatopeiche e forme

arbitrarie –, Porcello conduce la sua ricerca negli ambienti degli studi di

registrazione americani allo scopo di rintracciare le strategie utilizzate dai

musicisti per parlare del timbro musicale individuandone cinque: forme

non lessicali, forme onomatopeiche che violano le regole fonologiche,

forme onomatopeiche che non violano le regole fonologiche, parole poco

arbitrarie e parole arbitrarie. Nelle forme non lessicali, l’autore rintraccia

tutti i fonemi che iconicamente mimano le caratteristiche ritmiche e

timbriche del suono come /mːː/, /dzːː/ o /sːː/; in quelle onomatopeiche si

individuano in primo luogo parole esistenti ma storpiate per accentuarne la

componente imitativa, come ad esempio /hisːːː/ o /wæk + vocale nasale/,

in secondo luogo parole esistenti che aderiscono alle regole fonologiche

come /his/ o /kwæk/; nelle parole poco arbitrarie rintraccia una certa

componente onomatopeica, mentre in quelle arbitrarie riconosce la

metafora.

Porcello considera come oggetto di studio il linguaggio il cui

referente è la musica, qui invece l’oggetto di studio sarà la musica il cui

referente è un qualcosa di extra-musicale, come strategia argomentativa

verranno utilizzate metafore che provengono dall’arte figurativa, infatti,

138

analogamente all’arte figurativa e al linguaggio, anche per la musica è

possibile distribuire le figure di imitazione lungo il continuum della fedeltà

che va dalle figure arbitrarie a quelle di analogia secondo un percorso

inverso a quello delineato dalla percezione musicale, cioè che dagli stadi

di elaborazione cognitiva si proceda verso quelli più sensoriali. Pertanto,

ciò che si vuole discutere e che verrà disposto secondo un grado di

imitazione crescente, riguarda le metafore, le onomatopee linguistiche,

quelle extra-linguistiche, le registrazioni sonore di Luc Ferrari e il brano di

John Cage 4:33.

2.3.1. Metafora

Nella retorica del linguaggio naturale la metafora è la «sostituzione di

una parola con un’altra […] che abbia con la prima un rapporto di

similarità», in altre parole «vediamo A nei termini di B e insieme B nei

termini di A» (Calabrese 2008, 77); tale rapporto si basa in realtà su una

doppia metonimia in quanto viene presa una parte del termine A per

rappresentare una parte del termine B. In musica la metafora è

rintracciabile nelle categorie spaziali come ad esempio associare a un

suono acuto il concetto spaziale di “alto”. Rientrano nelle metafore le

analisi compiute da Stefani, Marconi e Ferrari (1990) in merito agli

intervalli musicali quando ad esempio si è parlato di grandi spazi in

rapporto ad ampi intervalli musicali. La metafora spaziale appartiene da

sempre alla musica tanto che già nel canto gregoriano si osservano casi in

cui la melodia descrive il testo – come ad esempio associare alla parola

«Ascendit» un’impennata vocale –, ma come osserva Cattin (1991),

questo fenomeno non è una costante, piuttosto i cantori erano molto

attenti a seguire una coincidenza, quasi sempre perfetta, tra le cadenze

139

testuali e quelle musicali. In Dolcissima mia vita di Carlo Gesualdo

Principe di Venosa (ca. 1560-1613) si utilizza una pausa come metafora

del grido che si perde nel vuoto, mentre i bruschi salti tra tonalità lontane

rappresentano la lontananza del bramato aiuto e le fiamme dell’amato

agitato corrispondono a rapide scale ascendenti sulle varie voci.

Crediamo che un rappresentante della metafora musicale sia il

celebre brano tratto dal film 2001: Odissea nello spazio di Kubrick (1968),

tratto dal poema sinfonico Also sprach Zarathustra di Richard Strauss

(1864-1949) ispirato all’omonimo libro di Nietzsche, in cui si è voluto

tradurre in musica l’avvento del superuomo e dove si intuisce una certa

contrapposizione tra natura e cultura. Il brano si apre con un pedale di

DO113 tenuto dai contrabbassi (la nota più bassa che la sezione degli archi

può eseguire) sul quale gli ottoni eseguono un breve frammento melodico

ascendente di tre note: DO SOL DO, che definiamo “incipit primordiale” in

quanto si scorge, senza compromessi, una citazione della forza creatrice

della natura. Infatti in natura, un qualsiasi suono intonato (come ad

esempio le corde vibranti o la voce) è scomponibile in diverse componenti

– onde sinusoidali, che peraltro in natura non esistono – che sono in

rapporto armonico. Ad esempio, se una corda vibra a 110Hz significa che

se scomposta avremo diverse onde sinusoidali multiple di 110 quindi: 110,

220, 330, 440, 550, 660, 770, 880 e così via che tradotte in note musicali

equivarranno a DO-DO-SOL-DO-MI-SOL-SIb-DO114. Vediamo allora in questa

melodia, la rappresentazione del più presente e naturale tra tutti i suoni

ossia la fondamentale di DO tenuta dai contrabbassi e le successive tre

140

113 Per pedale si intende una nota, o un accordo tenuto per diverse battute.114 I rapporto tra le frequenza e le note musicali è fittizio, alla frquenza di 110Hz corrisponde alla nota di LA. (cfr. Pierce 1988).

componenti armoniche sviluppate melodicamente dagli ottoni115.

Successivamente a queste tre note si raggiunge il climax con un accordo

eseguito dall’intera orchestra che si trasforma: cosa sentiamo? Il secondo

accordo è meno potente del primo, da perfetto diviene imperfetto, infatti è

un DO maggiore che diventa minore. La serie armonica che genera in

maniera del tutto naturale un accordo maggiore (DO-MI-SOL), non può

generare quello minore e per estrapolarlo è necessario mettere la serie in

sequenza facendola iniziare da un altro punto e sottrarne degli altri, per

cui un procedimento artificiale. Per Strauss allora, l’accordo maggiore

rappresenterebbe la natura perché è naturale, consonante e connota

positività, quello minore invece rappresenterebbe l’uomo perché artificiale,

imperfetto e dissonante. Il suo intento è stato probabilmente quello di

imitare la natura attraverso la melodia per poi contrapporla all’artificio

dell’uomo con l’armonia. Se, in primo luogo, Schönberg (1967), nella

melodia (i suoni in successione) si ha “l’analisi”, mentre nell’armonia (i

suoni presentati contemporaneamente) si ha la “sintesi” e, in secondo

luogo, la polifonia da un punto di vista storico si affaccia nella storia della

musica in seguito alla monodia, possiamo pertanto intuire che Strauss

abbia voluto in un primo tempo analizzare la natura nella sua essenza con

la serie armonica e successivamente, sintetizzandola, l’abbia voluta

contrapporre all’uomo, cioè alla cultura, anch’essa rappresentata nel

passaggio dalla melodia all’armonia e poi dal maggiore naturale al minore

artificiale.

Un caso particolare di metafora è rappresentato da Camille Saint-

Saëns (1835-1921) che nel suo Le carnaval des animaux ha dato vita a un

vero e proprio zoo musicale in cui metafore e onomatopee si alternano.

141

115 Ricordiamo che gli ottoni sono strumenti nati senza pistoni le cui uniche note che potevano eseguire erano appunto quelle delle prime armoniche (cfr. Rimsky-Korsakoff 1891).

Ciò che interessa in questo lavoro oltre alle onomatopee, è l’accostamento

di metafora e intertestualità nonché il double coding, individuabile nel fatto

che le citazioni di musiche che si potrebbero definire “alte” entrano in un

contesto musicale definito dallo stesso autore triviale, al punto che per

volontà dello stesso l’opera non doveva essere eseguita prima della sua

morte. Per suggerire la lentezza delle tartarughe ad esempio, il

compositore non sceglie semplicemente un tema lento, ma prende il

rapidissimo galoppo infernale dall’Orphée aux enfers di Offenbach e lo

adatta al ritmo di queste; lo stesso procedimento viene utilizzato per

l’elefante di cui, in questo caso, non si vuole evidenziare la lentezza,

quanto l’imponenza e adotta uno dei temi tratti da La damnation de Faust

di Berlioz (1803-1869) abbassandolo di più ottave. Saint-Saëns dunque

non si accontenta di rappresentare la lentezza o la mole attraverso le

caratteristiche ritmiche e melodiche che abbiamo potuto vedere in merito

alla melodia e agli intervalli (Stefani, Marconi e Ferrari 1990; Stefani e

Marconi 1992), piuttosto preferisce servirsi del termine di paragone: la

tartaruga non è lenta ma è “rallentata”, allo stesso modo l’elefante non è

grande ma “ingrandito”. In ambito pop-rock citiamo i Queen che in

Bohemian Rhapsody, laddove il testo recita «Sends shivers down my

spine», tentano di riprodurre la sensazione dei brividi, per cui il chitarrista

Brian May percuote le corde della sua chitarra tra le chiavi e il capotasto.

È ovvio che dai brividi lungo la schiena non scaturisce alcun rumore e se

volessimo rintracciare una figura retorica per questa soluzione musicale

potremmo pensare all’ipotiposi, figura retorica che enfatizza gli elementi

concreti diminuendo quelli astratti. Sempre nella stessa canzone, mentre

Freddie Mercury canta «Easy come easy go» un crescendo dinamico di

pianoforte rappresenta appunto “l’arrivo”.

142

2.3.2. Onomatopea

Per descrivere l’onomatopea musicale utilizzeremo due termini di

paragone, le arti figurative e il linguaggio naturale. Se, come visto lungo

l’asse delle analogie, la metafora viene fatta coincidere con l’arte astratta,

le onomatopee possono essere rapportate all’arte rappresentativa a

partire da una forte analogia tra rappresentante e rappresentato. Tuttavia

non riusciamo a scorgere nel dominio visivo una differenza tra

l’onomatopea linguistica e quella extra-linguistica, perciò dovremo aiutarci

con il dominio del linguaggio naturale. Sono note infatti, le parole

onomatopeiche come “abbaiare”, “miagolare”, “strisciare” e “rimbombo” le

quali appartengono a precise categorie (le prime tre sono verbi, l’ultima è

un sostantivo) e rispettano delle regole sia fonologiche che morfologiche:

in quanto parole italiane, non vi sono suoni estranei all’italiano (come /θ/

dall’inglese, /œ/ dal francese o /tɕ/ dal polacco) e non ci sono

combinazioni di suoni improbabili per la nostra lingua (come “trst”, “zdr” o

“the”). Esistono altre parole invece, che possiamo definire extra-

linguistiche in quanto violano una o più regole linguistiche, è il caso di

“vroaaaamm”, “zzz” o altre, come quelle viste con Porcello (1996) in

merito all’esperienza in studio di registrazione, che violano le regole

fonetiche.

Prima di intraprendere una disamina storica sulle onomatopee nella

storia della musica è bene fare una premessa: come è già stato detto, con

il Novecento si assiste all’ingresso del rumore in musica, o meglio

all’ampliamento del concetto di musica che ora racchiude – secondo un

percorso avviato da Marcel Duchamp all’interno delle arti figurative – tutto

il suono, o meglio, come si vedrà con Cage, tutto quello che l’uomo

chiama musica. Per distinguere dunque le onomatopee linguistiche da

143

quelle extra-linguistiche dobbiamo compiere una valutazione storica e

quindi interpretare la musica nel contesto in cui viene creata, per questo

motivo collocheremo Dandrieu nelle figure extra-linguistiche e Ligeti in

quelle linguistiche116. Appare una scelta poco coerente e probabilmente in

contrasto con la nostra idea di ricondurre tutto il materiale musicale al

segno proposto, in quanto, se il piano del sistema implica qualsiasi

organizzazione e vi includiamo anche la musica aleatoria, allora qualsiasi

organizzazione appare linguistica; tuttavia per motivi esemplificativi è

necessario compiere tale distinzione.

Nel primo movimento della Prima sinfonia di Gustav Mahler

(1860-1911) detta Il titano (o Il risveglio della natura), un poema sinfonico

ispirato a Der Titan di Jean Paul, i violini tengono, per tutta la prima parte,

un pedale di LA che rappresenta metaforicamente il primo raggio di sole

che buca l’oscurità, facendo sì che la natura si svegli progressivamente

(Eggebrecht 1994). Su questo pedale, ovvero con il primo raggio di sole,

si alternano delle micro melodie affidate al clarinetto di due note

discendenti, cioè l’onomatopea linguistica del suono del cuculo; l’idea del

clarinetto che esegue gruppi di due note discendenti per mimare il suono

del cuculo è stata usata peraltro anche da Saint-Saëns nel suo Carnevale.

Leóš Janáček (1854-1928), attraverso lo studio del ritmo e dell’intonazione

della parlata ceca, ha sviluppato uno stile musicale vocale improntato sul

linguaggio in cui si ha una strettissima aderenza tra i valori drammatici e

quelli musicali, dove i primi, come per Monteverdi, assumono

un’importanza primaria. A differenza del leitmotiv wagneriano, egli

preferisce utilizzare dei motivi che «ritornano come affioramenti di

memoria» (Vinay 1991), e che vanno a formare delle “melodie di parole”

144

116 Analogamente a quanto avviene nel linguaggio: ciò che è linguistico per l’italiano può non esserlo per il tedesco (a livello fonologico, morfologico e sintattico).

ricavate dalle curve melodiche del linguaggio naturale. Janáček, dunque,

utilizza l’onomatopea al fine di mimare la voce, rimanendo tuttavia dentro il

sistema di riferimento della musica tonale.

Affascinante perché ai confini con la ricerca scientifica, ci appare

Oliver Messiaen (1908-1992), che da appassionato ornitologo, nel

Catalogue d’oiseaux tenta di riprodurre al pianoforte, quindi scrivere su

pentagramma, il canto di diverse specie di uccelli premettendo tuttavia

che, essendo l’uccello un animale molto più piccolo dell’uomo, il range di

frequenze in cui si esprime è decisamente più acuto e quindi il suono

viene spesso abbassato di due o tre ottave; inoltre, i rapporti intervallari,

per lo stesso motivo, non sono quelli nostri del semitono e del tono, ma

molto più piccoli e non riproducibili dai nostri strumenti musicali come

d’altronde i tempi estremamente veloci causati dal loro sistema nervoso

ridotto e molto più reattivo di quello umano. Messiaen compie un lavoro

molto accurato di trascrizione che pur non essendo identico nel tempo e

nel tono, cerca di mantenere i rapporti esatti, ad esempio gli intervalli

minori rispetto al semitono vengono tradotti in intervalli maggiori che

possono essere inseriti nel nostro sistema. Anche Messiaen allora compie

una traduzione dal suono non culturalmente formato a quello formato.

All’inizio del secolo scorso e cioè in un periodo in cui si vuole

esaltare il progresso scientifico e tecnologico, ritroviamo Arthur Honegger

(1892-1955) che mima, nella celebre Pacific 231, il suono della locomotiva

a vapore. Il mondo delle macchine e dei movimenti meccanici è un tema

molto caro alla poetica delle avanguardie storiche che infatti colpisce

anche George Antheil (1900-1959) che musicando Ballet mécanique di

Leger, imita i movimenti meccanici di corpi inanimati attraverso xilofoni e

pianoforte. Al limite delle onomatopee linguistiche ritroviamo il terzo

movimento dal Chamber Concerto for 13 Instrumentalists di György Ligeti

145

soprannominato movimento preciso e meccanico, in cui già il nome ci fa

intuire il contenuto, il quale mette in musica, cioè formalizza, il suono di

ingranaggi di qualsiasi “natura”. È possibile ascoltare il suo personalissimo

uso della poliritmia anche nel Come un meccanismo di precisione tratto

dal secondo quartetto d’archi, ma soprattutto in Poema sinfonico per 100

metronomi dove ci sembra che l’autore abbia avuto l’intenzione di imitare

proprio la sua stessa musica. Si ritiene che queste opere di Ligeti siano al

limite del linguaggio musicale in quanto da un lato vengono trascritte su

una partitura attraverso i segni standard musicali, cioè la notazione,

dall’altro rivelano un chiaro intento imitativo in cui si utilizzano figurazioni

ritmiche talmente inusuali e complesse che all’orecchio di un easy listener

non apparirebbe nemmeno come musica, tuttavia, per il solo fatto di

essere stato notato, lo abbiamo collocato nelle onomatopee linguistiche.

Nel 1988 i Metallica pubblicano …and justice for all che contiene

One, canzone il cui testo è basato sul romanzo di Dalton Trumbo intitolato

E Johnny prese il fucile, in cui si narra di un soldato che durante la prima

guerra mondiale, a causa di una cannonata, perde gli arti, buona parte del

parte del viso e quindi vista, olfatto e udito, ma soprattutto la parola,

rimanendo un tronco incapace di comunicare col mondo. Quello che

sembra interessante è il gioco isoritmico e serrato tra batteria e chitarre

che mima le violente raffiche di mitragliatrice. Il brano è diviso in due parti,

una prima più melodica dedicata al ricordo e alla descrizione della

condizione del soldato, una vera e propria supplica a Dio affinché lo

richiami a sé, e una seconda parte che corrisponde invece a un grido di

rabbia, urlato sulle chitarre mitragliatrici:

146

Il buio mi trattienetutto quello che vedo è orrorenon posso viverenon posso morireuna mina mi ha preso la parolaL’ascoltole bracciale gambela mia anima117

Nel video della canzone, trasmesso nello stesso anno, questa parte

di testo ha inizio proprio sulle immagini dell’omonimo film del 1971 in cui si

mostra esplodere la mina.

Le onomatopee extra-linguistiche, per i motivi espressi in merito alle

diversità tra musiche orali e musiche scritte, non possono essere

rintracciate nel corso della storia della musica in quanto l’unico supporto di

memorizzazione fino al Novecento rimane la partitura; bisogna attendere i

supporti fonografici per poter tramandare e quindi ascoltare, un qualcosa

che non è possibile “contenere” nella dispotica limitatezza della scrittura. Il

primo e unico caso storico di onomatopea extra-linguistica di nostra

conoscenza in epoca pre-incisione ci viene offerto dal compositore

francese Jean-François Dandrieu (1682-1738) che nel suo pezzo Les

caractères de la guerre chiede all’esecutore di colpire con tutta la mano

piatta le note più gravi del clavicembalo al fine di riprodurre i colpi di

cannone, esempio che pur avendo un fine puramente imitativo sembra

anticipare di due secoli l’opera di Henry Cowell, “il pianista che suona coi

gomiti”.

147

117 Traduzione mia dal testo di One, Metallica, …and justice for all (1988).

Nella musica pop-rock, basata sulla registrazione, è più semplice

rintracciare onomatopee extra-linguistiche, ricordiamo il caso particolare di

un virtuoso della chitarra nonché dell’imitazione, Steve Vai, che in Bad

horsie, attraverso l’uso della leva, grazie alla quale è possibile alzare e

abbassare la tensione delle corde, mima il nitrito del cavallo attraverso un

suono che dall’acuto glissa verso il grave alternando rapidi movimenti di

leva a cui corrispondono micro variazioni di intonazione. Come Janáček

anche Steve Vai è molto attento al linguaggio parlato ma, a differenza del

ceco, non è più vincolato alla partitura e, oltre ai supporti di registrazione,

ha a disposizione numerosi effetti elettronici, ma soprattutto gli effetti della

chitarra elettrica il cui il vocabolario, in soli sessant’anni – anche grazie a

lui –, è cresciuto in maniera esponenziale. In Butler’s bag, per esempio,

imita la risata di una persona, mentre in The audience is listening crea uno

sketch in cui si immagina a scuola rispondere con la chitarra

all’insegnante rispettando la prosodia della lingua americana. In Ya-Yo

Gakk sovrappone a una base rock le lallazioni di suo figlio che riproduce

scrupolosamente nel verso successivo, ma è in Kill the guy with the ball

che Steve Vai raggiunge attraverso la chitarra e l’effettistica livelli di

imitazione della voce umana quasi impressionanti.

Dagli esempi illustrati possiamo rintracciare che l’onomatopea

linguistica, per quanto abbia un rapporto iconico con il referente, rimane

tuttavia legata alla cultura e quindi all’arbitrarietà della scelta dei suoni

linguistici che mimano il suono del referente; lo stesso vale per

l’onomatopea extra-linguistica dove analogamente il rapporto rimane in

ogni modo legato all’organizzazione della materia sonora.

148

2.3.3. Luc Ferrari e John Cage

Il compositore francese Luc Ferrari (1929-2005) inizia la sua carriera

musicale con Pierre Schaeffer (1919-1995) lasciando successivamente lo

studio per scegliere la “strada” che gli permette di incorporare nelle sue

composizioni l’espressione dell’intera società (Michel 2001). Di lui

ricordiamo qui Presque Rien ou le lever du Jour au Bord de la Mer, la

sintesi in venti minuti della registrazione di un’intera giornata presso una

spiaggia Jugoslava in cui è possibile ascoltare i suoni ambientali. Benché

nel milieu francese il descrittivismo vanti una lunga tradizione – pensiamo

a Debussy e alla sua La mer –, il brano in questione non rivendica tale

intento, piuttosto intende affermare che tutto è musica, ed è sufficiente

fermarsi ad ascoltare. È stato in ogni modo scelto come caso esemplare in

quanto non rappresenta una stilizzazione, come avviene nelle

onomatopee linguistiche o extra-linguistiche, ma è il punto più alto

dell’analogia in cui l’imitante ha una relazione acustica quasi perfetta con

l’imitato, dove per “analogia” si intende un

rapporto di somiglianza tra alcuni elementi costitutivi di due fatti od oggetti, tale da far dedurre mentalmente un certo grado di somiglianza tra i fatti o gli oggetti stessi (Devoto e Oli 2007).

Infatti, è possibile intuire come la registrazione sonora non sia il

suono registrato, ma semplicemente un suono che con la sua origine

intrattiene un ottimo rapporto di similarità: il suono di chitarra che

ascoltiamo in una registrazione non è il suono di chitarra, ma una sua

traduzione, così come il suono che esce dall’amplificatore non è il suono

delle corde che vibrano, ma una trasduzione che dal dominio meccanico

passa a quello elettrico mantenendo tuttavia un rapporto di analogia.

149

Paragonando la registrazione del dominio uditivo con quella del del

dominio visivo riscontriamo una corrispondenza con la fotografia, non solo

nel tipo di rappresentazione dell’oggetto in questione, ma anche nello

sviluppo del sistema stesso. In entrambi i casi c’è stata un’evoluzione dai

sistemi analogici a quelli digitali; se in un primo tempo la luce veniva

registrata attraverso il bromuro d’argento e il suono attraverso l’ossido di

ferro, ottenendo un rappresentante “analogo” al rappresentato, in un

secondo momento, si è optato per il digitale, il quale comporta sempre una

perdita di informazione a causa della discretizzazione dell’onda sonora o

dell’onda elettromagnetica. Ritornando all’analogia in musica, su un piano

che tiene conto dell’analogia tra rappresentante e rappresentato, la

registrazione sonora viene superata da un solo caso particolare: quello

dove l’imitante coincide con l’imitato.

Questo caso si rintraccia solo in 4:33 di John Cage (1912-1992) che

propone una partitura in cui compare una pausa di quattro minuti e

trentatré secondi. Il silenzio per Cage è «l’insieme dei suoni non voluti

(Cage 1976, 30)», un paradosso che lo stesso autore riconosce in seguito

a un’esperienza in una camera anecoica118, nella quale si è sperimentato

il fatto che il silenzio non esiste se non a livello teorico, in quanto sono

sempre percepibili i suoni provenienti dal proprio corpo. Lungo il

continuum di analogie, il brano di Cage coincide parzialmente con il piano

visivo di una superficie riflettente in cui l’imitante, benché non coincida, è

fatto della stessa materia dell’imitato, ossia la luce, dunque è riflesso

piuttosto che traduzione materica. Considerare lo specchio in una

prospettiva estetica significherebbe vedere l’opera d’arte nell’immagine

riflessa, l’autore nella persona che si specchia e il fruitore nella stessa

150

118 La camera anecoica è un luogo in cui si abbatte la riflessione del suono.

persona che si guarda, allo stesso modo il silenzio di Cage include

implicitamente i rumori prodotti dal pubblico.

Approfondiamo il tema del silenzio attraverso gli strumenti messi a

punto nell’ambito della teoria della comunicazione musicale dal semiologo

e musicologo Jean-Jacques Nattiez (1987) che individua tre attori, il

compositore, l’opera e l’ascoltatore, prevedendo un rapporto poietico tra il

compositore e l’opera e un rapporto estesico tra l’ascoltatore e l’opera.

Utilizzando il modello di Nattiez, possiamo dire che nel silenzio di Cage il

compositore coincide con l’ascoltatore, in quanto il suono ambientale

viene prodotto principalmente dal pubblico. È una questione di

focalizzazione: non è possibile fruire il silenzio della musica di Palestrina

allo stesso modo di 4:33, il silenzio dunque focalizza l’attenzione su ciò

che non è musica, che viene prodotto appunto da chi ascolta.

Cage in realtà, benché si voglia escludere dall’atto poietico, non ci

riesce completamente e attiva nell’ascoltatore una precisa modalità di

attenzione che chiamiamo bottom-up. Nell’ambito della psicologia

cognitiva la distinzione tra bottom-up e top-down si rintraccia nel modo in

cui l’attenzione agisce, nel primo caso essa è attratta dallo stimolo cioè da

fattori ambientali, nel secondo è orientata alla ricerca di uno stimolo, ossia

da fattori cognitivi, nei quali gli obiettivi e le aspettative giocano un ruolo

rilevante. Sembra che in 4:33 l’ascoltatore abbandoni qualsiasi strategia

attentiva rinunciando al suo ruolo di ascoltatore come Cage ha rinunciato

al ruolo di compositore, entrando perciò in empatia.

Perché sono stati scelti questi due esempi? Sia Luc Ferrari che John

Cage nelle due opere citate si sono interessati a un qualcosa di extra-

musicale. Le registrazioni sonore che incidono il suono extra-musicale

sono sterminate, basti pensare alla musica concreta dei Matmos che

sembrano essere i diretti discendenti di Schaeffer o alle lunghe pause di

151

Debussy. Non vi è tuttavia in questi casi l’intento di imitare, ma

semplicemente sia la registrazione che la pausa sono solo strumenti al

servizio della musica o del linguaggio musicale. In Ferrari si vede

l’imitazione in quanto è suo intento far sentire i suoni ambientali, e per

raggiungere tale scopo deve compiere una traduzione, lo stesso vale per

Cage, il quale anch’esso mira a focalizzare l’attenzione sull’ambiente

sonoro, ma in lui non vi è traduzione, infatti, ciò che l’ascoltatore produce

anche lo ascolta, dal produttore al consumatore senza mediazioni.

2.3.4. Prime conclusioni

Le figure imitative che vengono utilizzate in musica sono state

disposte lungo un asse che tiene conto del livello di elaborazione cognitiva

del materiale musicale. Nelle metafore ad esempio, sembra essere

coinvolta la maggior componente cognitiva, cioè le associazioni culturali.

Un dato stimolo musicale prima di essere associato a qualcosa di esterno

alla musica deve essere elaborato per le sue caratteristiche fisiche, poi

semantiche ed infine essere messo in relazione con le conoscenze

immagazzinate nella memoria a lungo termine. In particolare vediamo

Also sprach Zarathustra il cui materiale musicale richiama delle precise

conoscenze tecniche e specialistiche, e Le carnaval des animaux la cui

avanguardistica inter-testualità mette in relazione non più concetti, ma le

musiche stesse.

Un minor livello di partecipazione cognitiva è stato rintracciato

nell’onomatopea linguistica e in quella extra-linguistica, dove non vi si

vede più una rappresentazione attraverso concetti ma una vera e propria

imitazione che avviene su un piano specificatamente sonoro. Mentre

l’onomatopea linguistica implica una certa formalizzazione culturale per

152

via delle categorie fonologiche e morfologiche, quella extra-linguistica

vede una minor componente culturale e i suoi limiti risiederebbero semmai

nell’atto dell’esecuzione e nei limiti meccanici dello strumento. Nel caso

delle registrazioni sonore, l’imitante è analogo all’imitato per cui una

differenza vi si scorgerebbe solo nel livello sensoriale.

153

154

3. RIPRESA

155

156

Nella ripresa, cioè la terza e ultima parte di questo lavoro, si intende

recuperare tutto il materiale esposto e sviluppato nelle sezioni precedenti

e applicarlo all’analisi dei testi sincretici quali gli spot pubblicitari. In ultimo

si trarranno delle conclusioni su tutto il materiale raccolto nonché si

tracceranno delle linee di ricerca per sviluppare quanto rintracciato in

questo lavoro.

157

3.1. Gli spot pubblicitari

Terminata la nostra proposta linguistica nonché la suddivisione delle

figure musicali di imitazione, tentiamo ora di applicare il nostro approccio

musicale all’analisi degli spot pubblicitari. In un primo momento verranno

brevemente esposte le analisi condotte da Linda Scott (1990) e Nicholas

Cook (1994) su un campione di pubblicità americano e inglese a cavallo

tra gli anni Ottanta e Novanta. Queste pubblicità verranno esposte

seguendo il percorso appena delineato per le figure di imitazione che da

quelle più arbitrarie come la metafora e la narrazione musicale condurrà a

quelle che riguardano l’associazione di determinate caratteristiche

musicali a un prodotto reclamizzato. In un secondo momento si compirà

una vera e propria analisi, che terrà conto dei nostri modelli, su due spot

televisivi della nota casa di intimo “Calzedonia” che in un primo tempo

verranno presi singolarmente e successivamente nella loro evoluzione

3.1.1. Alcuni casi

Uno spot dell’aspirina Bayer (USA 1989) si apre con le immagini di

un uomo che soffre di mal di testa a cui viene associato un sottofondo

musicale dissonante che si intensifica mostrando sullo schermo la scritta

“pain”. La dissonanza cresce e raggiunge il climax per cessare

immediatamente appena compare sullo schermo l’immagine del flacone di

aspirine a cui seguono immagini di persone sollevate e sorridenti e una

musica piacevolmente consonante. In questo spot si è sfruttato il senso

comune di disturbo e irregolarità legato alla dissonanza che attraverso la

strategia retorica della metafora diventa dunque “mal di testa”. Per

interpretarla si rende necessario il contesto fornito dallo spot in quanto la

158

dissonanza comunemente non viene pensata in termini di stati fisiologici,

ma attraverso le immagini si viene a creare il rapporto dove la dissonanza

sta al mal di testa come la consonanza sta alla sua risoluzione119. La

dualità del sistema tonale, come fa notare Zuckerkland (1956), risulta

molto utile quando si vuole creare un contrasto, ad esempio per rendere

più gloriosa una parte consonante in seguito a una consonante si

riproduce il disagio e il benefit del prodotto grazie a un’operazione

metaforica di alto livello cognitivo (Scott 1990).

Come tutti ricordano, in Pierino e il Lupo di Sergej Prokof’ev

(1891-1953), la musica viene utilizzata per il suo potere narrativo, allo

stesso modo, anche gli spot possono sfruttare il valore narrativo e di

commento che caratterizza la musica come nel caso dell’antiallergico

Alleract (USA 1989). Un uomo è seduto su una panchina in un parco

pubblico, dietro di lui si osservano delle piante, che probabilmente sono

portatrici di allergeni, si ascoltano dei violini in pizzicato che creano

tensione e il compositore ci sembra applichi la tecnica del mickey-mousing

alle particelle nemiche dell’allergico che cercano di arrampicarsi sulla

panchina per arrivare al povero sventurato. Un rullo di tamburi crea il

climax e introduce il soccorso del prodotto reclamizzato che viene

accompagnato da un suono di tromba che lo designa come eroe, mentre

una voce over descrive il prodotto e la musica diviene piacevole. In questo

spot si possono scorgere diversi procedimenti retorici, innanzitutto,

similmente a come abbiamo visto per l’aspirina Bayer, viene utilizzata la

metafora secondo cui una musica piacevole rappresenta il prodotto e

quella spiacevole rappresenta uno stato precedente all’apparizione del

prodotto, successivamente il mickey-mousing, che possiamo associare

159

119 Il termine “risoluzione” viene peraltro utilizzato in musica per indicare il passaggio da un accordo di tensione, solitamente la settima di dominante, a uno di distensione, spesso la tonica (cfr Piston 1941).

all’ipotiposi, mima il salire degli allergeni accentuandone il “peso” sonoro e

infine vi si trova un’associazione tra lo squillo di tromba e l’effetto di senso

“annuncio” che segue un rullo di tamburi veicolando il significato di “si sta

per annunciare qualcosa”.

Il potere associativo della musica si rintraccia anche nello spot

analizzato da Linda Scott (1990) sulla carbonella Matchlight (USA 1988)

dove si vede un uomo vestito di jeans e cappellino da baseball che si

appresta ad accendere il barbecue, mentre si ascolta la familiare musica

(per l’americano) dei campi da baseball arrangiata per organo in un

crescendo di tensione attraverso l’uso di accordi drammatici. La moglie

offre al marito il liquido per accendere il fuoco, gli accordi diventano

trionfanti, la fiamma si accende e il pranzo può finalmente iniziare.

L’appeal dello spot non proviene dalla piacevolezza della musica, quanto

piuttosto dal suo significato relativo alla nostra esperienza vissuta, chi

vede questo spot, infatti, deve riconoscere il motivo e associare il prodotto

ai significati extra-musicali, o meglio, associare parte del nome del

prodotto, “match”, al significato veicolato sia dalla musica che dalle

immagini, in particolar modo l’abbigliamento dell’uomo, entrambi riferiti al

gioco del baseball. La pubblicità risulta in questo modo più efficace per chi

riconosce la musica dei campi da baseball, in quanto vi riscontra una

positiva associazione. Vi sono altri casi di associazione, come quelli

rintracciati da Cooke (1994) che riguardano in senso stretto la materia

musicale. In uno spot andato in onda nella televisione britannica nel 1992,

si utilizza l’ouverture da Le nozze di Figaro di Mozart per pubblicizzare la

Citroen ZX 16v (UK 1992). Secondo l’autore, la musica di Mozart

associata all’automobile comunica la vivacità del suo motore e la

precisione della sua tenuta di strada, così si rintraccia che gli attributi della

musica vengono trasferiti al veicolo. Egli fa tuttavia notare un apparente

160

paradosso: come è possibile legare Mozart, simbolo di un’arte elevata alla

tecnologia? Lo spot opera una sintesi dove, dialetticamente, arte e

tecnologia si uniscono per dare vita alla Citroen ZX. Quello che si viene a

creare tra immagini e musica dunque è un rapporto di dinamica

interazione dove le immagini aggiungono significato alla musica e questa

alle immagini.

Cook rintraccia un altro caso di associazione, in particolare nello spot

dei piani assicurativi Prudential (UK 1992) in cui si mostra un giovane

volare con la fantasia e proiettarsi nel futuro vedendosi una rock star. Ciò

che ha attirato l’attenzione di Cook è stata l’associazione della musica

classica alla narrazione extra-diegetica e della musica rock a quella intra-

diegetica, dove si riscontra un’archetipica opposizione tra gioventù e

vecchiaia, sogno e autorità, idealismo e pragmatismo: la musica classica

proietta fuori dallo spot la voce over come se fosse una persona

autorevole che appunto lo trascende. È possibile associare anche il valore

di un genere musicale come nel caso dello spot della Volvo 440 Saloon

(UK 1992) dove la musica elettronica atonale e depersonalizzata affianca

immagini della vettura nello showroom, associazione che per Cook evoca

le qualità dell’ingegneria svedese. In un secondo momento invece, la

presenza di musica tonale melodica, eseguita da archi e legni,

evocherebbe, assieme a immagini dell’automobile in garage, valori

familiari e domestici.

La musica può trasferire i suoi attributi alla storia e al prodotto, creare

coerenza e realizzare connessioni tra parole e immagini che non sono

presenti, la qualità connotativa della musica integra, come in un

contrappunto, le qualità denotative delle parole e delle immagini (Cook

1994).

161

Un altro esempio di associazione ci viene fornito dallo spot

dell’automobile Honda LX (USA 1988) che si apre con una situazione

familiare in cui si vede un sorpasso di un autoarticolato da parte della

vettura mentre in sottofondo si sente una musica briosa e vivace.

Zuckerkandl (1956) ricorda che è largamente riconosciuta l’abilità della

musica ad esprimere il movimento perché il suono è movimento (Chion

2001), ma in questo spot Scott (1990) fa notare che non è la musica ad

aiutare le immagini, quanto piuttosto il suo carattere brioso, che avrebbe

potuto accompagnare anche altre immagini. L’autrice continua affermando

che il contesto è indispensabile affinché la musica si carichi di dinamismo,

tuttavia si sarebbe potuta scegliere anche un’altra musica, dal carattere

brioso e vivace, rintracciando perciò la sinonimia musicale. Si fa notare

infine, che il ritmo ripetitivo e crescente – come nello spot della Diet Coke

(USA 1982) analizzato dalla Scott (1990) – della musica, in quanto forma

poetica, permette alla ripetitività di non essere monotona ma anzi

piacevole.

3.1.2. Il caso Calzedonia

Procediamo ora con l’analisi di due spot televisivi della nota casa di

intimo “Calzedonia”, andati in onda nel 2006 e nel 2009, una scelta

motivata in primo luogo dalla particolare rilevanza assunta dal commento

musicale. Lo spot del 2006, “Speriamo che sia femmina”, racconta la

storia di una donna, dalla nascita fino al momento della gravidanza,

attraverso alcuni momenti significativi della sua vita personale, come il

saggio di danza, un colloquio di lavoro importante, il primo amore, il

matrimonio e quindi la dolce attesa. Tutte le sequenze sono girate in

interni, accompagnate dalla canzone “She’s always a woman to me” di

162

Billy Joel e in chiusura compare il claim “Speriamo che sia femmina”. Dura

45 secondi e si divide in 42 inquadrature oggettive della durata media di

un secondo l’una, tutte girate in interni. Si possono individuare otto

sequenze, sette delle quali riguardano la crescita della protagonista dove

ognuna ha per oggetto una tappa importante della sua vita. La sequenza

finale è riservata al logo e al claim.

Nello spot del 2009, “Il futuro è rosa”, si mostra un puzzle di

situazioni che vedono protagoniste diverse ragazze attraverso dei

quadretti isolati che mostrano i diversi personaggi in atteggiamenti

quotidiani. Lo spot sembra concentrarsi su questa comunanza tra sorelle

che, pur non conoscendosi realmente, sono vicine nel loro essere «sorelle

d’Italia», come viene indicato dal testo musicale. Ha una durata di 45

secondi e si compone di 4 sequenze più un’introduzione. In ognuna

vengono ripresi personaggi femminili in comportamenti quotidiani. La

musica, più precisamente il testo cantato, diviene il filo conduttore tra le

sequenze in cui è palese l’intenzione degli autori di creare un sincretismo

tra immagini e musica: le parole della canzone concorrono infatti a definire

le situazioni illustrate attraverso una vera e propria narrazione extra-

diegetica.

La particolarità di questi due spot è l’assenza del dialogo, infatti la

traccia verbale compare solo nel logo e nel claim: nello spot del 2006 è di

carattere verbo-visivo, in quello del 2009 verbo-visivo e insieme verbo-

sonoro recitato da una voce over. Dal punto di vista musicale, i due spot

sono accomunati dal carattere intimo e disteso suggerito dall’organico

molto ridotto che, in entrambi i casi, è composto da voce, pianoforte e

chitarra. Le due pubblicità, tuttavia, differiscono per la preponderanza

dello strumento accompagnatore, che nello spot del 2006 è il pianoforte,

mentre in quello del 2009 è la chitarra acustica. Il commento musicale allo

163

spot del 2006 è un frammento del brano di Billy Joel intitolato She’s

always a woman to me tratto dall’album The Stranger del 1978. Nello spot

del 2009 invece si è preferito un adattamento, più precisamente si è

deciso di declinare al femminile l’inno nazionale italiano, intitolato non a

caso Sorelle d’Italia. La sostanziale differenza tra i due spot, quindi,

risiede nell’utilizzo della musica al fine di instaurare sincretismi tra

immagini e testo musicale nello spot del 2009 e tra immagini ed eventi

musicali in quello del 2006.

3.1.2.1. Ontogenesi e filogenesi

Nello spot del 2006 si rivolge una particolare attenzione al testo della

canzone, dove il ritmo della musica accompagna le immagini,

intervenendo nei momenti salienti. E’ una strategia che si rifà al mickey-

mousing, dove i movimenti dei protagonisti vengono sottolineati dagli

eventi musicali. Questo sincretismo tra immagini e colonna sonora è ben

visibile nelle inquadrature in cui la protagonista strizza l’occhio ai genitori,

congiunge le punte dei piedi e piega la testa con dei movimenti

sincronizzati con gli accordi del pianoforte. Quello di congiungere le punte

è un gesto molto personale, capace di risolvere la tensione della

protagonista, che oltre a ricorrere in due occasioni, viene sempre

accompagnato da un elemento musicale saliente. La seconda circostanza

in cui questo gesto compare, cioè nella sequenza del suo primo colloquio

di lavoro, viene evidenziata dall’accordo al pianoforte e dal cantato sulla

parola «woman». Se si identifica quel gesto come metonimia del carattere

della protagonista – nell’accezione di spontaneità, naturalezza e del suo

particolarissimo “essere donna”, appunto «she’s always a woman to me»

– possiamo coglierne l’importanza ritenendo perciò che la coincidenza tra

164

il gesto della ragazza e il «woman» del cantato siano significativi per tre

motivi. In primo luogo, un tale sincretismo compare una sola volta nello

spot e quasi alla fine: siamo al culmine della tensione, poco prima della

conclusione, esattamente come accade in una melodia “ben formata” dalla

forma ad arco che tocca il culmine poco prima della conclusione; in

secondo luogo, il «woman» viene rafforzato visivamente dal gesto della

protagonista e musicalmente da un accordo; in terzo luogo, questo

accordo che sottolinea il «woman» è il più importante della strofa e

coincide anche con il punto di massima tensione del nostro sistema

musicale occidentale, cioè la dominante che, unendosi precedendo la

tonica, contribuisce a formare la cadenza perfetta, vale a dire quella che

abbiamo paragonato alla punteggiatura musicale. Il «woman», inoltre,

viene preparato120 da un altro sincretismo, quello della parola «always»,

che accompagna l’immagine della protagonista mentre piega la testa

come a giustificare l’altra candidata, in cui sembra comprendere

l’atteggiamento della “rivale” in una sorta di empatia che le permette di

superare l’ostilità della stessa.

Un altro aspetto interessante può essere rintracciato nella frase

melodica di chiusura cantata in “mmmh” che sembra quasi suggerire una

ninna nanna per il futuro nascituro – inquadrato mentre la mamma

accarezza la pancia –, una frase melodica in cui viene fatto ampio uso

dell’intervallo di terza, che si è visto essere intuitivo, intimo e materno

(Stefani et Al 1990). E ancora, l’arpeggio di chitarra sembra rappresentare

la tensione del pre-matrimonio, che è diversa da quella del saggio di

danza o del colloquio. Per concludere, si sottolinea che il cantato compare

nella sequenza in cui la protagonista raggiunge l’adolescenza, perciò un

165

120 Il termine “preparazione” viene inteso anche in senso musicale, in cui un certo evento musicale, deve essere preceduto da un altro per limitarne l’effetto dissonante.

momento particolarmente significativo per la sua formazione e per

l’affermarsi di quelle scelte che ne definiranno il carattere, e ha inizio

perciò il testo che descrive la donna e i diversi modi di essere donna.

Ritorniamo brevemente alla frase conclusiva «she’s always a woman

to me» che si chiude – proprio come la punteggiatura musicale – con una

cadenza perfetta. Se questa risoluzione viene confrontata con le pulsioni

passionali di Marconi (2007), risulta determinante per la comprensione

delle tensioni che si vengono a creare sia nel testo verbale che nella

musica. Come è stato detto, la parola «woman» viene cantata sull’accordo

di dominante, la massima tensione del sistema tonale, ed è seguita da «to

me» sulla tonica. Nei nostri termini si può osservare un sincretismo tra

testo verbale e musica – che ricorda i madrigalismi – nel congiungimento

del Soggetto all’Oggetto in cui si vede sia la donna cantata da Billy Joel

che la dominante nel sistema tonale congiungersi con i rispettivi Oggetti,

ossia Billy Joel e la tonica. La tensione che si crea sul «woman», verrebbe

commentata da Marconi nei termini di «un aumento della speranza di

conseguire una soddisfazione emotiva» (Marconi 2007, 11). È sul

desiderio e sulla passione, infatti, che si basano gli spot pubblicitari degli

ultimi anni (Bianchi 2005; Melchiorri 2002), in quanto lo spettatore, prima

di essere un consumatore, è una persona, e la pubblicità non deve far

fare, quanto piuttosto «far volere, perché ciò che un messaggio

pubblicitario può attivare è comunque un modo di pensare, un sistema di

categorizzazione e di valorizzazione» (Ferraro 1999, 82).

166

She can kill with a smileshe can wound with her eyesShe can ruin your faithwith her casual liesAnd she only revealswhat she wants you to seeShe hides like a child,but she’s always a woman to me121

Lo spot del 2009 usa la musica per declinare al femminile l’inno

italiano. I melismi che aprono la canzone, vale a dire i ricami melodici che

rispecchiano l’attenzione del mondo femminile al dettaglio, nella musica

pop sono tipicamente femminili e si contrappongono alle linee melodiche

vocali maschili che generalmente sono molto più dirette e meno ricamate.

Oltre ai melismi, un ulteriore elemento capace di rendere la melodia più

“rosa” è l’utilizzo del registro acuto che è, per ovvie ragioni fisiche, proprio

del cantato femminile piuttosto che di quello maschile. In questo spot,

salvo queste strategie a livello di superficie, l’attenzione viene posta sul

testo musicale, fondamentale per comprendere il messaggio che

Calzedonia vuole lanciare. La musica di primo acchito può sembrare un

riadattamento dell’inno italiano, invece, l’abile autore è riuscito a riscriverla

praticamente da capo, aggraziandola ed eliminando la connotazione di

marcetta attraverso una distensione delle armonie. Il percorso armonico è

più articolato e meno monotono, quasi il prolungamento schenkeriano

(Schenker 1935) dell’inno d’Italia e dal punto di vista formale viene

eliminato l’effetto cantilenante, quadrato e ridondante della marcia. La

linea melodica vocale è decisamente più morbida e rotonda rispetto a

quella dell’inno, quasi a voler rappresentare melodicamente il corpo

167

121 Testo della canzone She’s always a woman to me (Billy Joel) contenuta nello spot.

femminile facendo una rima ai colori dello spot, tenui e tendenti al rosa. La

melodia raggiunge il culmine della tensione alla parola «schiava», per cui,

come nello spot del 2006, si può affermare che sia una melodia ben

formata.

Dal punto di vista del testo musicale, le parole dell’inno e della

canzone sono le stesse, eccetto il “fratelli” che diventa “sorelle” in cui sono

presenti diversi sincretismi tra queste e le immagini, quasi a voler

riprendere l’antica tradizione madrigalistica che ha reso il nostro Paese

famoso nella storia della musica122. Lo spot si apre con una ragazza al

momento del risveglio dove il testo musicale canta «l’Italia s’è desta» e

con buona probabilità il suo nome sarà Italia. Nella seconda sequenza

troviamo un’altra ragazza che «dell’elmo di Scipio s’è cinta la testa» ed è

pronta per partire in un viaggio in moto assieme al fidanzato. Nella terza

sequenza vediamo la piccola «Vittoria», mentre la madre (o la sorella) le

raccoglie i capelli in una treccia, quando il testo musicale dice «dov’è la

vittoria, le porga la chioma». Infine, nella quarta e ultima sequenza, madre

e figlia sedute su una panchina, osservano Roma e infatti ascoltiamo «che

schiava di Roma, Iddio la creò». Quest’ultima è un’immagine

particolarmente rappresentativa in quanto, mentre il testo recita «che Iddio

la creò», ci sembra quasi che gli autori dello spot abbiano voluto conferire

al prodotto uno status divino, inoltre, durante «la creò» viene inquadrata la

mamma, genitrice della bambina. Vi si rintraccia un’aderenza letterale tra

immagini e testo e, usando il concetto Ejzenstiano di contrappunto

audiovisivo illustrato da Chion (2001), sembra che in alcuni punti immagini

e verbo concorrano a un “unisono semantico”, dove la musica amplifica

168

122 Julia Ponzio afferma che «il madrigalismo non funziona in assenza della parola, non sta per la parola se la parola non c’è» (Ponzio 2009, 127), in questo spot tuttavia un procedimento analogo si rintraccia tra musica e immagini, dove la parola è effettivamente assente.

l’effetto di senso, connotando – nei termini di Cook (1994) – l’italianità

veicolata dal testo e la femminilità veicolata dalle immagini.

Sorelle d’ItaliaL’Italia s’è destaDell’elmo di ScipioS’è cinta la testa.Dov’è la Vittoria?Le porga la chiomaChé schiava di RomaIddio la creò!123

Prima di addentrarci in un’analisi dell’evoluzione musicale lungo i due

spot è bene prima definirne i valori base124. Entrambi i testi illustrano

situazioni di vita comune, con la differenza che nella prima pubblicità si

tratta di momenti straordinari mentre nella seconda di momenti ordinari.

Entrambe le pubblicità presentano un claim finale rivolto al futuro:

«speriamo che sia femmina» e «il futuro è rosa», che appaiono come

auguri, ma mentre nella pubblicità del 2006 si ricorre al modo congiuntivo,

quindi ipotetico, nello spot del 2009 si utilizza l’indicativo che diversamente

esprime condizioni oggettive, stati di fatto. Se nel 2006 si ha una

tranquillità conquistata, nel 2009 si tratta di una tranquillità realizzata;

sembra perciò che la coppia di valori che lega i due spot sia proprio quella

della fiducia/sfiducia. Per comprendere lo sviluppo dei due spot è

necessario appoggiarsi – seppur brevemente – al quadrato semiotico nei

termini descritti da Greimas e Courtés (1979), vale a dire con uno

strumento che permette una raffigurazione oppositiva di valori semantici:

169

123 Testo della canzone Sorelle d’Italia, adattato da Fratelli d’Italia, contenuta nello spot.124 Gli spunti per queste riflessioni sono stati forniti dai preziosi suggerimenti di Riccardo Simonini.

si rintraccia per cui che nei nostri spot i vertici del quadrato corrispondono

ai valori di fiducia e sfiducia, non-fiducia e non-sfiducia.

Nel 2006 abbiamo una protagonista che alterna momenti di euforia

ad altri disforici. La fiducia corrisponde alle situazioni di massima libertà e

spontaneità, evidenti quando balla in camera da sola o nelle effusioni col

fidanzato. Se ci spostiamo sul polo contrario, la sfiducia viene riscontrata

nelle situazioni del saggio di danza e del colloquio. La non-fiducia si

palesa nella scena del colloquio quando la seconda ragazza respinge lo

sguardo di incoraggiamento della protagonista: entrambe sono tese, ma la

collega rifiuta addirittura l’invito di stemperare il comune nervosismo che

nella protagonista non suscita alcuna ostilità, bensì si limita ad accettare la

volontà dell’altra con una certa indulgenza. Spostandoci poi sull’ultimo

vertice del quadrato troviamo la non-sfiducia, che risulta invece

riconducibile alle sequenze di matrimonio e gravidanza. Nonostante

l’incertezza per questi eventi futuri, l’atteggiamento della protagonista è

comunque positivo. Si osserva invece, che nella pubblicità del 2009 le

polarità negative del nostro quadrato non sono attivate, infatti, la

valorizzazione proposta dallo spot non esprime l’ipotesi della negatività –

al più la contempla implicitamente tramite il paragone con il futuro incerto

del mondo reale – professando un futuro roseo, confermato dalla fiduciosa

letizia delle protagoniste.

È possibile tradurre l’evoluzione dei due spot, perciò la coppia di

valori sfiducia/fiducia, nei termini di tensione/rilassamento dove alla

tensione corrisponde l’interazione tra la fiducia e la sfiducia della

protagonista, evidenziata anche dall’uso del verbo condizionale nel claim,

mentre al rilassamento corrisponde la fiducia, che si osserva nel presente

di «Il futuro è rosa». A livello musicale dunque, si riscontrano due

analogie: l’una che riguarda l’evoluzione del sistema musicale in

170

occidente, l’altra che riguarda più in dettaglio la sintassi del sistema tonale

occidentale.

Henry Cowell (1930) sostiene che la musica, da quando è divenuta

polifonica, ha seguito la serie delle armoniche naturali prodotte da una

corda vibrante. Tralasciando tutti gli esempi non utili ai fini della nostra

discussione, citiamo solamente il caso della musica tonale (che raggiunge

l’apice nel XVIII secolo) e della dodecafonia (anni Venti del Novecento): se

nel Settecento venivano utilizzate le prime sette armoniche, perciò vigeva

un sistema musicale basato sull’accordo, con la dodecafonia si sono

preferite le armoniche più alte e quindi il sistema si basa sul semitono cioè

sulla suddivisione in dodici parti equidistanti dell’ottava. La musica tonale

è basata sui rapporti gerarchici che si generano tra i vari accordi, rapporti

che sono totalmente assenti nella dodecafonia. Quindi, se nella sintassi

tonale il percorso si alterna tra tensione e rilassamento – ricordiamo

Lerdahl e Jackendoff (1983a) – creando così delle aspettative che

possono essere più o meno rispettate (Meyer 1956), nella musica

dodecafonica, non essendoci tali rapporti gerarchici, il tutto fluttua in una

distensione costante dove non si viene a creare alcun tipo di aspettativa.

Come abbiamo visto, più si è lontani dal centro tonale e maggiore sarà la

tensione, che verrà completamente dissipata sull’accordo di tonica

sanzionando positivamente l’ascoltatore.

Appare dunque evidente l’evoluzione dei due spot: alle varie

tensioni/distensioni rintracciabili nello spot del 2006 che sono paragonabili

alla musica tonale del Settecento e all’accordo di dominante, segue la

distensione dello spot del 2009 che possiamo ricollegare sia alla

dodecafonia che all’accordo di tonica. Nello spot del 2009, le protagoniste

sono collocate in un’atmosfera distesa, non ci sono tensioni, tutto è piatto;

diversamente, lo spot del 2006 mostra un percorso fatto di contraddizioni

171

che si risolvono, come spiegato, sulla frase «she’s always a woman to

me», il momento più significativo, che sta quasi a esprimere come la ricca

personalità femminile rappresenti un valore nell’affrontare eventuali ostilità

e imprevisti della vita, messaggio che viene ribadito anche dalla melodia,

in cui le dissonanze della musica tonale sono capaci di mettere in rilievo le

consonanze che seguono. Si aggiunge infine che la diversità tra i due spot

può essere vista anche in un’ottica di continuità. La sequenza che chiude

lo spot del 2006, infatti, mostra i due coniugi abbracciati, mentre il marito

accarezza la pancia della protagonista, è un’immagine intima, distesa,

serena, evocativa che anticipa le sequenze dello spot 2009.

172

3.2. Conclusioni

In questo percorso abbiamo potuto osservare quanto musica e

linguaggio naturale appaiano simili e per certi versi sovrapponibili. L’analisi

musicale di Schenker (1935), la teoria generativa di Lerdahl e Jackendoff

(1983a), le analisi di Sloboda (1985) e infine l’illuminante articolo di Patel

(2003) in cui linguaggio e musica sembrano condividere risorse neuronali

localizzate proprio nell’area di Broca ci hanno spinto ad indagare la

musica in una prospettiva linguistica. Poiché il nostro oggetto di studio è la

retorica musicale applicata alla pubblicità, si è riservato uno sguardo

particolare alle figure imitative, è stata presentata una breve disamina

storica sulla retorica degli affetti nata in epoca barocca e,

successivamente, si è proposta una tassonomia delle figure musicali che

rappresentano il mondo extra-musicale. Per la rappresentazione musicale,

da un punto di vista creativo, vale a dire dal punto di vista del compositore,

sono stati mostrati i casi dei madrigalismi italiani del XVI secolo e del

mickey-mousing in ambito cinematografico, mentre dal un punto di vista

dell’ascoltatore si è fatto riferimento alle ricerche condotte nell’ambito della

semiotica della musica125 con particolare riferimento agli effetti di senso

scaturiti dagli intervalli musicali e dalle melodie (Stefani, Marconi e Ferrari

1990; Stefani e Marconi 1992). Successivamente abbiamo indagato il

motivo per cui un significato viene associato a uno stimolo musicale

attraverso gli spunti forniti soprattutto da Marconi (2001a), il quale ci ha

sottolineato che la musica può essere pensata in termini di espressione

vocale di uno stato d’animo o in termini di proiezione metaforica

propriocettiva. Tutti questi esempi concorrono alla formulazione della

173

125 Maria Pia Pozzato e Lucio Spaziante fanno notare come tuttavia in questi ultimi anni ci si diriga verso una «semiotica del musicale» (Pozzato e Spaziante 2009, 8) piuttosto che una semiotica della musica.

nostra tesi riguardo all’utilizzo delle figure musicali di imitazione nella

pubblicità.

Noi crediamo che una musica per spot che richiami le caratteristiche

fisiche del prodotto sia più efficace di una musica utilizzata come semplice

commento. Come è stato osservato all’inizio del nostro percorso, l’uomo

come gli animali riesce a stimare dal suono di un oggetto o di un corpo

caratteristiche quali distanza, la localizzazione, la materia di cui si

compone, il peso e altro; compiti di basso livello per cui legati in qualche

modo alla sopravvivenza e comuni agli uomini. Siamo spinti perciò a

credere che rappresentare le caratteristiche sonore di un oggetto

attraverso la musica possa creare un legame più solido con il prodotto

pubblicizzato, anche in ragione del fatto che non è necessario un richiamo

esplicito al referente, un’elaborazione semantica può essere attivata

anche da stimoli sub-liminali (Marcel 1983; Cheesman e Merikle 1986).

Negli ultimi anni gli spot pubblicitari vogliono attivare prevalentemente

dinamiche di tipo passionale (Bianchi 2005), tuttavia noi ipotizziamo che,

contemporaneamente, l’imitazione attraverso metafore e onomatopee

possa risultare efficace. Aristotele ci dice che l’imitazione è connaturata

all’uomo – dati peraltro facilmente riscontrabili anche nel campo della

psicologia dello sviluppo – mentre la psicologia cognitiva ci ha mostrato

come nei primi stadi della percezione si compie un’elaborazione delle

caratteristiche fisiche dello stimolo piuttosto che di quelle semantiche che,

nella psicologia cognitiva, corrispondono alla sintassi armonica tonale.

Inoltre, all’interno della tassonomia che abbiamo ricavato percorrendo a

ritroso il modello di segno musicale, lungo un asse che va da un maggior

coinvolgimento cognitivo a un’elaborazione sensoriale, sono state ordinate

le figure di imitazione in un percorso nel quale si rintraccia, a livello

poietico, una diminuzione di arbitrarietà. Questo percorso ci induce a

174

focalizzare la nostra attenzione sulle onomatopee linguistiche e soprattutto

su quelle extra-linguistiche. Concludendo, se si esce da un sistema

linguistico – come quello tonale – risulta più facile imitare un qualcosa che

è appunto “esterno” a esso. Nelle proposte di ricerca avanzeremo delle

ipotesi sui possibili casi a cui la nostra tesi potrebbe essere applicata.

La nostra idea è che dovrebbero essere ampliate le ricerche relative

agli intervalli, alla melodia e alla strumentazione, in un’ottica di

trasferimento del significato musicale al prodotto pubblicizzato. Si pensi al

celebre lavoro degli anni Venti di H. Erdmann, G. Becce e L. Brav (1927),

autori di un prontuario di “luoghi comuni” musicali accuratamente

indicizzati allo scopo di commentare la musica per i film (Nowell-Smith

1996). Allo stesso modo potrebbe risultare utile per un compositore un

compendio di associazioni tra elementi musicali e significati associati, così

come risulterebbe importante che il compositore applichi una certa

procedura al suo fare musicale: analogamente a chi realizza le parti visive

in una pubblicità, il compositore dovrebbe svolgere in primo luogo una

ricerca sulle caratteristiche fisiche del prodotto, per individuare i suoni che

da questo scaturiscono, successivamente svolgere una traduzione, quindi

attraverso la figura imitativa dell’onomatopea, di questo suono in un

sistema musicale. Nel creare una musica per uno spot, inoltre, non si

dovrebbe trascurare il potere della musica di veicolare significati plastici,

spaziali e di movimento, come si è visto con Tagg (1990) e come emerge

dagli spot analizzati da Scott (1990) e Cook (1994), senza dimenticare che

una musica deve essere innanzitutto piacevole (Gorn 1982). Il

compositore deve dimenticare dei percorsi intrapresi dalla musica

sperimentale delle avanguardie, e basti ricordare il pensiero sul silenzio di

John Cage. Sfruttare il silenzio come “musica” per uno spot di un prodotto

alimentare, ipotizzando che esso venga trasmesso nelle fasce orarie in cui

175

il pubblico consuma i pasti, ed essendo il silenzio uno specchio

dell’ambiente sonoro, le immagini dello spot verrebbero associate ai

rumori delle nostre cucine.

L’ambito della psicologia sperimentale, che negli ultimi anni si

appoggia alle neuroscienze, potrebbe offrire veri spunti di ricerca più di

carattere speculativo che pratico. Abbiamo visto con Hjelmslev (1943) che

la connotazione, in quanto significazione secondaria, segue la

denotazione, e che in musica l’elaborazione sensoriale precede quella

cognitiva (Tekman e Bharucha 1992), allo stesso modo sarebbe

interessante condurre esperimenti sul corso temporale della significazione

musicale. Sarebbe inoltre affascinante riproporre l’esperimento di Koelsch

e collaboratori (2004) usando come stimoli gli intervalli musicali e i

significati individuati da Stefani e collaboratori (1990; 1992).

A questo punto ritorniamo alla nostra proposta linguistica. Se nel

linguaggio è possibile individuare in maniera distinta il livello semantico e

quello sintattico come dimostrato dalla frase “Idee verdi senza colore

dormono furiosamente” di Chomsky che soddisfa unicamente i criteri di

benformatezza sintattica, nel nostro approccio linguistico sembra non

essere chiaro il livello dell’interfaccia sintassi-semantica che per Chomsky

è un punto chiave nella rappresentazione della grammatica126. In altre

parole si dovrebbe rintracciare una frase analoga a quella delle “idee”

chomskiane al fine di delineare il livello semantico e quello sintattico. È

necessario ricercare delle frasi che risultino ben formate da un punto di

vista sintattico e che non abbiano senso da quello semantico-pragmatico,

in altri termini bisogna individuare la competenza dell’ascoltatore.

Cerchiamo di rispondere per punti.

176

126 Gli spunti per queste riflessioni sono stati forniti dai preziosi suggerimenti della professoressa Cristina Guardiano, docente di Linguistica Generale e Linguistica Applicata presso l’Università degli Studi di Modena e Reggio.

La competenza musicale, come quella linguistica, si divide tra i

diversi livelli del sistema, essa, secondo noi, si rintraccia in quella che

Shuter-Dyson (1999) chiama “abilità musicale” che analogamente alla

competenza linguistica è organizzata per livelli e consiste nella capacità

dell’ascoltatore di discriminare, a ogni livello del sistema musicale, gli

elementi corretti da quelli non corretti. Le abilità tonali, ad esempio,

includono la percezione dell’altezza, il riconoscimento del cambio di

tonalità nonché della gerarchia tonale e la discriminazione del sistema

tonale rispetto a quello atonale. In quest’ultimo caso risulta illuminante uno

studio (Zenatti 1981) in cui a due gruppi di bambini – il primo in cui l’età

media è di cinque anni e il secondo di sette – si chiede di svolgere un

compito di riconoscimento che può avvenire in un contesto tonale o in

contesto atonale. I risultati migliori sono stati ottenuti nel contesto tonale

con bambini di sette anni – i bambini di cinque anni non hanno mostrato

preferenze tra i due sistemi musicali, rivelando l’indubbia componente

culturale e cognitiva della sintassi musicale. Ritornando al linguaggio, il

parlante considererebbe la frase “Idee verdi senza colore dormono

furiosamente” mal formata a partire da una competenza che è innata,

infatti, il linguaggio è una facoltà innata dell’uomo che si appoggia su dei

principi strutturali universali la cui violazione produce una grammatica

impossibile127. La musica, tuttavia, è un universale ma diversamente dal

linguaggio non ha universali: viene rintracciata in tutte le culture, ma non vi

sono caratteristiche universali se non quelle determinate dai nostri limiti

biologici.

177

127 Un esperimento sulla grammatica impossibile viene condotto da Smith e Tsimpli (1995) in cui si chiede ad un soggetto autistico con una straordinaria propensione per il linguaggio – oltre alla sua conosce altre sedici lingue – di imparare una grammatica artificiale impossibile, cioè che viola i principi universali del linguaggio. I risultati, confrontati con un gruppo di controllo di intelligenza media, hanno mostrato che il soggetto autistico, potendo contare solo sulla facoltà di linguaggio innata, non riusciva ad apprendere le regole impossibili.

Esiste dunque una musica impossibile? Da un punto di vista estetico,

la risposta è sicuramente negativa: oggi tutto è musica, dal rumore bianco

al silenzio. Effettivamente in questo percorso che sta per concludersi si è

cercato di rintracciare gli elementi in comune tra musica e linguaggio: a

livello strutturale, nei modi di utilizzo, nelle origini e nelle aree cerebrali

coinvolte nell’elaborazione cognitiva. Tuttavia, una musica impossibile

sembra difficile da definire e una risposta potrebbe giungerci da ulteriori

domande: “Se un albero cade in una foresta e nessuno può ascoltarlo,

produce rumore?”. Gli infrasuoni delle balene fanno parte della musica?

Gli ultrasuoni dei pipistrelli? E la musica mundana dei corpi celesti?

Queste domande inquadrano il problema da una prospettiva biologica e

relativa ai nostri organi di senso, ma non riescono a definirlo nella sua

essenza e in rapporto al sistema cognitivo.

Se ci soffermiamo sul fatto che la facoltà di linguaggio è innata per

l’uomo mentre il fare musica lo è per la società, si ritorna alla domanda

che ha aperto questo lavoro relativa all’importanza che la musica assume

per l’uomo e per la società. Essa ha un’indubbia funzione sociale in

quanto è condivisione di stati emozionali (Cross 1999, 19), ma a livello

individuale non si può certo trascurare che

Emotionally, you’d probably want to first yell and stamp your feet, then sit down and relax; or perhaps you’d first tense your shoulders and clench your fists, then lean back, open your arms and show the palms of your hands (Tagg 2010, 59).

La musica è allora il linguaggio delle emozioni, il cui messaggio,

come scrive Beethoven nella Missa solemnis, procede da cuore a cuore

(Cook 1994, 266), dunque è pura emozione. Ma a questo punto potremmo

persino chiederci se esiste un’emozione impossibile. Le risposte non

178

possono che essere tutte negative: se il linguaggio possiede la

caratteristica di riferirsi direttamente a un mondo extra-linguistico, la

musica ha il potere di riferirsi direttamente al cuore delle persone.

179

180

Bibliografia

AA.VV. 1981, Research aspects on singing, Stockholm: Royal Academy of

Music.

Aksnes H. 1998, Music and its Resonating Body, in Stefani, Tarasti e

Marconi (1998).

Ala N. e Ghezzi E. 1983, Musica e pubblicità nella televisione italiana,

«Musica e realtà», 12, 103-117.

Albertazzi L. (a cura di) 1993, La percezione musicale, Milano: Edizioni

Angelo Guerini e Associati.

Antonietti A. 2006, Significati musicali: come la mente pensa i suoni,

Milano: Università Cattolica.

Antovic M. 2009, Towards a Semantics of Music: the 20th Century,

«Language and History», 52(1), 119-129.

Apel W. 1962, La notazione della musica polifonica, dal X al XVII secolo,

Firenze: Sansoni Editore.

Atalay N., Tekman H. e Toiviainen P. 2006, Priming by non-diatonic

chords: The case of the Neapolitan chord, in Baroni, Addessi,

Caterina e Costa (2006).

Auric G. 1978, Cahier Jean Cocteau, Parigi: Gallimard.

Azzaroni L. 1997, Canone infinito, Bologna: CLUEB.

Baroni M., Addessi A.R., Caterina R. e Costa M. (a cura di) 2006,

Proceedings of the 9th International Conference on Music Perception

& Cognition, Bologna.

181

Basso A. (a cura di) 1984, Dizionario Enciclopedico Universale della

Musica e dei Musicisti, Torino: Utet.

Baumann M.P. 1997, Musica, in Wulf (2002).

Beardslee D.C. (a cura di) 1953, Readings in Perception, Princeton.

Bellisario A. 1981, Pratica di analisi musicale, Milano: Rugginenti.

Benjamin W. 1936, L’opera d’arte nell’epoca della sua riproducibilità

tecnica. Arte e società di massa, Torino: Einaudi.

Bertone G. 1999, Breve dizionario di metrica italiana, Torino: Einaudi.

Bharucha J.J. 1987, MUSACT: A connectionist model of musical harmony,

in Ninth Annual Conference of the Cognitive Science Society,

Hillsdale: Erlbanm, 508-517.

Bharucha J.J. e Stoeckig K. 1987, Priming of chords: Spreading activation

or overlapping frequency spectra?, «Perception & Psychophysics»,

41(6), 519–524.

Bianchi C. 2005, Spot, Roma: Carrocci.

Biasutti M. 1999, Educazione ambientale al suono, Firenze: La nuova

Italia.

Bigand E. e Poulin-Charronnat B. 2006, Are we “experienced listeners”?

A review of the musical capacities that do not depend on formal

musical training, «Cognition», 100, 100-130.

Bigand E., Madurell F., Tillmann B.e Pineau, M. 1999, Effect of global

structure and temporal organization on chord processing, «Journal of

Experimental Psychology: Human Perception and Performance», 25,

184-197.

182

Bigand E., Tillmann B., Poulin-Charronnat B. e Manderlier D. 2005,

Repetition priming: Is music special?, «Quarterly Journal of

Experimental Psychology», 58A(8), 1347-1375.

Blacking J. 1995, Music, Culture and Experience, London: University of

Chicago Press.

Bolinger D. (a cura di) 1972, Intonation, Harmondsworth: Penguin Book.

Booth M.W. 1981, The Experience of Song, New Haven: Yale University

Press.

Brindle R.S. 1992, La composizione musicale, Milano: Ricordi.

Brown M.H e Freedman R. 2001, Janequin, Clément, in Stanley (2001).

Brown S. 2000, The “musilanguage” model of music evolution, in Wallin,

Merker e Brown (2000).

Burner G. 1990, Music, mood and marketing, in «Journal of Marketing», 4,

94-104.

Butler D. 1992, The Musician’s guide to perception and cognition, New

York: Schirmer Books.

Butler G. 2004, La retorica tedesca e la Affektenlehere, in Nattiez (2004).

Cage J. 1976, Per gli uccelli, conversazioni con Daniel Charles, Torino:

Testo & Immagine.

Calabrese S. 2008, Retorica del linguaggio pubblicitario, Bologna:

Archetipolibri.

Cano C. 1994, La comprensione del suono organizzato, Relazione al

convegno su Ascolto psicoanalitico e orecchio musicale, Lavarone,

Testo dattiloscritto.

183

Carchia G. e D’angelo P. (a cura di) 1999, Dizionario di Estetica, Bari:

Laterza.

Carollo R. (a cura di) 1998, Le forme dell’immaginario: Psicanalisi e

Musica, Bergamo: Moretti & Vitali.

Carter T. 2001, Word Painting, in Stanley (2001).

Carterette E.C. e Kendall R.A. 1999, Comparative Music Perception and

Cognition, in Deutsch (1999).

Casarin C. e Fornari D. (a cura di) 2010, Estetiche del camouflage,

Milano: Et al. Edizioni.

Cattin G. 1991, La monodia nel medioevo, Vol I, Torino: EDT.

Catucci S. 1999, Musica, teorie della, in Carchia e D’angelo (1999).

Cheesman, J. e Merikle P.M. 1986, Distinguishing conscious from

unconscious perceptual processes, «Canadian Journal of

Psychology», 40, 343-367.

Chion M. 2001, L’audiovisione, Suono e immagine nel cinema, Torino:

Lindau.

Chomsky N. 1957, Syntactic structures, Mouton: The Hague.

Chomsky N. 1965, Aspects of the Theory of Syntax, Cambridge: The MIT

Press.

Chomsky N. 1992, Linguaggio e problemi della conoscenza, Bologna: Il

Mulino.

Civra F. 1991, Musica poetica. Torino: UTET.

Cogan R. e Escot P. 1976, Sonic design: the nature of sound and music,

Englewood Cliffs: Prentice Hall.

184

Collins A.M. e Loftus E.F. 1975, A spreading-activation theory of semantic

processing, «Psychological Review», 82, 407-428.

Cook N. 1994, Music and Meaning in the Commercials, «Popular Music»,

13 (1), 27-40.

Cooke D. 1959, The language of music, Oxford: Oxford University Press.

Cooke M. J. 2001, Film music, in Stanley (2001).

Cowell H. 1930, Nuove risorse musicali, Lucca: Le Sfere.

Critchley M. e Henson R.A. (a cura di) 1979, Music and the Brain, London:

William Heinemann.

Cross I. 1999, Is music the most important thing we ever did? Music,

development and evolution, In Suk Won Yi (1999).

Cross I. 2009, The evolutionary nature of musical meaning, «Musicae

Scientiae», Special Issue: Music and evolution, 179-200.

Cross, I. 2005, Music and meaning, ambiguity and evolution, in Miell,

Macdonald e Hargreaves (2005).

Cross, I. 2010, The evolutionary basis of meaning in music: some

neurological and neuroscientific implications, in Rose (2010).

Dahlhaus C. 1978, L’idea di musica assoluta, 1998, Firenze: La nuova

Italia.

Dahlhaus C. e Eggebrecht H. 1985, Che cos'è la musica, Bologna: Il

Mulino.

Dalmonte R. e Baroni M. (a cura di) 1990, Secondo convegno europeo di

analisi musicale, Trento: Università degli studi di Trento.

Dart T. 2001, Eye music, in Stanley (2001).

185

Darwin C. 1871, The expression of the emotions in man and animals,

London: HarperCollins Publisher.

Davies J.B. 1978, The psychology of music, London: Hutchinson.

Davies S. 1994, Musical meaning and expression, Ithaca and London:

Cornell University Press.

Davis R. 1999, Complete Guide to Film Scoring, Boston: Berklee Press.

De Saussure F. 1916, Corso di linguistica generale, Bari: Laterza.

Delalande F. 1993, Le condotte musicali, Bologna: Clueb.

Delalande F., Celeste B. e Dumaurier E. 1982, L’enfant, du sonore au

musical, Paris: Ina/Buchet-Chastel.

Deutsch D. (a cura di) 1999, The psychology of music, 2nd Edition, San

Diego: Academic Press.

Deutsch D. 1999a, Grouping mechanisms in music, in Deutsch (1999).

Deutsch D. 1999b, The Processing of Pitch Combinations, in Deutsch

(1999).

Devoto G. e Oli G.C. 2007, Il Devoto Oli. Vocabolario della lingua italiana

2007, Firenze: Le Monnier.

DeWitt L.A. e Crowder R.G. 1987, Tonal fusion of consonant musical

intervals: The Oomph in Stumpf, «Percept. Psychophys.», 41, 73-84.

Dowling W.J. e Harwood D.L. 1986, Music Cognition, New York:

AcademicPress.

Dubois T. 1923, Trattato d’armonia teorica e pratica di Teodoro Dubois,

Paris: Alphonse Leduc & C.

Dufourt H. 1997, Musica, Potere, Scrittura, Milano: Ricordi.

186

Duranti A. (a cura di) 2005, A companion to linguistic anthropology,

Oxford: Blackwell Publishing.

Eco U. 1968, La struttura assente, Milano: Bompiani.

Eggebrecht H.H. 1994, La musica di Gustav Mahler, Firenze: La nuova

Italia.

Erdmann H., Becce G. e Brav L. 1927, Allgeimeines handbuch der

filmmusik, 2 voll., Berlino: Schlesinger.

Fabbri P. (a cura di) 1988, Il madrigale tra cinque e seicento, Bologna: Il

Mulino.

Favaro R. 2010, Musique d’ameublement: mascheramento e mimetismo

nella composizione del paesaggio sonoro, in Casarin e Fornari

(2010).

Favaro R. e Pestalozza L. (a cura di) 1999, Storia della musica, San

Giuliano Milanese: Nuova Carish.

Feld S. 1994, Communication, Music, and Speech about Music, In Keil e

Feld (1994).

Ferrari G.C. 1896, Un caso rarissimo di suggestione musicale, «Rivista

Musicale Italiana», 3, 186-191.

Ferraro G. 1999, La pubblicità nell’era di internet, Roma Meltemi.

Fonagy I. 1981, Emotions, voice and music, in AA.VV. (1981).

Fonagy I. 1983, La vive voix, Paris: Payot.

Fonagy I. e Magdics C. 1972, Emotional patterns in intonation and music,

in Bolinger (1972).

Foster E. e Gamble E.A.McC. 1906, The effect of music on thoracic

breathing, «American Journal of Psychology», 17, 406-414.

187

Fraisse P., Olèron G. e Paillard J. 1953, Les effects dynamogéniques de la

musique: étude expérimentale, «L’Année Psychologique», 53, 1-34.

Fubini E. 1973, Musica e linguaggio nell’estetica contemporanea, Torino:

Einaudi.

Gallico C. 1978, L’età dell’umanesimo e del rinascimento, Vol III, Torino:

EDT.

Gallo F. A. 1991, La polifonia nel medioevo, Vol III, Torino: EDT.

Gazzara F. 1993, Processi creativi e comunicativi della musica nel

messaggio pubblicitario radiotelevisivo, «Musica e realtà», 40,

93-110.

Giannattasio F. 1994, La musica come rappresentazione organizzata di

processi logico-emotivi, Relazione al convegno su Ascolto

psicanalitico e orecchio musicale, Lavarone. Testo dattiloscritto.

Gibson J.J. 1966, The Senses Considered as Perceptual Systems,

Boston: Houghtw Mifflin.

Gibson J.J. 1979, The Ecological Approach to Visual Perception, Boston:

Houghtw Mifflin.

Gorn G. J. 1982, The Effects of Music in Advertising on Choice Behavior:

A Classical Conditioning Approach, «Journal of Marketing», 46

(Winter), 94-100.

Greimas A.J. 1983, Del senso 2, Milano: Bompiani.

Greimas A.J. e Courtés J. 1979, Semiotica. Dizionario ragionato della

teoria del linguaggio, Milano: Mondadori.

Grimaldi S. 1993, Trascrizione e interpretazione, «Psicanalisi e Metodo»,

1.

188

Hammerstein R. 1988, Questioni formali nei madrigali di Monteverdi, in

Fabbri (1988).

Hanser S.B. 1985, Music therapy and stress reduction research, «Journal

of Music Therapy» 22, 193-206.

Harrer G. e Harrer. H. 1979, Music, emotion and autonomic function, in

Critchley e Henson (1979).

Hinton L., Nichols J. e Ohala J.J. (a cura di) 1994, Sound Symbolism, New

York: Cambridge University Press.

Hjelmslev L.T. 1943, I fondamenti della teoria del linguaggio, Torino:

Einaudi, 1968.

Imberty M. 1986, Suoni emozioni significati. Per una semantica

psicologica della musica, Bologna CLUEB.

Iwaszkiewicz J. 1991, Chopin, Pordenone: Studio Tesi.

Jackobson R. 1966, Saggi di linguistica generale, Milano: Feltrinelli, 1972.

Jeppesen K. 1956, Kontrapunkt . Lehrbuch der k lassichen

vokalpolyphonie, Leipzig: Breitkopf & Hartel.

Johnson M. 1987, The Body in the Mind: The Bodily Basis of Meaning,

Imagination, and Reason, Chicago: University of Chicago Press.

Jones M.R. e Holleran S. (a cura di) 1992, Cognitive bases of musical

communication, Washington, DC: American Psychological

Association.

Jones M.R. 1976, Time, our lost dimension: Toward a new theory of

perception, attention and memory, «Psychological Review», 83,

322-335.

Julien J.-R. 1989, Musica e pubblicità, Milano: Ricordi.

189

Juslin P.N. e Sloboda J.A. (a cura di) 2001, Music and emotion, New York:

Oxford University Press.

Karolyi O. 1980, La grammatica della musica, Torino: Einaudi.

Katz J. e Pesetsky D. 2009, The Recursive Syntax and Prosody of Tonal

Music, Conference on Recursion, University of Massachusetts/

Amherst, May 2009.

Keil C. e Feld S. (a cura di) 1994, Music Grooves, Chicago: University of

Chicago Press.

Kivy P. 1989, Sound Sentiment, Philadelphia: Temple University Press.

Koelsch S. 2010, Towards a neural basis of music-evoked emotions,

«Trends in Cognitive Sciences», Vol.14, 3, 131-137.

Koelsch S. e Siebel, W.A. 2005, Towards a neural basis of music

perception, «Trends in Cognitive Sciences» 9 (12), 578-584.

Koelsch S., Gunter T.C. Wittfoth M. e Sammler D. 2005, Interaction

between syntax processing in language and in music: An ERP study,

«Journal of Cognitive Neuroscience», 17, 1565-1577.

Koelsch S., Gunter T.C., Von Cramon D.Y., Zysset S., Lohmann G. e

Friederici A.D. 2002, Bach speaks: A cortical “language-network”

serves the processing of music, «NeuroImage», 17, 956-966.

Koelsch S., Kasper E, Sammler D, Schulze K, Gunter T e Friederici A.D.

2004, Music, language, and meaning: Brain signatures of semantic

processing, «Nature Neuroscience». 7, 302-307.

Koffka K. 1935, Principles of Gestalt psychology, New York: Harcourt.

Kraut R. 1992, On the possibility of a determinate semantics for music, in

Jones e Holleran (1992).

190

Krumhansl C.L. 1992, Internal reppresentations for music perception and

performance, in Jones e Holleran (1992).

Lakoff G. e Johnson M. 1980, Metafora e vita quotidiana, Milano:

Bompiani.

Langer S. 1942, Philosophy in a New Key, Cambridge: Harvard University

Press.

Lanza A. 1984, Notazione, in Basso (1984).

Lerdahl F. 1988, Tonal pitch space, «Music Perception», 5, 315-345.

Lerdahl F. e Jackendoff R. 1983a, A generative theory of tonal music,

Cambridge: MIT Press.

Lerdahl F. e Jackendoff R. 1983b, An Overview of Hierarchical Structure in

Music, «Music Perception», Vol 1, 2 (Winter), 229-252.

Llinas, R. e Churchland, P. (a cura di) 1996, The Mind-Brain Continuum,

MIT Press, Cambridge.

Lockard J.S., Daley P.C. e Gunderson V.M 1979, Maternal and paternal

differences in infant carry: US and African data, «Am. Nat.» 113,

235-246.

Locke S. e Kellar L. 1973, Categorical perception in a non-linguistic mode,

«Cortex.», 9, 355-369.

Lombardi Satriani L.M. 1973, Folklore e profitto. Tecniche di distruzione di

una cultura, Rimini-Firenze: Guaraldi.

Lombardo V. e Valle A. 2002, Audio e multimedia, Milano: Apogeo.

Luccio R. 1993, La musica come processo cognitivo, in Albertazzi (1993).

Lucignani G. e Pinotti A. (a cura di) 2007, Immagini della mente, Miliano:

Raffaello Cortina Editore.

191

Macey P. 2004, Retorica e affetti nel Rinascimento, in Nattiez (2004).

Maess, B., Koelsch S., Gunter T.C, e Friederici A.D. 2001, Musical. Syntax

is processed in Broca’s area: An MEG study, «Nature

Neuroscience», vol. 4, 5, 540-545.

Mancia M. 1998, Riflessioni psicanalitiche sul linguaggio musicale, in

Carollo (1998).

Marcel A.J. 1983, Conscious and unconscious perception: Experiments on

visual masking and word recognition, «Cognitive Psychology», 15,

197-237.

Marconi L. 2001a, Musica Espressione Emozione, Bologna: Clueb.

Marconi L. 2001b, Muzak, jingle, videoclip, in Nattiez (2004).

Marconi L. 2007, Musica tonale, narratività e precondizioni della

significazione, rivista dell’Associazione Italiana di Studi Semiotici on-

line.

McAdams S. 1996, Audition: Cognitive Psychology of Music, in Llinas e

Churchland (1996).

Meidner O. 1985, Motion and E-motion in music, «British Journal of

Aesthetic», 25.

Melchiorri A. 2002, La dimensione patemica negli spot, in Pezzini (2002).

Mellers W. 1981, God modality and meaning in some recents song of Bob

Dylan, «Popular music», 1, 143-158.

Mentz P. 1897, Die Wirkung akusticher Sinnesreise auf Puls und Athmung,

«L’Année Psychologique», 3, 390-401.

192

Meyer D.E. e Schvaneveldt R.W. 1971, Facilitation in recognizing pairs of

word: Evidence of a dependence between retrieval operations,

«Journal of Experimental Psychology», 90, 227-234.

Meyer L.B. 1956, Emozione e significato nella musica, Bologna: Il Mulino,

1992.

Meyer L.B. 1973, Explaining music, Berkeley: University of Carolina Press.

Michel P. 2001, Ferrari, Luc, in Stanley (2001).

Middleton R. 1990, Studiare la popular music, Milano: Feltrinelli.

Miell D., Macdonald R. e Hargreaves D. (a cura di) 2005, Musical

Communication, Oxford: Oxford University Press.

Miller G.A. 1956, The magical number seven, plus or minus two: Some

limits on our capacity for processing information, «Psychological

Review», 63(2), 81–97.

Miranda-Pérez R. 2001, Jingle, in Stanley (2001).

Moro A. 2006, I confini di Babele, Milano: Longanesi.

Motte-Haber H. 1982, Psicologia della musica, Fiesole: La nuova Italia.

Nattiez J-J. 1987, Musicologia generale e semiologia, Torino: EDT, 1989.

Nattiez J.J. (a cura di) 2004, Enciclopedia della musica, Torino: Einaudi.

Nowell-Smith G. 1996, The Oxford History of World Cinema, Oxford:

Oxford University Press.

Ong W.J. 1982, Oralità e scrittura, Le tecnologie della parola, Bologna: Il

Mulino.

Owings D.H. e Morton E.S. 1998, Animal vocal communication: a new

approach, Cambridge: CUP.

193

Parncutt R. 1989, Harmony: A psychoacoustical approach, Berlin:

Springer-Verlag.

Patel A.D. 2003, Language, music, syntax and the brain, «Nature

Neuroscience», 6, (July), 674-681.

Peretz I. 2001, Listen to the Brain: a biological perspective on musical

emotions, in Juslin e Sloboda (2001).

Peretz I. e Coltheart M. 2003, Modularity of music processing, «Nature

Neuroscience», 6(7), pp. 688- 691.

Pesetsky D. 2007, Music syntax is language syntax, Workshop on

Movement, Harvard University, May 2007.

Pezzini I. (a cura di) 2002, Trailer, spot, clip, siti, banner. Le forme brevi

della comunicazione audiovisiva, Roma: Meltemi editore.

Pierce J.R. 1988, La scienza del suono, Bologna: Zanichelli.

Pinker S. 1997, How the mind works, London: Allen Lane.

Pisani D., Nigro A. e Schillaci A. 1969, Durata della contrazione elettrica

sotto azione della musica, «Rivista di neurobiologia», 15, 209-229.

Piston W. 1941, Armonia, Torino: EDT.

Ponzio J. 2009, Fioriture retoriche: parole musiche e silenzi, in Pozzato e

Spaziante (2009).

Porcello T. 1996, Sonic Artistry: Music, Discourse, and Technology in the

Sound Recording Studio, PhD dissertation, Department of

Anthropology, University of Texas at Austin.

Porzionato G. 1980, Psicobiologia della musica, Bologna: Pàtron Editore.

Pozzato M.P. e Spaziante L. (a cura di) 2009, Parole nell’aria. Sincretismi

fra musica e altri linguaggi, Pisa: Edizioni ETS.

194

Privitera M. 2004, Madrigali malinconici, in Nattiez (2004).

Propp V. 1928, Morfologia della fiaba, Torino: Einaudi.

Raffman D. 1992, Proposal for a musical semantics, in Jones e Holleran

(1992).

Révész G. 1953, Introduction to the psychology of music, London:

Longman.

Rhodes R. 1994, Aural Images, in Hinton, Nichols e Ohala (1994).

Rieber M. 1965, The effect of music on the activity level of children,

«Psychonomic Science», 3, 325-326.

Rimsky-Korsakoff N. 1885, Manuale pratico di armonia, Milano:

Sonzogno.

Rimsky-Korsakoff N. 1891, Principi di orchestrazione, Milano: Rugginenti.

Roederer J. G. 1984, The search for a survival value of music, «Music

Percept». 1, 350-356.

Romano A. 1998, Musica e psiche, in Carollo (1998).

Rose F.C. (a cura di) 2010, The Neurology of Music, London: Imperial

College Press.

Rosing H. 1977, Musikalische Stlisierung akustischer Vorbilder in der

Tonmalerei, München: Katzbichler.

Rudzinski W. 1993, Il ritmo musicale. Teoria e storia, Lucca: Libreria

Musicale Italiana Editrice.

Rusconi D., Kwan B., Giordano B., Umiltà C. e Butterworth B. 2005,

Spatial representation of pitch eight: the SMARC effect, convegno

Neurosciences and Music, Leipzig 5-8 maggio.

Sacks O. 2008, Musicofilia, Milano: Adelphi.

195

Salk L. 1973, The role of the heart in the relations between mother and

infant, «Scientific American», 2285, 24-29.

Santorsola D. 2000, Jazz. L’arte dell’armonizzazione, Milano: Ricordi.

Schaeffer P. 1966, Traité des objets musicaux, Paris: Le Seuil.

Schenker H. 1935, Free composition, New York: Longman.

Scherer K.R. 1986, Vocal affect expression: a review and a model for

future research, «Psychological Bulletin», 99/2.

Schneider M. 1960, La musica primitiva, Milano: Adelphi.

Schönberg A. 1967, Funzioni strutturali dell’armonia, Milano: Il Saggiatore.

Schopenhauer A. 1819, Il mondo come volontà e rappresentazione, Bari:

Laterza.

Scott L.M. 1990, Understanding Jingles and Needledrop: A Rhetorical

Approach to Music in Advertising, «Journal of Consumer Research»,

17 (September), 223-236.

Shuter_Dyson R. 1999, Musical ability, in Deutsch (1999).

Simeon E. 1995, Per un pugno di note: storia, teoria, estetica della musica

per il cinema, la televisione e il video, Ruginenti: Milano.

Simpson R.H., Quinn M. e Ausubel D.P. 1956, Synesthesia in Children:

Association of Colors with Pure Tone Frequencies, «The Journal of

Genetic Psychology», 89, 95-103.

Sloboda J.A. 1985, La mente musicale, Bologna: Il Mulino.

Sloboda J.A. 1992, Empirical studies of emotional response to music, in

Jones e Holleran (1992).

Sloterdijk P. 1993, Wo sind wir, wenn wir Musik Horen? in Id.,

Weltfremdheit, Frankfurt am Main.

196

Smith J.D. 1987, Conflicting Aesthetic Ideals in a Musical Culture, «Music

Perception», 44, 373-392.

Smith N. e Tsimpli I.M. 1995, The mind of a savant, Oxford: Blackwell.

Spanu G.N. 1999, 1400-1600: La musica nella società rinascimentale, in

Favaro e Pestalozza (1999).

Spaziante L. 2005, Suoni e musiche dagli spot, in Bianchi (2005).

Spaziante L. 2007, Sociosemiotica del pop, Roma: Carocci editore.

Stanley S. (a cura di) 2001, The New Grove Dictionary of Music and

Musicians, Second edition, London: MacMillan Publishers Ltd.

Stefani G. 1982, Il linguaggio della musica, Milano: Paoline.

Stefani G. e Guerra Lisi S. 1999, Gli stili prenatali nelle arti e nella vita,

Bologna: Clueb.

Stefani G. e Marconi L. 1992, La melodia, Milano: Bompiani.

Stefani G., Marconi L. e Ferrari F. 1990, Gli intervalli musicali, Milano:

Bompiani.

Stefani G., Tarasti E. e Marconi L. (a cura di) 1998, Musical Signification:

Between Rhetoric and Pragmatics, Proceedings of the 5th

International Congress on Musical Signification, Bologna.

Stilwell R.J. 2001, Advertising, Music in, in Stanley (2001).

Stroop J.R. 1935, Studies of interference in serial verbal reactions,

«Journal of Experimental Psychology», 18, 643-662.

Suk Won Yi (a cura di) 1999, Music, mind and science, Seoul: Seoul

National University Press.

Tagg P. 1981, On the specifity of musical communication, Goteborg:

Gothenburg University Musicology Department.

197

Tagg P. 1990, Towards a sign tipology of music, in Dalmonte e Baroni

(1990).

Tagg P. 2010, Music’s Meanings. A 21st‐century musicology for non‐

musos, manuscript, version updated 2010‐11‐22, 02:25.

Tarasti E. 1991, Beethoven’s Waldestein and the Generative Course,

«Indiana Theory Review», XII 1991, 99-140.

Tarasti E. 2002, I segni della musica: che cosa ci dicono i suoni, Lucca: Le

Sfere.

Tekman H.G. e Bharucha J.J. 1992, Time course of chord priming,

«Perception & Psychophysics», 51(1), 33–39.

Tillmann, B., Bharucha J. J. e Bigand E. 2000, Implicit learning of tonality:

A self-organizing approach, «Psychological Review», vol. 107,

885-913.

Titon J.T. (a cura di) 1996, Worlds of music: an introduction to the music of

the world’s peoples, New York: Schirmer Books.

Titon J.T., e Slobin, M. 1996, The music-culture as a world of music, in

Titon (1996).

Tormey A. 1971, The Concept of Expression. A Study in Philosophical

Psychology and Aesthetics, Priceton: Priceton University Press.

Trabant J. 2002, Lingua, in Wulf (2002).

Traini S. 2006, Le due vie della semiotica. Teorie strutturali e

interpretative, Milano: Bompiani.

Trehub S. E. 2003, Toward a developmental psychology of music, Annals

of the New York Academy Sciences, 999, 402–413.

Ulrich M. 1977, Atlante della musica. Milano: Mondadori.

198

Velotti S. 1999, Imitazione, in Carchia e D’angelo (1999).

Vinay G. 1991, Il Novecento nell’Europa Orientale e negli Stati Uniti, Vol

XI, Torino: EDT

Vinay V. 1994, Grammatica funzionale dell’armonia classica. Morfologia,

Milano: Rugginenti.

Von Balthasar H.U. 1925, Lo sviluppo dell’idea musicale, Milano: Glossa.

Wallin N.L., Merker B. e Brown S. (a cura di) 2000, The Origins of Music,

Cambridge, MA: MIT Press.

Ward J., Huckstep B. e Tsakanikos E. 2006, Sound-Colour Synaesthesia.

to what extent does it use cross-modal mechanism common to us

all?, «Cortex», 42, 264-280.

Ward W.D. 1999, Absolute Pitch, in Deutsch (1999).

Werner H. 1970, Comparative psychology of mental development,

Chicago: Follett.

Wertheimer M. 1923, Principles of Perceptual Organization, in Beardslee

(1953).

Wilson B., Buelow G.J. e Hoyt P.A. 2001, Rhetoric and music, in Stanley

(2001).

Wong P.C.M., Skoe E., Russo N.M., Dees T. e Kraus N. 2007, Musical

experience shapes human brainstem encoding of linguistic pitch

patterns, «Nature Neuroscience», 10 (4), 420-422.

Wulf C. (a cura di) 2002, Le idee dell’antropologia, Milano: Bruno

Mondadori.

Wulf C. 2002, Mimesis, in Wulf (2002).

Zappa F. e Occhiogrosso P. 1990, Zappa. L’autobiografia, Milano: Arcana.

199

Zarlino G. 1558, Istitutioni Harmoniche, Venezia: Francesco dei

Franceschi Senese.

Zeki S. 2007, Neurologia dell’ambiguità, in Lucignani e Pinotti (2007).

Zenatti A. 1981, L’enfant et son environnement musical, Issy-les-

Moulineaux: EAP.

Zimny G.H. e Weidenfeller E.W. 1963, Effects of music upon GSR and

heart-rate, «American Journal of Psychology», 76, 311-314.

Zuckerkandl V. 1956, Sound and Symbol: Music and the External World,

New York: Pantheon.

200