Anno Accademico 2000-2001 - unipa.it · Web viewLa tecnica più tradizionale di analisi del...
Transcript of Anno Accademico 2000-2001 - unipa.it · Web viewLa tecnica più tradizionale di analisi del...
S O C I O LO G I A
A n n o A c c a d e m i c o 2 0 0 0 - 2 0 0 1
L a c o n t e n t a n a l y s i s
I l m e t o d o , l e t e c n i c h e , i l i m i t i .
1 . C E N N I S T O R I C I E M A T R I C I T E O R I C H E .
La ricostruzione delle radici storico-concettuali del metodo di ricerca,
denominato content analysis (analisi del contenuto), usato nelle scienze sociali per
lo studio di materiale testuale (sia esso scritto, verbale, iconico o audiovisivo), è di
fondamentale importanza per individuare i limiti ma anche le potenzialità che
caratterizzano il più tradizionale degli approcci metodologici all'analisi dei testi.
L'insieme di tecniche1 che prende il nome di content analysis nasce negli Stati
Uniti, intorno agli anni Venti, nell'ambito della sociologia delle comunicazioni di
massa e degli studi sulla propaganda politica, in particolare, sull'aspetto
persuasivo e politico-ideologico dei messaggi veicolati dalla comunicazione
politica del tempo, sia sul versante nazionale che internazionale2.
La content analysis affonda le proprie radici storiche e teoriche nel noto
paradigma comunicativo3 elaborato da Harold Lasswell, che ha fornito uno
schema descrittivo dell'atto comunicativo per lungo tempo dominante nella
communication research, utilizzato per l'analisi della trasmissione e della
ricezione dei messaggi.
Seguendo tale approccio ogni possibile tentativo di analisi e di ricerca sui
media si risolve e si riduce nella risposta a cinque interrogativi-chiave (le cinque
W del paradigma comunicativo di Lasswell):
1 Piuttosto che un'unica tecnica o metodo di ricerca sociale la content analysis risponde ad un intreccio di più tecniche e pratiche standardizzate per lo studio e l'analisi dei messaggi contenuti in uno o più testi: "L'analisi del contenuto, infatti, abbraccia un insieme di tecniche di ricerca empirica, volte all'indagine dei contenuti ricorrenti di un dato campione di testi" (Casetti-di Chio, 1998: 197). Il campione di testi selezionato per l'analisi empirica viene definito corpus testuale.2 Gli studi più noti sono le prime ricerche realizzate da Harold Lasswell sulla propaganda politica americana, inglese, francese e tedesca nel periodo compreso fra il 1914 e il 1917 (Lasswell 1927) e sui contenuti degli slogans del Primo Maggio nell'Unione Sovietica nel periodo compreso tra il 1918 e il 1943 (Lasswell 1949).3 Qui il termine comunicazione è inteso come "comportamento di scambio di messaggi" (Cfr. Wiener, 1966).
1
1. Chi dice (Who says);
2. Che cosa (What);
3. Attraverso quale canale (through Which channel);
4. A chi (to Whom);
5. Con quale effetto (with Which effects).
A ciascun quesito può essere associato lo sviluppo di uno specifico filone di
ricerca: il primo definisce l'analisi degli emittenti, il secondo l'analisi del
contenuto dei messaggi (content analysis), il terzo l'analisi dei mezzi tecnici, il
quarto l'analisi dell'audience e l'ultimo lo studio degli effetti della comunicazione
(Cfr. Morcellini-Fatelli, 1999: 147).
Risulta quindi immediatamente chiaro come il metodo di ricerca qui discusso
privilegi quasi esclusivamente il secondo elemento del processo comunicativo che
invece, ad un'analisi più approfondita e di maggiore taglio critico risulta essere
pluri-dimensionale, oltre che caratterizzato da differenti livelli di complessità,
polisemia e "improbabilità4".
Il forte limite del modello informazionale, al quale fa riferimento l'analisi del
contenuto, è quello di ridurre il fenomeno comunicativo ad una procedura di
trasferimento di messaggi, ad un "comportamento di scambio"5 di contenuti pre-
esistenti all'interazione comunicativa.
Essa si configura piuttosto, seguendo percorsi di riflessione di taglio socio-
semiotico, come pratica ermeneutica lungo la quale gli attori della comunicazione
co-producono e costruiscono intersoggettivamente un universo simbolico
condiviso e negoziato di significati sui quali agisce dinamicamente l'azione
interpretativa dei partecipanti al gioco comunicativo, creatori di "reti", ragnatele,
trame testuali di senso (Cfr. Geertz, 1987).
La comunicazione non è un semplice trasferimento di contenuti da una fonte
ad un destinatario, un passaggio lineare di significati che appartengono
intrinsecamente al testo.
4 L’esito del gioco comunicativo non è scontatamente prevedibile, non si può anticipare o pensare come probabile il successo della comunicazione, corrispondente alla certezza che il messaggio emesso dalla fonte sia compreso dal ricevente, in quanto dotato dello stesso codice interpretativo del primo. Questo fenomeno è ciò che conduce Niklas Luhmann a riflettere sul tema della comunicazione definendolo come "evento estremamente improbabile" (Luhmann, 1995: 61), come evento non scontatamente trasparente e lineare, bensì opaco e frastagliato, imponendo una riconsiderazione dei processi di significazione e di comprensione, prescindendo dai quali si rientra nella linearità riduzionistica del modello trasmissivo.5 Questa è l'idea di comunicazione a fondamento del modello informazionale classico elaborato alla fine degli anni Quaranta dalla Scuola Cibernetica di Norbert Wiener.
2
Al contrario, la comunicazione è un processo, una costruzione tra
soggeti/attori comunicativi, orientata alla co-produzione di senso (Cfr. Casetti - di
Chio, 1998: 240).
2 . L E D E F I N I Z I O N I . T R A Q U A N T I T A ' E Q U A L I T A ' .
La definizione di content analysis elaborata da Berelson6, approdando ad una
prima formulazione sistematica e scientificamente rigorosa di tale metodo
utilizzato nella ricerca empirica dalle scienze sociali, è un tradizionale punto di
partenza ed una tappa obbligata di riflessione per esplorare il ventaglio di
definizioni e di approcci che hanno segnato gli sviluppi e i cambiamenti, sia sul
piano epistemologico che su quello metodologico, della content analysis.
Secondo tale definizione classica, che condensa oltre trent'anni di ricerca
empirica (dagli Anni Venti agli Anni Cinquanta) e di approfondimenti teorici,
l’analisi del contenuto è “una tecnica di ricerca per la descrizione obbiettiva,
sistematica e quantitativa del contenuto manifesto della comunicazione”
[Berelson, 1952; corsivi miei].
La stragrande maggioranza di indagini empiriche realizzate soprattutto in
America tra gli anni Venti e Quaranta (Cfr. Casetti - di Chio, 1998: 307) si sono
infatti prevalentemente attenute a tale orientamento che ha segnato profondamente
la tradizione metodologica statunitense legata ai valori e ai principi della
"verifica", della "oggettività" scientifica, della "misurazione", concentrando
l'attenzione sulla quantità e trascurando le ragioni e la fertilità di una combinata
analisi qualitativa di cui, da alcuni anni, si riscopre il valore euristico-
metodologico.
Il primato della descrizione/verifica/spiegazione sulla
comprensione/valutazione/interpretazione ha a lungo caratterizzato il tradizionale
approccio all'analisi del contenuto quantitativa contraddistinta, secondo le
6 L’impiego della content analysis nello studio dei testi mediali risale agli anni Venti. Harold Lasswell può essere considerato il “padre” della content analysis. Studi nell’ambito della sociologia delle comunicazioni di massa e ricerche sulla propaganda politica e sugli effetti persuasivo-manipolatori della comunicazione mass-mediatica. Analisi e classificazione dei simboli-chiave ricorrenti nei “messaggi” oggetto di indagine (Cfr. Lasswell 1927, 1941, 1949). A partire dagli anni Trenta le ricerche empiriche che utilizzano le tecniche della content analysis si moltiplicano e toccano l’apice negli anni Cinquanta, fase in cui ricevettero una prima formulazione organica ad opera principalmente di Berelson e Lasswell (Cfr. Berelson, 1952).
3
teorizzazioni degli scienziati sociali7 che per primi le hanno conferito uno statuto
di scientificità, "dalla classificazione delle espressioni del testo in opportune
categorie, dette categorie di contenuto, definite in rapporto agli specifici scopi
conoscitivi della ricerca condotta. Le espressioni di un testo (parole, frasi,
proposizioni) vengono classificate nella varie categorie in base al loro significato"
(F. Bercelli, 1971: 201-202).
Ma è proprio sul concetto di significato che l'approccio tradizionale all'analisi
del contenuto mostra le proprie zone d'ombra, riducendo la intrinseca polisemia,
la pervasiva ambiguità e l'alto grado di complessità connaturati al processo
comunicativo ad un fenomeno:
Monodimensionalità (enfasi sul messaggio - trascura la multidimensionalità
del “processo comunicativo” - comunicazione come “flusso” dall’Emittente al
Ricevente);
Linearità (la complessità del processo comunicativo viene ridotta e
semplificata, incapacità di cogliere la ricchezza semantica e la polisemia dei
testi);
Empirismo riduzionistico (i messaggi vengono “misurati” ricorrendo
all’operativizzazione dei concetti/proprietà- Dal concetto alle variabili);
Atomismo [i contenuti vengono individuati e analizzati singolarmente,
isolandoli dalla “rete di significati”(Cfr. Geertz, 1987) che invece costituisce
la “trama” testuale fatta di “relazioni” e nessi tra i singoli elementi;
A-contestualità (analisi dei contenuti manifesti/significati espliciti del testo
sradicandoli dal “contesto”, con scarsa attenzione per le pratiche di
produzione sociale del significato. I contenuti vengono prevalentemente
indagati e analizzati in una dimensione de-contestualizzata che trascura la
rete di senso che essi formano inter-connettendosi non soltanto tra loro ma
anche con il lettore e il contesto sociale di appartenenza);
Analisi/razionalità disincarnata (“operazioni” di analisi del testo di taglio
procedurale prescindendo dall’interazione tra soggetto interpretante e
testo (Cfr. Fiske, 1987), dalla quale emerge la “costruzione di senso”;
Staticità (significati già “dati”, a-priori, prelevabili da un testo inteso come
“contenitore strutturato” e non come tessuto in costruzione soggetto a
7 H. Lasswell, B. Berelson, C. Osgood, P. J. Stone, sono da considerare tra i più autorevoli padri fondatori della content analysis.
4
trasformazioni dinamiche in relazione all'incontro con l'interpretazione e le
letture polisemiche8 dei diversi lettori).
In relazione a quest'ultimo aspetto è utile sottolineare come l'analisi del
contenuto classica consideri il testo come "semplice contenitore di dati, un
supporto su cui si innestano una serie di elementi - le unità di contenuto, appunto -
a cui la ricerca riconosce un significato ed un valore autonomi" (Casetti-di Chio,
1998: 197).
Nella sua versione tradizionale l'analisi del contenuto si fonda sull'assunzione
implicita di un modello comunicativo (quello semiotico-informazionale) che non
dà particolare peso e non presta considerevole attenzione ai processi
multisfaccettati di codifica e di decodifica attuati da emittenti e destinatari,
esponendosi così a critiche che ne evidenziano i limiti derivanti da un approccio
estremamente esemplificante del fenomeno comunicativo.
L'enorme mole di dati e di informazioni da gestire ed elaborare in un lavoro di
analisi di dati testuali, si presenta come una delle difficoltà più problematiche
nell'ambito della content analysis.
La ricchezza di informazioni connaturata al testo stesso rende complesso il
lavoro di ricerca imponendo inevitabilmente una scelta di mediazione
ottimizzante tra costi e vantaggi, ovvero tra la necessità di ricorrere ad una
opportuna riduzione, metodologicamente fondata, della complessità del testo
(ridotto a somma di dati/messaggi) e il vantaggio di manipolare una quantità
selezionata di informazioni sulla quale sia possibile operare generalizzazioni
scientificamente valide9.
"La chiave dell'analisi del contenuto - ma in realtà di tutti i tipi di analisi - sta
nello scegliere una strategia per la perdita delle informazioni che porti a
generalizzazioni interessanti e teoricamente utili, riducendo allo stesso tempo la
quantità di informazioni analizzate e riportate dal ricercatore" (R. P. Weber, 1995:
49).
8 "Il testo non consegna nelle mani del destinatario un senso definito e compiuto, ma fornisce una proposta che il destinatario deve interpretare. Il significato del testo dunque nasce da un confronto tra il testo e il suo destinatario: un confronto che porta ad una vera e propria negoziazione del senso" (Casetti - di Chio: 1998: 255-256, corsivi miei). 9 Tale lavoro di riduzione, organizzazione, strutturazione ed analisi dei dati viene estremamente facilitato dall'uso di tecnologie informatiche e di software (programmi per calcolatori) che permettono di realizzare un'analisi del contenuto computer-assistita riducendo i tempi della ricerca e facilitando il trattamento del corpus testuale finalizzato al lavoro di analisi.
5
La consapevolezza delle potenzialità ma anche dei limiti e dei "tagli" (perdita
di ricchezza informativa) dell'analisi del contenuto ha condotto molti studiosi a
rivedere il precedente paradigma comunicativo optando in favore di un modello
semiotico-testuale (Eco-Fabbri, 1978).
Il modello informazionale classico che fa da sfondo all'analisi del contenuto
trascura l'uso di diversi codici e sotto-codici nel comportamento comunicativo,
facendo invece riferimento all'esistenza di un codice unico valido per tutti gli
interlocutori.
Tale modello non concentra l'attenzione e lo sguardo su un problema che si
pone come centrale negli studi sulla comunicazione e sui media: il problema della
significazione, che rimette in discussione due punti fragili del modello precedente:
l'informazione rimane costante lungo l'arco delle operazioni di codifica e
decodifica10, non subisce alcuna trasformazione nel corso dei processi
ermeneutico-interpretativi implicati;
l'informazione si propaga attraverso un codice comune sia all'emittente sia al
ricevente, che invece può de-codificarla in termini differenziali rispetto alla
codifica privilegiata dalla fonte (preferred meanings - Cfr. D. Morley, 1980).
La revisione critica di questi due aspetti "deboli" del modello matematico
della comunicazione, incentrato sugli aspetti sintattico-formali (procedurali,
operazionali) del fenomeno comunicativo, permette di approdare a conclusioni
dissimili da quelle caratterizzanti il paradigma informazionale:
in primo luogo, la decodifica non avviene in modo necessariamente identico al
processo di codifica, possono infatti intervenire notevoli elementi di
difformità legati al possesso di competenze linguistiche, comunicative, socio-
culturali, etc.. diverse tra la fonte/i del messaggio e il ricevente/i;
in secondo luogo, non è accettabile l'ipotesi di un codice unico, comune sia
all'emittente sia al ricevente, basti pensare al problema della comunicazione
sistematicamente distorta causato spesso dalla dissimetria di codici tra parlanti
(teoria della "decodifica aberrante", Cfr. U. Volli, 1994: 43).
10 Questo assunto viene decostruito e riletto criticamente dalla prospettiva privilegiata dai Cultural Studies, in particolare da Stuart Hall con il suo "Encoding/Decoding Model" (Cfr. S. Hall, 1980), che mette l'accento sulla libertà di decodifica del lettore/destinatario del testo (nonostante si tratti di una "libertà" sottoposta a vincoli dettati dall'architettura ideologica e dalla grammatica scelta da chi ha "costruito" il messaggio), derivandone tre differenti posizioni di decodifica: lettura dominante, lettura negoziata e lettura di opposizione (Cfr. Casetti - di Chio, 1998: 256).
6
Rispetto al modello semiotico-informazionale, quello semiotico-testuale pone
al centro del processo comunicativo non più il messaggio ma il testo, inteso come
insieme strutturato di elementi aventi funzione inter-testuale11, intra-testuale e
con-testuale e, con gli sviluppi dei linguaggi e delle scritture elettroniche non-
sequenziali, anche iper-testuale (Cfr. G. Landow, 1998).
Le definizioni di testo e di testualità si dispongono lungo un ventaglio ampio
di approcci, prospettive e ambiti disciplinari, dalla critica letteraria alla semiotica,
dalla linguistica alle teorie postmoderne.
Tutte12 hanno in comune la concezione di testo come luogo labirintico della
molteplicità, nel quale si stratificano più superfici/livelli di significato, diversi
piani di lettura da concepire come "grovigli di possibilità13" che si attualizzano
solo nell'evento della lettura, nell'interazione con il lettore, senza mai diventare
"definitivi" ed esprimendo così a pieno il testo come struttura dai "confini aperti e
mobili".
A questo proposito Ted Nelson, uno dei creatori dell'ipertesto, osserva: "Non
esiste l'Ultima Parola. Non può esistere la versione finale di qualcosa, l'ultimo
pensiero. C'è sempre un nuovo punto di vista, una nuova idea, una
reinterpretazione. … Ricordatevi l'analogia tra il testo e l'acqua. L'acqua scorre
liberamente, il ghiaccio no" (T. Nelson in G. P. Landow, 1998: 112).
La centralità della pratica attiva del lettore, che nell'atto della lettura fa del
testo una materia viva e metamorfica, in continua trasformazione dinamica,
emerge dalla discrasia semantica e concettuale tra il termine lettura e il termine
ricezione; tra i due il primo implica un atto costruttivo, creativo, di produzione del
senso, che invece il secondo dei due termini trascura o banalizza, dandolo per
scontato: " … il compito del lettore non si esaurisce nella ricezione, dato che la
ricezione è in sé imperfetta. Ciò che la letteratura chiede al lettore non è
11 La nozione di intertestualità va intesa come interazione testuale che si verifica all'interno di un solo testo (J. Kristeva, 1969, 1970).12 Alcune definizioni di testo qui riportate sono tratte da un saggio di Giulio Lughi dal titolo "Ipertesti letterari e labirinti narrativi", pubblicato sul sito Internet http://www.univ.trieste.it/~nirital/lughi/infohum/inform/saggi/lughiper.htm.13 Lotman fa riferimento a momenti di "esplosione" (1992: 37-38) che costituiscono il passaggio dall'imprevedibilità alla prevedibilità, all'interno di quell'intersezione di testi che costituisce lo spazio semiotico: il lettore, rivolto verso il futuro, ha davanti a sé un fascio di possibilità che non hanno ancora compiuto la loro scelta per il passaggio dall'universo di significati potenziali, tutti equiprobabili, alla pattern di significati prescelti e selezionati dal lettore e, quindi, realizzati e attualizzati.
7
semplicemente la ricezione, ma è l'attiva indipendente ed autonoma costruzione
del significato" (Paulson, 1988: 139).
Nella pluralità di definizioni esistenti sul concetto di testo, quella di Lotman si
distingue per averlo concepito come come produttore di significati all'interno della
semiosfera: "La caratteristica fondamentale è qui l'eterogeneità interna del testo.
Esso si presenta come un congegno costituito da un sistema di spazi semiotici
eterogenei, all'interno dei quali circola l'informazione tramessa" (J. Lotman, 1985:
252).
Questa molteplicità, che caratterizza il testo letterario anche quando non è
percepibile a livello superficiale, provoca un rovesciamento dei ruoli tra autore e
lettore: se il testo è molteplice, stratificato, allora la decisione sui percorsi da
compiere spetta al lettore, non dipende soltanto dalla strategia dell'autore. Per
questo secondo aspetto, e cioè lo spostamento dell'attenzione sulla figura del
lettore, occorre fare riferimento al filone dell'ermeneutica dell'interpretazione fino
alle posizioni di Iser (1987), accanto al decostruzionismo e a tutto il post-
strutturalismo americano e alle proposte di Eco (1979) nel Lector in fabula.
Enttrambi questi aspetti, molteplicità del testo e attenzione alla figura del
lettore, portano indubbiamente verso un indebolimento della figura dell'autore e,
in extremis, alla loro ibridazione, alla loro sovrapposizione nella figura del
prosumer (producer + consumer, il produtttore e il consumatore di testi non sono
più necessariamente due ruoli incarnati da due figure distinte nelle nuove forme di
testualità elettronica e digitale che conducono ad una riconfigurazione dei concetti
classici di emittente e ricevente).
È indicativo in questo senso un passo di Barthes, in cui vediamo
comparire, collegati insieme, il tema della molteplicità del testo e quello della
libertà del lettore, con sullo sfondo il preannuncio della morte dell'autore: "... un
testo è fatto di scritture molteplici, provenienti da culture diverse e che
intrattengono reciprocamente rapporti di dialogo, parodia o contestazione; esiste
però un luogo in cui tale molteplicità si riunisce, e tale luogo non è l'autore, come
sinora è stato affermato, bensì il lettore: il lettore è lo spazio in cui si inscrivono,
senza che nessuna vada perduta, tutte le citazioni di cui è fatta la scrittura; l'unità
di un testo non sta nella sua origine ma nella sua destinazione... prezzo della
nascita del lettore non può essere che la morte dell'Autore" (1988: 56).
8
La comunicazione si rivela quindi in tutta la sua problematicità se ci si pone
sul terreno della comunicazione conversazionale/dialogico-narrativa piuttosto che
su quello topico della comunicazione informazionale, quest’ultima insufficiente a
spiegarci la peculiarità di una pragmatica comunicativa che ruota attorno l’idea di
scambio narrativo, di co-produzione di testi, di storie, di discorsi piuttosto che di
mere informazioni della cui rilevazione e analisi si occupa l'insieme di tecniche
discusse sotto l'etichetta di content analysis (con particolare riferimento
all'approccio classico-lasswelliano).
L'asse quantitativo attorno al quale ruota l'analisi del contenuto tradizionale si
sposta sul versante più "qualitativo" con le tecniche di analisi testuale che
sostituiscono all'idea di informazione e di contenuto-messaggio da analizzare
quella di testo.
L'analisi del contenuto rappresenta il più tradizionale degli approcci al testo.
Oggi, l'uso di questa tecnica è molto più circoscritto che in passato, ciò a causa di
diverse ragioni: "ragioni di ordine teorico, come il riferimento a un modello
comunicativo ampiamente superato (quello semiotico-informazionale) o la messa
in gioco di un'idea di testo eccessivamente semplificata (il testo come mero
contenitore), e di ordine metodologico, come l'incapacità di dar conto della
complessità e ricchezza semantica dei testi audiovisivi, spingono ad adottare altre
metodiche di rilevazione e di analisi" (Casetti - di Chio, 1998: 209), tra le quali
spiccano per efficacia e alto valore euristico le tecniche di analisi testuale.
L'analisi testuale "… mira a recuperare snodi essenziali: da un lato essa sposta
l'attenzione sulle componenti concrete del testo, e sui modi in cui esso è costruito
e funziona; dall'altro essa allarga l'attenzione ai modi in cui i singoli significati si
integrano in un senso complessivo, ai modi in cui vengono valorizzati i temi di cui
si parla, e alle forme di enunciazione del discorso stesso" (ibidem: 212).
Le categorie di contenuto mediante le quali è possibile classificare le unità
elementari (unità di classificazione o di analisi)14 nelle quali il testo è scomposto,
frammentato, collocando così a pieno titolo tale tecnica tra gli approcci
14 Le unità da codificare nelle quali è scomposto un testo, prima di procedere alla codifica e classificazione nelle categorie di contenuto opportunamente formulate dall'analista e dai codificatori, sono comunemente le seguenti: singole parole, gruppi nominali o verbali (p.e. "dare per scontato", "centro-sinistra", "elettorato di massa", "voto d'opinione", etc…), intere frasi, temi, paragrafi, testo intero (R. P. Weber, 1995: 27-28).
9
riduzionistici15 di matrice neo-positivista16, vanno intese come "categorie di
significati così come intesi dagli interpreti delle espressioni di un testo" (ibidem:
206-207).
In questo solco si colloca la riflessione critica sulla content analysis classica,
che non attribuisce sufficiente peso e spessore alla molteplicità polivalente di
significati e alla vaghezza/ambiguità dei messaggi contenuti in un testo; i processi
comunicativi, infatti, sono sempre avvolti da un velo di opacità e di nebulosità che
connota l'evento comunicativo come "evento estremamente improbabile17".
Consapevoli di queste difficoltà, i primi studiosi di analisi del contenuto,
Lasswell in particolare, affrontarono questi limiti metodologici ritenendo di
poterli superare circoscrivendo l'analisi dei messaggi al significato manifesto,
cioè, del significato usualmente accolto dalla comunità linguistica di cui gli
interpreti fanno parte (Cfr. Lasswell, 1941).
Le pratiche comunicative, tuttavia, sono fortemente connotate da dimensioni
meta-linguistiche e meta-comunicative che riflettono la natura multiforme del
fenomeno comunicativo caratterizzato da significati latenti oltre che da quelli
manifesti.
I tentativi di "comprensione" dei processi comunicativi sono caratterizzati da
una "tensione" di fondo: oscillano tra la possibilità di decifrarne i meccanismi, le
dinamiche e le zone d'ombra e il vincolo (Cfr. M. Ceruti, 1996) rappresentato
dagli infiniti "livelli di osservazione" e descrizione del fenomeno che si
intrecciano e sovrappongono sottraendolo alla possibilità di esplorarlo
15 "I problemi centrali dell'analisi del contenuto hanno origine principalmente nel processo di riduzione dei dati, attraverso il quale molte parole del testo sono classificate in poche categorie di contenuto" (R. P. Weber, 1995: 18), causando una "rottura" della maglia/trama di relazioni e di nessi tra le diverse componenti del testo di cui si sfaldano e si smarriscono i "legami" riducendolo ad una "somma" di elementi atomizzati/isolati.16 Secondo tale orientamento sociologico la ricerca scientifica deve fondarsi su criteri di oggettività (esistenza di una realtà esterna indipendente dall'osservatore, principio messo in crisi dalle teorie di Heisenberg con il suo principio di indeterminazione e da tutta la fisica moderna), verifica empirica e misurazione dei fenomeni. Più che valutare e interpretare per gli esponenti di questa scuola è prioritario descrivere e "spiegare" le cause, le "leggi" che governano il fenomeno oggetto di studio. 17 Si riporta più estesamente la citazione completa, cui si era già fatto riferimento nella nota n. 4 (Cfr. Infra): "La comunicazione è un evento estremamente improbabile. Basta per un attimo non considerare che di fatto esiste già un sistema della società e che questo sistema riproduce comunicazione attraverso comunicazione, per rendersi conto della improbabilità dell'evento della comunicazione: esso non può avere luogo come evento singolo, si rende probabile da sé e trova il motivo per il suo verificarsi solo nei suoi riferimenti ricorsivi, cioè nelle operazioni comunicative alle quali reagisce e che esso stesso stimola" (N. Luhmann e R. De Giorgi, 1995: 61).
10
restituendolo ad una spiegazione trasparente e oggettiva alla quale sfuggono tutti i
fenomeni "complessi" (Cfr. E. Morin, 1993).
Per l'esplorazione e la rilevazione del senso latente o non manifesto, è
necessario ricorrere a strumenti di indagine e a metodi di ricerca che afferiscono a
discipline che non appartengono all'ambito metodologico prettamente
quantitativo, incentrato su tecniche standard di matrice statistico-matematica.
Tra tali discipline, la semiotica, l'antropologia e la psicologia concorrono
certamente ad arricchire la ricerca sociologica di stampo più qualitativo.
Lo scontro tra approccio quantitativo e qualitativo si ripercuote anche nel
grande dibattito svoltosi attorno all'esigenza di collocare la content analysis tra le
tecniche e i metodi quantitativi o tra quelli qualitativi.
Secondo la definizione classica di Berelson e l'approccio originario mutuato
da Lasswell, alla content analysis va riconosciuta un'identità meramente
quantitativa, soprattutto per l'uso di strumenti statistici (Ricolfi, 1997: 11-14),
tuttavia essa acquista, secondo più recenti riletture e revisioni di tale metodo,
diritto di cittadinanza fra le tecniche di tipo qualitativo [Berg, 1998: 223-252 e
Ricolfi (a cura di), 1997].
Le ragioni di questa incerta collocazione dell’analisi del contenuto
nell’ambito della metodologia della ricerca sono diverse. Una di queste, forse la
maggiore, risiede nella stessa, discutibile distinzione fra metodi qualitativi e
metodi quantitativi, distinzione che proprio nel caso dell’analisi del contenuto
risulta ancora più vacillante.
Un approccio di taglio più qualitativo sulla content analysis la identifica come
tecnica orientata ad intercettare "le dimensioni fondamentali di ‘senso’ presenti in
un testo oggetto di studio" (Bolasco, 1997: 165); ne deriva che è l'oggetto di
indagine ‘qualitativo’ a conferire tale habitus alla tecnica in questione.
La contrapposizione tra qualità e quantità va dunque superata in funzione di
una sintesi armonizzante tra i due approcci, separabili e nettamente distinguibili
solo in termini di tecniche e di procedure operative, ma convergenti sul piano
della fecondità della ricerca e dell'opportunità di scelte metodologiche da
compiere in relazione agli obiettivi, ai contesti, ai mezzi e al più ampio panorama
nel quale la ricerca ha luogo.
Dilatando ulteriormente il ventaglio di definizioni circa la content analysis,
Krippendorf approda ad una definizione che si discosta significativamente da
11
quella offerta da Berelson. Essa scaturisce da differenti premesse epistemologiche
che inevitabilmente implicano un diverso approccio metodologico all'analisi del
contenuto.
Secondo Krippendorff l'analisi dei dati testuali svolta seconda tale tecnica
mira "a stabilire inferenze valide e replicabili a partire dai dati per arrivare al
relativo contesto" (Krippendorff, 1983: 37), definizione che inaugura un diverso
approccio alla ricerca empirica che presceglie i contenuti dei testi18 come oggetto
di studio e le relazioni di questi con il contesto.
Nel solco di questo tentativo di superamento della prospettiva classica, si
colloca la definizione di content analysis di R. P. Weber: "l'analisi del contenuto è
un metodo di ricerca che utilizza un insieme di procedure per creare da un testo
deduzioni valide" (R. P. Weber, 1995: 11, corsivi miei).
Rispetto alla definizione di Berelson prima citata, l'analisi del contenuto viene
qualificata come tecnica atta a stabilire inferenze, anziché orientata a fini
descrittivi, essa viene cioè investita di una valenza sostanzialmente interpretativa,
in cui il compito inferenziale assume un rilievo dominante.
Ciò deriva fondamentalmente dalle premesse epistemologiche dalle quali parte
la riflessione di Krippendorff, incentrata sul carattere vicario della comunicazione:
poiché essa è altro rispetto ai fenomeni cui si riferisce, la ricezione si risolve in
un'attività che tende a stabilire inferenze (deduzioni) a partire dai dati in
riferimento a specifiche sezioni dell'ambiente empirico del ricettore (cfr.
Campelli, 1983: 10).
Mettendo l'accento sulla dimensione interpretativa dell'attività di ricerca e di
analisi, Krippendorff sostiene che "messaggi e comunicazioni simboliche relative
ai fenomeni sono in genere ben altro che non i fenomeni direttamente osservati.
La natura vicaria delle comunicazioni simboliche, consiste nel fatto che chi le
riceve deve trarre inferenze specifiche a partire da dati sensoriali riguardo a
sezioni del suo ambiente empirico. Questo ambiente empirico è quello cui … ci
riferiamo parlando di contesto dei dati" (Krippendorff, 1983: 39).
Nella definizione di Krippendorff è dunque evidente una particolare enfasi sul
contesto dei dati piuttosto che sul contenuto stesso, quest'ultimo perno centrale
delle versioni classiche dell'analisi del contenuto. 18 La nozione di testo non va circoscritta restrittivamente all'idea di testo scritto, bensì va inteso in un'accezione più ampia che include anche i testi verbali, nonostante le analisi testuali (cfr. Casetti- di Chio, 1998) si rivelino più efficaci per lo studio e l'analisi delle interviste, conversazioni, testi audio-visivi, testi iconici.
12
Il compito inferenziale dell'analista viene dunque rivalutato nella lettura che
Krippendorff fa della tecnica in esame, individuando nella figura del ricercatore
un problema-chiave dell'analisi del contenuto. Egli entra in gioco a pieno titolo
nelle dinamiche e soprattutto nelle scelte che fondano la ricerca empirica, con il
suo bagaglio di conoscenze, con il suo background professionale ed esperienziale,
infine, con i suoi frames cognitivi che "incorniciano" concettualmente il lavoro di
ricerca soprattutto nell'impostazione del disegno della ricerca e nella fase finale
dell'analisi e interpretazione dei dati.
I dati di cui si parla sono, come Krippendorff insiste nel sottolineare, di natura
simbolica19, mentre "il contesto cui essi si riferiscono rappresenta l'habitat
complessivo in cui i simboli si determinano e si collocano: in questo senso
l'interesse principale dell'analisi del contenuto sarebbe precisamente quello di
stabilire un ponte fra dati e contesto, fra variabili simboliche e variabili non
simboliche" (Campelli, 1983:11-12).
Nella lettura di Krippendorff viene pertanto enfatizzata, a differenza delle
precedenti definizioni di content analysis, la relazione tra i contenuti del testo e il
loro contesto istituzionale, sociale e culturale.
Un altro importante aspetto che fa da discriminante tra la definizione di
Berelson e quella di Krippendorff, è legato al tema dell'oggettività nella ricerca
scientifica.
All'oggettività intesa come conoscenza-riflesso (metafora dello specchio) di
una realtà esterna contenente "informazioni" da scoprire, descrivere e spiegare
secondo tecniche utilizzate con rigore e metodo scientifico (di derivazione
baconiana e cartesiana), approccio seguito dall'originaria impostazione di
Lasswell e dalla conseguente riformulazione metodologica di Berelson,
Krippendorff contrappone il criterio metodologico della replicabilità, condizione
indispensabile per una ricerca scientifica orientata a garantire l'attendibilità e la
validità20 dei propri risultati.
"Da qualsiasi strumento scientifico ci si aspetta l'attendibilità. Ciò significa,
per essere più precisi, che quando diversi ricercatori, in momenti differenti nel
19 Secondo alcuni studiosi infatti l'analisi del contenuto più che dei contenuti manifesti, apparenti, "usuali" (Lasswell e Kaplan) dovrebbe interessarsi dei comportamenti segnici, in particolare di quelli linguistici, "quali effettivamente sono stati tenuti dai loro interpreti; in particolare, … dei significati, quali effettivamente sono stati intesi dai loro interpreti" (F. Bercelli, 1971: 207; corsivo mio).20 Questi due aspetti fondamentali dell'analisi del contenuto vengono trattati più accuratamente, in chiave analitica, nel paragrafo successivo.
13
tempo e magari in circostanze diverse, applicano la stessa tecnica ai medesimi
dati, i risultati devono essere identici: perché l'analisi del contenuto sia replicabile
deve soddisfare questo requisito" (Krippendorff, 1983:37).
A conclusione di questa riflessione sulle caratteristiche, potenzialità e limiti
della content analysis, è importante ancora una volta mettere l'accento sulla
revisione critica che ha permesso di ri-esaminare e ri-leggere gli aspetti
fondamentali e problematici di questo strumento di ricerca, ampiamente utilizzato
nelle scienze sociali per lo studio di testi e documenti soprattutto nell'ambito della
mass-communication research.
Attraverso tale ri-lettura è possibile individuare nuovi orientamenti emergenti
nell'ampia famiglia di tecniche di ricerca che va sotto il nome di content analysis,
che si spingono oltre i limiti epistemo-logici e metodo-logici caratterizzanti
l'analisi del contenuto classica altresì denominata "quantitativa".
E' così possibile distinguere due forme-base di analisi del contenuto: l'analisi
quantitativa del contenuto e l'analisi del contenuto "come inchiesta" (Casetti- di
Chio, 1998: 207-208).
"L'approccio quantitativo ai contenuti … punta soprattutto sul computo dei
dati, applicando tecniche di calcolo anche molto raffinate, mentre l'analisi del
contenuto come inchiesta tende a dare più spazio al momento interpretativo…
[essa] presenta una maggiore flessibilità e…una vocazione, in un certo senso, più
<qualitativa>. Anche questo tipo di analisi produce dati in forma numerica, ma li
supporta e integra con un maggiore sforzo interpretativo. Il numero non ha cioè
valore in sé, ma trae il suo significato dai modelli che suggerisce e,
contemporaneamente concorre a sostanziare" (ibidem: 208).
L'amplificazione del momento interpretativo nell'analisi del contenuto può
tuttavia comportare dei rischi capaci di compromettere la "scientificità" della
ricerca condotta.
Essi si sostanziano nella rischiosa possibilità di distorcere i dati da esaminare,
con serie ricadute sull'attendibilità dei risultati dell'indagine, prelevando dal
corpus testuale solo quei dati che confermano le ipotesi che il ricercatore intende
convalidare o, in extremis, di forzarli entro cornici teorico-concettuali inadeguate
al tipo di analisi da sviluppare.
La tradizionale diatriba quantità versus qualità va quindi superata in favore di
una produttiva riconciliazione tra i due versanti, ancora oggi identificati come
14
opposti e inconciliabili da scuole e orientamenti che si scontrano sul più ampio
terreno metodologico che li ricomprende entrambi, così come sottolinea lo stesso
Krippendorff trattando i "fondamenti concettuali" dell'analisi del contenuto.
Egli rifiuta opportunamente questa alternativa evidenziando come essa
scaturisca da un problema mal posto, una sorta di "fallacia logica" per dirla con
una espressione appartenente al linguaggio filosofico.
Krippendorff sottolinea come la scelta tra strumenti quantitativi e qualitativi, o
sull'eventuale uso di una loro combinazione governata da criteri scientifici, non
possa essere vincolata dall'adesione a-critica e de-contestualizzata ad una
particolare area o approccio di ricerca, suggerendo piuttosto come essa scaturisca
da un intreccio di fattori legati a quella particolare situazione problematica
(analisi situata) che si intende studiare e analizzare, anche ricorrendo a più
tecniche appartenenti a entrambi gli schieramenti (qualitativo e quantitativo)
nell'ambito della stessa ricerca.
L'intreccio di fattori si compone di più fili: il tipo di problema da indagare, il
target (obiettivi) della ricerca, le risorse economiche e umane disponibili per la
sua realizzazione, i tempi disposti per la definizione del lavoro di ricerca, sono
solo alcuni tra gli aspetti rilevanti da considerare nella fase di formulazione del
disegno della ricerca che implica anche la valutazione accurata delle scelte
metodologiche da adottare.
Il successivo paragrafo affronterà nel dettaglio ed in termini strettamente
tecnico-procedurali come accostarsi al lavoro di ricerca svolto secondo le tecniche
proprie della content analysis, illustrando anche in chiave sintetica le due grosse
aree che ne costituiscono i nodi problematici fondamentali: l'attendibilità e la
validità.
3 . L E T E C N I C H E D E L L ' A N A L I S I D E L C O N T E N U T O .
A T T E N D I B I L I T A ' E V A L I D I T A ' 2 1 .
Procedere all’analisi del contenuto di un testo vuol dire scomporlo in elementi
più semplici, i quali vanno classificati con riferimento alle variabili22 (categorie di
21 Alcune parti di questo paragrafo sono tratte da un articolo, di cui è autore Alberto Trobia (Ricercatore di Sociologia del Diritto presso l'Università di Messina).22 In questo modo i concetti che si vogliono esplorare vengono "operazionalizzati" mediante la loro conversione/traduzione in variabili. In metodologia il passaggio dalle unità rilevanti per il fenomeno oggetto di studio ai casi, e dalle proprietà/concetti alle variabili avviene secondo la formulazione e l'esplicitazione di definizioni operative. .
15
analisi) definite dal ricercatore. Tali elementi più semplici vengono chiamati,
come già accennato, "unità di classificazione".
Queste vanno considerate in un certo contesto, che talora può coincidere con
le unità di classificazione stesse.
Stabiliti i criteri di indagine, si procede con la elaborazione delle schede di
codifica (schede di rilevazione per l'analisi del contenuto) o con la
parametrizzazione delle routine di interrogazione informatizzata dei testi, a
seconda della tecnica di elaborazione adottata.
Le prime vengono generalmente utilizzate per l’analisi degli asserti valutativi
(evaluative assertion analysis), mentre le seconde per l’analisi delle frequenze ed
il calcolo computerizzato delle occorrenze (analisi delle contingenze).
Le schede di codifica devono essere sottoposte ad una fase di pre-testing
(controllo preventivo) per verificarne l’affidabilità. Non vi è una letteratura,
invece, circa la validazione delle routine di interrogazione informatizzata dei testi.
Il tema della validazione è uno dei più sensibili in ogni campo della ricerca
scientifica. La validità, in generale, "assicura che i risultati analitici rappresentano
ciò che hanno lo scopo di rappresentare" (Krippendorff, 1980: 185 e cap. 13).
Esso comprende due sotto-temi: quello dell’attendibilità, che di solito riguarda
i risultati della ricerca, e quello dell’affidabilità, che riguarda invece lo strumento
di indagine (schede di rilevazione o routine informatizzate) e il momento della
codifica (regole di codifica). Sono due cose diverse che spesso vengono confuse,
fuorviandone i significati e le dimensioni cui vanno riferite.
L’attendibilità (o validità interna) è una necessaria, per quanto non
sufficiente, condizione della validità. Essa garantisce che "i dati ottenuti siano
indipendenti dalla situazione di misura, dallo strumento o dalla persona. Dati
attendibili, per definizione, sono dati che restano costanti al variare del
procedimento di misura" (Kaplan e Goldsen, cit. in Krippendorff, 1980: 185).
Rositi (1992: 378) ha scritto che: "Le due operazioni di scomposizione e di
classificazione devono avvenire […] sulla base di un sistema di regole che devono
essere seguite: a) correttamente; b) in qualsiasi momento; c) da chiunque le
intenda e le accetti", ma ha considerato erroneamente questi come requisiti di
affidabilità.
16
L’attendibilità riguarda prevalentemente le azioni dei codificatori. Tre tipi di
attendibilità sono riconducibili all'analisi del contenuto: stabilità, riproducibilità e
accuratezza (o precisione).
"La stabilità (stability) si riferisce al momento in cui i risultati della
classificazione del contenuto rimangono invariabili nel tempo. La stabilità può
essere determinata quando lo stesso contenuto è codificato più di una volta dallo
stesso codificatore …è la forma più debole di attendibilità … La riproducibilità
(reproducibility), …si riferisce al fatto che la classificazione del contenuto
produce gli stessi risultati quando lo stesso testo viene codificato da più di un
codificatore. Un'alta riproducibilità è uno standard minimo per l'analisi del
contenuto … La precisione (accuracy) si riferisce al modo in cui la classificazione
del testo corrisponde a uno standard o a una norma. E' la forma più sicura di
attendibilità" (R. P. Weber, 1995: 21).
Krippendorff ha proposto di non insistere, nell’analisi del contenuto, su un
criterio forte di attendibilità: "I dati devono essere almeno riproducibili, tramite
ricercatori indipendenti, in tempi e posizioni diversi, utilizzando le medesime
istruzioni per codificare lo stesso insieme di dati" (Krippendorff, 1983: 189).
L’autore definisce correttamente l’attendibilità in funzione dell’accordo
raggiunto fra i codificatori per quanto riguarda l’assegnazione delle unità alle
diverse categorie23.
A differenza dell’attendibilità, e al contrario di quanto pensino
molti autori anche autorevoli, l’affidabilità riguarda sostanzialmente le procedure
e regole di codifica, la costruzione delle unità, aree e categorie di analisi scelte.
L’affidabilità, pertanto, è una caratteristica che attribuiamo allo strumento di
rilevazione. Si parla, infatti, di dati "attendibili" e di strumenti "affidabili" e non
viceversa.
Una validità più forte di quella già esaminata sotto il nome di attendibilità
(validità interna), si ottiene paragonando i dati dell'analisi del contenuto con
alcuni criteri esterni. Si riconoscono quattro tipi di validità esterna: validità di
costrutto, validità dell'ipotesi, validità predittiva e, infine, validità semantica (cfr.
R. P. Weber, 1995: 23-26).
23 "L’attendibilità consiste sempre, in ultima analisi, nel misurare l’accordo raggiunto fra osservatori, codificatori o giudici per quanto riguarda il modo in cui essi indipendentemente elaborano l’informazione scientifica" (ibidem: 190).
17
Di base, si distinguono tre tecniche di analisi dei dati nell’ambito della content
analysis: l’analisi delle frequenze, l’analisi delle contingenze, l’analisi degli
asserti valutativi (evaluative assertion analysis).
1. La tecnica più tradizionale di analisi del contenuto è rappresentata
dall’analisi delle frequenze. Essa consiste nel misurare la ricorrenza delle unità di
analisi all’interno di uno o più testi, e viene spesso impiegata nelle fasi esplorative
dell’indagine (Casetti-di Chio, 1998: 205). Sull’opportunità e i limiti intrinseci di
un’analisi di questo tipo si è già detto. Proprio in ragione di tali limiti, la tecnica in
questione ricopre generalmente un ruolo meramente strumentale nella ricerca, allo
scopo: a) di avere un quadro d’insieme del corpus testuale a disposizione; b) di
raffinare le categorie e le liste di parole campione utilizzate nelle analisi
successive.
2. L’analisi delle contingenze si propone di misurare la co-occorrenza, cioè la
presenza contemporanea di due o più unità di analisi in uno stesso testo (o
segmento di testo). L’indagine può anche essere allargata, a seconda delle
esigenze di ricerca, ai contesti nei quali le parole chiave sono collocate, secondo
un approccio che nella letteratura anglo-americana viene definito di Key Word In
Context (KWIC) (Cfr. Weber, 1995). Tale contesto è stato convenzionalmente (e
in prima approssimazione) definito con un’estensione che va da venti parole a
sinistra a venti parole a destra24 dalla parola chiave considerata, non prima, però,
di aver collocato in un file di "parole vuote" (stopword) tutte le forme grafiche
"inquinanti", quali articoli, preposizioni, congiunzioni, particelle pronominali, etc.
Con l’analisi delle contingenze si passa certamente ad un livello più sofisticato
di indagine. I calcoli, infatti, assumono una dimensione di tipo statistico, piuttosto
che meramente matematico25.
Per raggiungere dei risultati attendibili, tutte le forme grafiche di un testo
devono essere sottoposte ad un'operazione che prende il nome di
24 Si è verificato come i risultati (attendibilità) non subiscano distorsioni significative restringendo l'estensione ad un intervallo -7/+7.25 "La co-occorrenza statistica è il grado di probabilità che una parola o determinate parole hanno di trovarsi associate in un testo con altre parole. [...] Il calcolo della co-occorrenza statistica, conosciuto nella linguistica computazionale come Mutual Information, si basa sulla seguente formula:
MI = log [f(x,y) / f(x) * f(y)]dove f(x) ed f(y) sono i due valori di frequenza delle due parole ed f(x,y) è la frequenza delle due parole in uno stesso contesto" [Tratto dalla guida all’uso del DBT3]. Il risultato di questi calcoli è un indice, la cui soglia di significatività è stata fissata al valore di 2 unità, con f(x,y) maggiore di 3.
18
disambiguazione, all'interno della quale vanno collocati i processi di
lemmatizzazione e omogeneizzazione.
Per "lemma" si intende la forma canonica di una parola quale è presente come
intestazione di una voce o articolo in un dizionario della lingua. [...] Pertanto le
occorrenze <scrive> e <scrivono> individuano due forme grafiche distinte,
appartenenti ad un solo lemma: <scrivere(_verbo)> (Bolasco, 1997: 171).
Con l'omogeneizzazione, invece, certi sinonimi vengono considerati come
aventi la stessa forma grafica; ciò si verifica per esempio per le parole: sindaco,
candidato, leader, quando queste si riferiscono alla medesima persona.
Un altro aspetto importante del processo di disambiguazione riguarda gli
omografi, parole cioè composte dagli stessi segni grafici ma con significati
differenti.
L’analisi delle contingenze operazionalizza il vecchio assunto di Lasswell, per
cui compito di un’analisi del contenuto è quello di capire chi dice che cosa, come
già analizzato nei precedenti paragrafi.
Questo modello di analisi, pur rappresentando un passo avanti rispetto al mero
conteggio delle occorrenze, possiede limiti rilevanti. "La polemica contro l’analisi
del contenuto ha inteso in genere sottolineare la complessità e la non trasparenza
dei fatti comunicativi, pluridimensionali sia a livello di senso (si pensi, ad
esempio, al gioco sottile che in molti messaggi si instaura tra livello denotativo e
livello connotativo), sia a livello di situazione pragmatica, dove un processo di
comunicazione si svolge normalmente attraverso codici multipli (lingua, idioletti,
mimica, intonazione) ed è attraversato da continui feedback tra gli interlocutori. In
proposito può sembrare davvero troppo generico il riferimento al contesto
contenuto nel modello di Lasswell: Chi dice che cosa a chi in quali condizioni e
con quali effetti" (Rositi, 1992: 376).
3. L’analisi degli asserti valutativi (evaluative assertion analysis) mira a
"fornire, con la massima attendibilità possibile, una misura delle valutazioni date
dal produttore di un messaggio a determinati oggetti del discorso" (Caruso, 1971:
43). Tali valutazioni possono essere positive o negative, forti o deboli. Questa
tecnica, nell’ambito dell’analisi del contenuto, rappresenta un tentativo di
giungere ad un compromesso fra qualità e quantità, e per tale motivo è quella che,
in genere, produce i risultati più interessanti.
19
Per questa specifica tecnica si fa riferimento a una particolare versione di
scala del differenziale semantico di Osgood, Suci e Tannenbaum (1957).
Secondo gli autori citati, esprimere un giudizio, positivo o negativo, su una
persona, vuol dire schematicamente attribuirgli un punteggio lungo un continuum
fra due coppie opposte di termini appartenenti a tre dimensioni di base: la
valutazione (buono o cattivo), la potenza (forte o debole) e l’attività (attivo o
passivo) (ibidem).
In base a questa polarizzazione, il codificatore segue una procedura per
l’attribuzione delle valutazioni espresse nei confronti dell'oggetto di studio;
valutazioni che possono oscillare fra -3 e +3. Tali valutazioni vengono attribuite
secondo lo schema che segue:
* ± 3 (forte intensità): essere, avere e verbi come amare,
odiare, temere, ecc., usati al presente indicativo. Ad esempio, “A / è / X”;
* ± 2 (media intensità): verbi che implicano un aspetto
probabile, parziale, imminente, ecc., come ad esempio “A / ha intenzione di
fare / X”;
* ± 1 (debole intensità): verbi che indicano relazioni solo
ipotetiche o possibili, quali “A avrebbe fatto X”, “fonti ritenute attendibili (A)
sostengono che X” e simili;
* 0 (nessuna intensità): quando non è possibile
individuare alcuna valutazione, ovvero nel caso di citazione letterale (presenza
di virgolette) della fonte.
Nel dettaglio, l’algoritmo di rilevazione prevedeva i seguenti steps (fasi) :
1. individuazione di una keyword;
2. standardizzazione della frase in cui la keyword è presente
nella forma: OA (oggetto di atteggiamento) / f (forma verbale) / v (termine
valutativo) ovvero n (non valutativo);
3. attribuzione del punteggio, secondo lo schema precedente.
20
R i f e r i m e n t i B i b l i o g r a f i c i:
Barthes, R.
1988 La morte dell'autore, in ID., Il brusio della lingua, Torino, Einaudi (ed.ne orig.le 1968).
Berg, B. L.
1998 Qualitative research methods for the social sciences, Boston, Allyn
and Bacon.
Berelson, B.
1952 Content analysis in Communications Research, New York, The
Free Press of Glencoe.
Bolasco, S.
1997 "L’analisi informatica dei testi", in Ricolfi, L. (a cura di), La
ricerca qualitativa, Roma, NIS.
Bercelli, F.
1971 "Teoria dei segni e analisi del contenuto. Considerazioni
epistemologiche", in De Lillo, A. (a cura di), L’analisi del
contenuto. Dalla teoria dell’informazione allo strutturalismo,
Bologna, Il Mulino.
Campelli, E.
1983 Introduzione a Analisi del contenuto. Introduzione metodologica,
trad. it. Torino, Eri (ed.ne orig.le 1980).
Caruso, P.
1971 "I metodi quantitativi di analisi del contenuto", in De Lillo (a cura
di), L’analisi del contenuto. Dalla teoria dell’informazione allo
strutturalismo, Bologna, Il Mulino.
Casetti, F., di Chio, F.
1998 Analisi della televisione, Milano, Bompiani.
21
Ceruti, M.
1996 Il vincolo e la possibilità, Feltrinelli, Milano.
Eco, U.
1979 Lector in fabula. La cooperazione interpretativa nei testi narrativi,
Milano, Bompiani.
Hall, S.
1980 "Encoding/Decoding in Television Discourse", in S. Hall, D.
Hobson, A. Lowe, P. Willis (eds).
Krippendorff, K.
1983 Analisi del contenuto. Introduzione metodologica, trad. it. Torino,
Eri (ed.ne orig.le 1980).
Geertz, C.
1987 Interpretazione di culture, il Mulino, Bologna (ed.ne orig.le 1971).
Iser, W.
1987 L'atto della lettura, Il Mulino, Bologna (ed.ne orig.le 1976).
Kristeva, J.
1969 Semeiotikè. Recherches pour une sémanalyse, Paris: Seuil. Trad. it. Semeiotikè. Ricerche per una semanalisi, Milano, Feltrinelli, 1978.
1970 Le texte du roman, The Hague - Paris: Mouton.
Lasswell, H. D.
1927 Propaganda Technique in the World War, New York, Knopf.
1941 The Technique of Symbol Analysis (Content Analysis),
Experimental Division for the Study of war Time Communication,
Document n. 11.
1949 "The Language of Power", in Lasswell, H.D. e leites, N., (eds.), Language of Politics; Studies in Quantitative Semantics, New York.
22
Lotman, J.M.
1985 "Il testo nel testo", in J. Lotman, La semiosfera, Marsilio, Venezia. (1985).
Luhmann, N., De Giorgi, R.1995 Teoria della società, VII^ ed.ne, FrancoAngeli, Milano, (I^ ed.ne
1992).
Morcellini, M. e Fatelli, G.
1999 Le Scienze della Comunicazione. Modelli e percorsi disciplinari, Carocci Editore, Roma.
Morin, E. 1993 Introduzione al pensiero complesso, Sperling & Kupfer, Milano.
Morley, D.
1980 The NationWide Audience, London, British Film Institute.
Osgood, C. E. , Suci, G. J. , Tannenbaum, P. H.
1957 The measurement of Meaning, Urbana, University of Illinois Press.
Paulson, W. R.
1988 The Noise of Culture: Literary texts in a world of information.
Rositi, F.
1992 Contenuto, analisi del, in “Enciclopedia delle scienze sociali”, vol.
II, Roma, Treccani, pp. 374-380.
Shannon, C. E. e Weaver, W.
1949 The Mathematical Theory of Communication, Urbana, University
of Illinois Press.
Ricolfi, L. (a cura di)
1997 La ricerca qualitativa, Roma, NIS.
Volli, U.
1994 Il libro della comunicazione, Il Saggiatore, Milano.
23