Anno Accademico 2000-2001 - unipa.it  · Web viewLa tecnica più tradizionale di analisi del...

39
SOCIOLOGIA Anno Accademico 2000-2001 La content analysis Il metodo, le tecniche, i limiti. 1. C ENNI STORICI E MATRICI TEORICHE . La ricostruzione delle radici storico-concettuali del metodo di ricerca, denominato content analysis (analisi del contenuto), usato nelle scienze sociali per lo studio di materiale testuale (sia esso scritto, verbale, iconico o audiovisivo), è di fondamentale importanza per individuare i limiti ma anche le potenzialità che caratterizzano il più tradizionale degli approcci metodologici all'analisi dei testi. L'insieme di tecniche 1 che prende il nome di content analysis nasce negli Stati Uniti, intorno agli anni Venti, nell'ambito della sociologia delle comunicazioni di massa e degli studi sulla propaganda politica, in particolare, sull'aspetto persuasivo e politico- ideologico dei messaggi veicolati dalla comunicazione 1 Piuttosto che un'unica tecnica o metodo di ricerca sociale la content analysis risponde ad un intreccio di più tecniche e pratiche standardizzate per lo studio e l'analisi dei messaggi contenuti in uno o più testi: "L'analisi del contenuto, infatti, abbraccia un insieme di tecniche di ricerca empirica, volte all'indagine dei contenuti ricorrenti di un dato campione di testi" (Casetti-di Chio, 1998: 197). Il campione di testi selezionato per l'analisi empirica viene definito corpus testuale. 1

Transcript of Anno Accademico 2000-2001 - unipa.it  · Web viewLa tecnica più tradizionale di analisi del...

S O C I O LO G I A

A n n o A c c a d e m i c o 2 0 0 0 - 2 0 0 1

L a c o n t e n t a n a l y s i s

I l m e t o d o , l e t e c n i c h e , i l i m i t i .

1 . C E N N I S T O R I C I E M A T R I C I T E O R I C H E .

La ricostruzione delle radici storico-concettuali del metodo di ricerca,

denominato content analysis (analisi del contenuto), usato nelle scienze sociali per

lo studio di materiale testuale (sia esso scritto, verbale, iconico o audiovisivo), è di

fondamentale importanza per individuare i limiti ma anche le potenzialità che

caratterizzano il più tradizionale degli approcci metodologici all'analisi dei testi.

L'insieme di tecniche1 che prende il nome di content analysis nasce negli Stati

Uniti, intorno agli anni Venti, nell'ambito della sociologia delle comunicazioni di

massa e degli studi sulla propaganda politica, in particolare, sull'aspetto

persuasivo e politico-ideologico dei messaggi veicolati dalla comunicazione

politica del tempo, sia sul versante nazionale che internazionale2.

La content analysis affonda le proprie radici storiche e teoriche nel noto

paradigma comunicativo3 elaborato da Harold Lasswell, che ha fornito uno

schema descrittivo dell'atto comunicativo per lungo tempo dominante nella

communication research, utilizzato per l'analisi della trasmissione e della

ricezione dei messaggi.

Seguendo tale approccio ogni possibile tentativo di analisi e di ricerca sui

media si risolve e si riduce nella risposta a cinque interrogativi-chiave (le cinque

W del paradigma comunicativo di Lasswell):

1 Piuttosto che un'unica tecnica o metodo di ricerca sociale la content analysis risponde ad un intreccio di più tecniche e pratiche standardizzate per lo studio e l'analisi dei messaggi contenuti in uno o più testi: "L'analisi del contenuto, infatti, abbraccia un insieme di tecniche di ricerca empirica, volte all'indagine dei contenuti ricorrenti di un dato campione di testi" (Casetti-di Chio, 1998: 197). Il campione di testi selezionato per l'analisi empirica viene definito corpus testuale.2 Gli studi più noti sono le prime ricerche realizzate da Harold Lasswell sulla propaganda politica americana, inglese, francese e tedesca nel periodo compreso fra il 1914 e il 1917 (Lasswell 1927) e sui contenuti degli slogans del Primo Maggio nell'Unione Sovietica nel periodo compreso tra il 1918 e il 1943 (Lasswell 1949).3 Qui il termine comunicazione è inteso come "comportamento di scambio di messaggi" (Cfr. Wiener, 1966).

1

1. Chi dice (Who says);

2. Che cosa (What);

3. Attraverso quale canale (through Which channel);

4. A chi (to Whom);

5. Con quale effetto (with Which effects).

A ciascun quesito può essere associato lo sviluppo di uno specifico filone di

ricerca: il primo definisce l'analisi degli emittenti, il secondo l'analisi del

contenuto dei messaggi (content analysis), il terzo l'analisi dei mezzi tecnici, il

quarto l'analisi dell'audience e l'ultimo lo studio degli effetti della comunicazione

(Cfr. Morcellini-Fatelli, 1999: 147).

Risulta quindi immediatamente chiaro come il metodo di ricerca qui discusso

privilegi quasi esclusivamente il secondo elemento del processo comunicativo che

invece, ad un'analisi più approfondita e di maggiore taglio critico risulta essere

pluri-dimensionale, oltre che caratterizzato da differenti livelli di complessità,

polisemia e "improbabilità4".

Il forte limite del modello informazionale, al quale fa riferimento l'analisi del

contenuto, è quello di ridurre il fenomeno comunicativo ad una procedura di

trasferimento di messaggi, ad un "comportamento di scambio"5 di contenuti pre-

esistenti all'interazione comunicativa.

Essa si configura piuttosto, seguendo percorsi di riflessione di taglio socio-

semiotico, come pratica ermeneutica lungo la quale gli attori della comunicazione

co-producono e costruiscono intersoggettivamente un universo simbolico

condiviso e negoziato di significati sui quali agisce dinamicamente l'azione

interpretativa dei partecipanti al gioco comunicativo, creatori di "reti", ragnatele,

trame testuali di senso (Cfr. Geertz, 1987).

La comunicazione non è un semplice trasferimento di contenuti da una fonte

ad un destinatario, un passaggio lineare di significati che appartengono

intrinsecamente al testo.

4 L’esito del gioco comunicativo non è scontatamente prevedibile, non si può anticipare o pensare come probabile il successo della comunicazione, corrispondente alla certezza che il messaggio emesso dalla fonte sia compreso dal ricevente, in quanto dotato dello stesso codice interpretativo del primo. Questo fenomeno è ciò che conduce Niklas Luhmann a riflettere sul tema della comunicazione definendolo come "evento estremamente improbabile" (Luhmann, 1995: 61), come evento non scontatamente trasparente e lineare, bensì opaco e frastagliato, imponendo una riconsiderazione dei processi di significazione e di comprensione, prescindendo dai quali si rientra nella linearità riduzionistica del modello trasmissivo.5 Questa è l'idea di comunicazione a fondamento del modello informazionale classico elaborato alla fine degli anni Quaranta dalla Scuola Cibernetica di Norbert Wiener.

2

Al contrario, la comunicazione è un processo, una costruzione tra

soggeti/attori comunicativi, orientata alla co-produzione di senso (Cfr. Casetti - di

Chio, 1998: 240).

2 . L E D E F I N I Z I O N I . T R A Q U A N T I T A ' E Q U A L I T A ' .

La definizione di content analysis elaborata da Berelson6, approdando ad una

prima formulazione sistematica e scientificamente rigorosa di tale metodo

utilizzato nella ricerca empirica dalle scienze sociali, è un tradizionale punto di

partenza ed una tappa obbligata di riflessione per esplorare il ventaglio di

definizioni e di approcci che hanno segnato gli sviluppi e i cambiamenti, sia sul

piano epistemologico che su quello metodologico, della content analysis.

Secondo tale definizione classica, che condensa oltre trent'anni di ricerca

empirica (dagli Anni Venti agli Anni Cinquanta) e di approfondimenti teorici,

l’analisi del contenuto è “una tecnica di ricerca per la descrizione obbiettiva,

sistematica e quantitativa del contenuto manifesto della comunicazione”

[Berelson, 1952; corsivi miei].

La stragrande maggioranza di indagini empiriche realizzate soprattutto in

America tra gli anni Venti e Quaranta (Cfr. Casetti - di Chio, 1998: 307) si sono

infatti prevalentemente attenute a tale orientamento che ha segnato profondamente

la tradizione metodologica statunitense legata ai valori e ai principi della

"verifica", della "oggettività" scientifica, della "misurazione", concentrando

l'attenzione sulla quantità e trascurando le ragioni e la fertilità di una combinata

analisi qualitativa di cui, da alcuni anni, si riscopre il valore euristico-

metodologico.

Il primato della descrizione/verifica/spiegazione sulla

comprensione/valutazione/interpretazione ha a lungo caratterizzato il tradizionale

approccio all'analisi del contenuto quantitativa contraddistinta, secondo le

6 L’impiego della content analysis nello studio dei testi mediali risale agli anni Venti. Harold Lasswell può essere considerato il “padre” della content analysis. Studi nell’ambito della sociologia delle comunicazioni di massa e ricerche sulla propaganda politica e sugli effetti persuasivo-manipolatori della comunicazione mass-mediatica. Analisi e classificazione dei simboli-chiave ricorrenti nei “messaggi” oggetto di indagine (Cfr. Lasswell 1927, 1941, 1949). A partire dagli anni Trenta le ricerche empiriche che utilizzano le tecniche della content analysis si moltiplicano e toccano l’apice negli anni Cinquanta, fase in cui ricevettero una prima formulazione organica ad opera principalmente di Berelson e Lasswell (Cfr. Berelson, 1952).

3

teorizzazioni degli scienziati sociali7 che per primi le hanno conferito uno statuto

di scientificità, "dalla classificazione delle espressioni del testo in opportune

categorie, dette categorie di contenuto, definite in rapporto agli specifici scopi

conoscitivi della ricerca condotta. Le espressioni di un testo (parole, frasi,

proposizioni) vengono classificate nella varie categorie in base al loro significato"

(F. Bercelli, 1971: 201-202).

Ma è proprio sul concetto di significato che l'approccio tradizionale all'analisi

del contenuto mostra le proprie zone d'ombra, riducendo la intrinseca polisemia,

la pervasiva ambiguità e l'alto grado di complessità connaturati al processo

comunicativo ad un fenomeno:

Monodimensionalità (enfasi sul messaggio - trascura la multidimensionalità

del “processo comunicativo” - comunicazione come “flusso” dall’Emittente al

Ricevente);

Linearità (la complessità del processo comunicativo viene ridotta e

semplificata, incapacità di cogliere la ricchezza semantica e la polisemia dei

testi);

Empirismo riduzionistico (i messaggi vengono “misurati” ricorrendo

all’operativizzazione dei concetti/proprietà- Dal concetto alle variabili);

Atomismo [i contenuti vengono individuati e analizzati singolarmente,

isolandoli dalla “rete di significati”(Cfr. Geertz, 1987) che invece costituisce

la “trama” testuale fatta di “relazioni” e nessi tra i singoli elementi;

A-contestualità (analisi dei contenuti manifesti/significati espliciti del testo

sradicandoli dal “contesto”, con scarsa attenzione per le pratiche di

produzione sociale del significato. I contenuti vengono prevalentemente

indagati e analizzati in una dimensione de-contestualizzata che trascura la

rete di senso che essi formano inter-connettendosi non soltanto tra loro ma

anche con il lettore e il contesto sociale di appartenenza);

Analisi/razionalità disincarnata (“operazioni” di analisi del testo di taglio

procedurale prescindendo dall’interazione tra soggetto interpretante e

testo (Cfr. Fiske, 1987), dalla quale emerge la “costruzione di senso”;

Staticità (significati già “dati”, a-priori, prelevabili da un testo inteso come

“contenitore strutturato” e non come tessuto in costruzione soggetto a

7 H. Lasswell, B. Berelson, C. Osgood, P. J. Stone, sono da considerare tra i più autorevoli padri fondatori della content analysis.

4

trasformazioni dinamiche in relazione all'incontro con l'interpretazione e le

letture polisemiche8 dei diversi lettori).

In relazione a quest'ultimo aspetto è utile sottolineare come l'analisi del

contenuto classica consideri il testo come "semplice contenitore di dati, un

supporto su cui si innestano una serie di elementi - le unità di contenuto, appunto -

a cui la ricerca riconosce un significato ed un valore autonomi" (Casetti-di Chio,

1998: 197).

Nella sua versione tradizionale l'analisi del contenuto si fonda sull'assunzione

implicita di un modello comunicativo (quello semiotico-informazionale) che non

dà particolare peso e non presta considerevole attenzione ai processi

multisfaccettati di codifica e di decodifica attuati da emittenti e destinatari,

esponendosi così a critiche che ne evidenziano i limiti derivanti da un approccio

estremamente esemplificante del fenomeno comunicativo.

L'enorme mole di dati e di informazioni da gestire ed elaborare in un lavoro di

analisi di dati testuali, si presenta come una delle difficoltà più problematiche

nell'ambito della content analysis.

La ricchezza di informazioni connaturata al testo stesso rende complesso il

lavoro di ricerca imponendo inevitabilmente una scelta di mediazione

ottimizzante tra costi e vantaggi, ovvero tra la necessità di ricorrere ad una

opportuna riduzione, metodologicamente fondata, della complessità del testo

(ridotto a somma di dati/messaggi) e il vantaggio di manipolare una quantità

selezionata di informazioni sulla quale sia possibile operare generalizzazioni

scientificamente valide9.

"La chiave dell'analisi del contenuto - ma in realtà di tutti i tipi di analisi - sta

nello scegliere una strategia per la perdita delle informazioni che porti a

generalizzazioni interessanti e teoricamente utili, riducendo allo stesso tempo la

quantità di informazioni analizzate e riportate dal ricercatore" (R. P. Weber, 1995:

49).

8 "Il testo non consegna nelle mani del destinatario un senso definito e compiuto, ma fornisce una proposta che il destinatario deve interpretare. Il significato del testo dunque nasce da un confronto tra il testo e il suo destinatario: un confronto che porta ad una vera e propria negoziazione del senso" (Casetti - di Chio: 1998: 255-256, corsivi miei). 9 Tale lavoro di riduzione, organizzazione, strutturazione ed analisi dei dati viene estremamente facilitato dall'uso di tecnologie informatiche e di software (programmi per calcolatori) che permettono di realizzare un'analisi del contenuto computer-assistita riducendo i tempi della ricerca e facilitando il trattamento del corpus testuale finalizzato al lavoro di analisi.

5

La consapevolezza delle potenzialità ma anche dei limiti e dei "tagli" (perdita

di ricchezza informativa) dell'analisi del contenuto ha condotto molti studiosi a

rivedere il precedente paradigma comunicativo optando in favore di un modello

semiotico-testuale (Eco-Fabbri, 1978).

Il modello informazionale classico che fa da sfondo all'analisi del contenuto

trascura l'uso di diversi codici e sotto-codici nel comportamento comunicativo,

facendo invece riferimento all'esistenza di un codice unico valido per tutti gli

interlocutori.

Tale modello non concentra l'attenzione e lo sguardo su un problema che si

pone come centrale negli studi sulla comunicazione e sui media: il problema della

significazione, che rimette in discussione due punti fragili del modello precedente:

l'informazione rimane costante lungo l'arco delle operazioni di codifica e

decodifica10, non subisce alcuna trasformazione nel corso dei processi

ermeneutico-interpretativi implicati;

l'informazione si propaga attraverso un codice comune sia all'emittente sia al

ricevente, che invece può de-codificarla in termini differenziali rispetto alla

codifica privilegiata dalla fonte (preferred meanings - Cfr. D. Morley, 1980).

La revisione critica di questi due aspetti "deboli" del modello matematico

della comunicazione, incentrato sugli aspetti sintattico-formali (procedurali,

operazionali) del fenomeno comunicativo, permette di approdare a conclusioni

dissimili da quelle caratterizzanti il paradigma informazionale:

in primo luogo, la decodifica non avviene in modo necessariamente identico al

processo di codifica, possono infatti intervenire notevoli elementi di

difformità legati al possesso di competenze linguistiche, comunicative, socio-

culturali, etc.. diverse tra la fonte/i del messaggio e il ricevente/i;

in secondo luogo, non è accettabile l'ipotesi di un codice unico, comune sia

all'emittente sia al ricevente, basti pensare al problema della comunicazione

sistematicamente distorta causato spesso dalla dissimetria di codici tra parlanti

(teoria della "decodifica aberrante", Cfr. U. Volli, 1994: 43).

10 Questo assunto viene decostruito e riletto criticamente dalla prospettiva privilegiata dai Cultural Studies, in particolare da Stuart Hall con il suo "Encoding/Decoding Model" (Cfr. S. Hall, 1980), che mette l'accento sulla libertà di decodifica del lettore/destinatario del testo (nonostante si tratti di una "libertà" sottoposta a vincoli dettati dall'architettura ideologica e dalla grammatica scelta da chi ha "costruito" il messaggio), derivandone tre differenti posizioni di decodifica: lettura dominante, lettura negoziata e lettura di opposizione (Cfr. Casetti - di Chio, 1998: 256).

6

Rispetto al modello semiotico-informazionale, quello semiotico-testuale pone

al centro del processo comunicativo non più il messaggio ma il testo, inteso come

insieme strutturato di elementi aventi funzione inter-testuale11, intra-testuale e

con-testuale e, con gli sviluppi dei linguaggi e delle scritture elettroniche non-

sequenziali, anche iper-testuale (Cfr. G. Landow, 1998).

Le definizioni di testo e di testualità si dispongono lungo un ventaglio ampio

di approcci, prospettive e ambiti disciplinari, dalla critica letteraria alla semiotica,

dalla linguistica alle teorie postmoderne.

Tutte12 hanno in comune la concezione di testo come luogo labirintico della

molteplicità, nel quale si stratificano più superfici/livelli di significato, diversi

piani di lettura da concepire come "grovigli di possibilità13" che si attualizzano

solo nell'evento della lettura, nell'interazione con il lettore, senza mai diventare

"definitivi" ed esprimendo così a pieno il testo come struttura dai "confini aperti e

mobili".

A questo proposito Ted Nelson, uno dei creatori dell'ipertesto, osserva: "Non

esiste l'Ultima Parola. Non può esistere la versione finale di qualcosa, l'ultimo

pensiero. C'è sempre un nuovo punto di vista, una nuova idea, una

reinterpretazione. … Ricordatevi l'analogia tra il testo e l'acqua. L'acqua scorre

liberamente, il ghiaccio no" (T. Nelson in G. P. Landow, 1998: 112).

La centralità della pratica attiva del lettore, che nell'atto della lettura fa del

testo una materia viva e metamorfica, in continua trasformazione dinamica,

emerge dalla discrasia semantica e concettuale tra il termine lettura e il termine

ricezione; tra i due il primo implica un atto costruttivo, creativo, di produzione del

senso, che invece il secondo dei due termini trascura o banalizza, dandolo per

scontato: " … il compito del lettore non si esaurisce nella ricezione, dato che la

ricezione è in sé imperfetta. Ciò che la letteratura chiede al lettore non è

11 La nozione di intertestualità va intesa come interazione testuale che si verifica all'interno di un solo testo (J. Kristeva, 1969, 1970).12 Alcune definizioni di testo qui riportate sono tratte da un saggio di Giulio Lughi dal titolo "Ipertesti letterari e labirinti narrativi", pubblicato sul sito Internet http://www.univ.trieste.it/~nirital/lughi/infohum/inform/saggi/lughiper.htm.13 Lotman fa riferimento a momenti di "esplosione" (1992: 37-38) che costituiscono il passaggio dall'imprevedibilità alla prevedibilità, all'interno di quell'intersezione di testi che costituisce lo spazio semiotico: il lettore, rivolto verso il futuro, ha davanti a sé un fascio di possibilità che non hanno ancora compiuto la loro scelta per il passaggio dall'universo di significati potenziali, tutti equiprobabili, alla pattern di significati prescelti e selezionati dal lettore e, quindi, realizzati e attualizzati.

7

semplicemente la ricezione, ma è l'attiva indipendente ed autonoma costruzione

del significato" (Paulson, 1988: 139).

Nella pluralità di definizioni esistenti sul concetto di testo, quella di Lotman si

distingue per averlo concepito come come produttore di significati all'interno della

semiosfera: "La caratteristica fondamentale è qui l'eterogeneità interna del testo.

Esso si presenta come un congegno costituito da un sistema di spazi semiotici

eterogenei, all'interno dei quali circola l'informazione tramessa" (J. Lotman, 1985:

252).

Questa molteplicità, che caratterizza il testo letterario anche quando non è

percepibile a livello superficiale, provoca un rovesciamento dei ruoli tra autore e

lettore: se il testo è molteplice, stratificato, allora la decisione sui percorsi da

compiere spetta al lettore, non dipende soltanto dalla strategia dell'autore. Per

questo secondo aspetto, e cioè lo spostamento dell'attenzione sulla figura del

lettore, occorre fare riferimento al filone dell'ermeneutica dell'interpretazione fino

alle posizioni di Iser (1987), accanto al decostruzionismo e a tutto il post-

strutturalismo americano e alle proposte di Eco (1979) nel Lector in fabula.

Enttrambi questi aspetti, molteplicità del testo e attenzione alla figura del

lettore, portano indubbiamente verso un indebolimento della figura dell'autore e,

in extremis, alla loro ibridazione, alla loro sovrapposizione nella figura del

prosumer (producer + consumer, il produtttore e il consumatore di testi non sono

più necessariamente due ruoli incarnati da due figure distinte nelle nuove forme di

testualità elettronica e digitale che conducono ad una riconfigurazione dei concetti

classici di emittente e ricevente).

È indicativo in questo senso un passo di Barthes, in cui vediamo

comparire, collegati insieme, il tema della molteplicità del testo e quello della

libertà del lettore, con sullo sfondo il preannuncio della morte dell'autore: "... un

testo è fatto di scritture molteplici, provenienti da culture diverse e che

intrattengono reciprocamente rapporti di dialogo, parodia o contestazione; esiste

però un luogo in cui tale molteplicità si riunisce, e tale luogo non è l'autore, come

sinora è stato affermato, bensì il lettore: il lettore è lo spazio in cui si inscrivono,

senza che nessuna vada perduta, tutte le citazioni di cui è fatta la scrittura; l'unità

di un testo non sta nella sua origine ma nella sua destinazione... prezzo della

nascita del lettore non può essere che la morte dell'Autore" (1988: 56).

8

La comunicazione si rivela quindi in tutta la sua problematicità se ci si pone

sul terreno della comunicazione conversazionale/dialogico-narrativa piuttosto che

su quello topico della comunicazione informazionale, quest’ultima insufficiente a

spiegarci la peculiarità di una pragmatica comunicativa che ruota attorno l’idea di

scambio narrativo, di co-produzione di testi, di storie, di discorsi piuttosto che di

mere informazioni della cui rilevazione e analisi si occupa l'insieme di tecniche

discusse sotto l'etichetta di content analysis (con particolare riferimento

all'approccio classico-lasswelliano).

L'asse quantitativo attorno al quale ruota l'analisi del contenuto tradizionale si

sposta sul versante più "qualitativo" con le tecniche di analisi testuale che

sostituiscono all'idea di informazione e di contenuto-messaggio da analizzare

quella di testo.

L'analisi del contenuto rappresenta il più tradizionale degli approcci al testo.

Oggi, l'uso di questa tecnica è molto più circoscritto che in passato, ciò a causa di

diverse ragioni: "ragioni di ordine teorico, come il riferimento a un modello

comunicativo ampiamente superato (quello semiotico-informazionale) o la messa

in gioco di un'idea di testo eccessivamente semplificata (il testo come mero

contenitore), e di ordine metodologico, come l'incapacità di dar conto della

complessità e ricchezza semantica dei testi audiovisivi, spingono ad adottare altre

metodiche di rilevazione e di analisi" (Casetti - di Chio, 1998: 209), tra le quali

spiccano per efficacia e alto valore euristico le tecniche di analisi testuale.

L'analisi testuale "… mira a recuperare snodi essenziali: da un lato essa sposta

l'attenzione sulle componenti concrete del testo, e sui modi in cui esso è costruito

e funziona; dall'altro essa allarga l'attenzione ai modi in cui i singoli significati si

integrano in un senso complessivo, ai modi in cui vengono valorizzati i temi di cui

si parla, e alle forme di enunciazione del discorso stesso" (ibidem: 212).

Le categorie di contenuto mediante le quali è possibile classificare le unità

elementari (unità di classificazione o di analisi)14 nelle quali il testo è scomposto,

frammentato, collocando così a pieno titolo tale tecnica tra gli approcci

14 Le unità da codificare nelle quali è scomposto un testo, prima di procedere alla codifica e classificazione nelle categorie di contenuto opportunamente formulate dall'analista e dai codificatori, sono comunemente le seguenti: singole parole, gruppi nominali o verbali (p.e. "dare per scontato", "centro-sinistra", "elettorato di massa", "voto d'opinione", etc…), intere frasi, temi, paragrafi, testo intero (R. P. Weber, 1995: 27-28).

9

riduzionistici15 di matrice neo-positivista16, vanno intese come "categorie di

significati così come intesi dagli interpreti delle espressioni di un testo" (ibidem:

206-207).

In questo solco si colloca la riflessione critica sulla content analysis classica,

che non attribuisce sufficiente peso e spessore alla molteplicità polivalente di

significati e alla vaghezza/ambiguità dei messaggi contenuti in un testo; i processi

comunicativi, infatti, sono sempre avvolti da un velo di opacità e di nebulosità che

connota l'evento comunicativo come "evento estremamente improbabile17".

Consapevoli di queste difficoltà, i primi studiosi di analisi del contenuto,

Lasswell in particolare, affrontarono questi limiti metodologici ritenendo di

poterli superare circoscrivendo l'analisi dei messaggi al significato manifesto,

cioè, del significato usualmente accolto dalla comunità linguistica di cui gli

interpreti fanno parte (Cfr. Lasswell, 1941).

Le pratiche comunicative, tuttavia, sono fortemente connotate da dimensioni

meta-linguistiche e meta-comunicative che riflettono la natura multiforme del

fenomeno comunicativo caratterizzato da significati latenti oltre che da quelli

manifesti.

I tentativi di "comprensione" dei processi comunicativi sono caratterizzati da

una "tensione" di fondo: oscillano tra la possibilità di decifrarne i meccanismi, le

dinamiche e le zone d'ombra e il vincolo (Cfr. M. Ceruti, 1996) rappresentato

dagli infiniti "livelli di osservazione" e descrizione del fenomeno che si

intrecciano e sovrappongono sottraendolo alla possibilità di esplorarlo

15 "I problemi centrali dell'analisi del contenuto hanno origine principalmente nel processo di riduzione dei dati, attraverso il quale molte parole del testo sono classificate in poche categorie di contenuto" (R. P. Weber, 1995: 18), causando una "rottura" della maglia/trama di relazioni e di nessi tra le diverse componenti del testo di cui si sfaldano e si smarriscono i "legami" riducendolo ad una "somma" di elementi atomizzati/isolati.16 Secondo tale orientamento sociologico la ricerca scientifica deve fondarsi su criteri di oggettività (esistenza di una realtà esterna indipendente dall'osservatore, principio messo in crisi dalle teorie di Heisenberg con il suo principio di indeterminazione e da tutta la fisica moderna), verifica empirica e misurazione dei fenomeni. Più che valutare e interpretare per gli esponenti di questa scuola è prioritario descrivere e "spiegare" le cause, le "leggi" che governano il fenomeno oggetto di studio. 17 Si riporta più estesamente la citazione completa, cui si era già fatto riferimento nella nota n. 4 (Cfr. Infra): "La comunicazione è un evento estremamente improbabile. Basta per un attimo non considerare che di fatto esiste già un sistema della società e che questo sistema riproduce comunicazione attraverso comunicazione, per rendersi conto della improbabilità dell'evento della comunicazione: esso non può avere luogo come evento singolo, si rende probabile da sé e trova il motivo per il suo verificarsi solo nei suoi riferimenti ricorsivi, cioè nelle operazioni comunicative alle quali reagisce e che esso stesso stimola" (N. Luhmann e R. De Giorgi, 1995: 61).

10

restituendolo ad una spiegazione trasparente e oggettiva alla quale sfuggono tutti i

fenomeni "complessi" (Cfr. E. Morin, 1993).

Per l'esplorazione e la rilevazione del senso latente o non manifesto, è

necessario ricorrere a strumenti di indagine e a metodi di ricerca che afferiscono a

discipline che non appartengono all'ambito metodologico prettamente

quantitativo, incentrato su tecniche standard di matrice statistico-matematica.

Tra tali discipline, la semiotica, l'antropologia e la psicologia concorrono

certamente ad arricchire la ricerca sociologica di stampo più qualitativo.

Lo scontro tra approccio quantitativo e qualitativo si ripercuote anche nel

grande dibattito svoltosi attorno all'esigenza di collocare la content analysis tra le

tecniche e i metodi quantitativi o tra quelli qualitativi.

Secondo la definizione classica di Berelson e l'approccio originario mutuato

da Lasswell, alla content analysis va riconosciuta un'identità meramente

quantitativa, soprattutto per l'uso di strumenti statistici (Ricolfi, 1997: 11-14),

tuttavia essa acquista, secondo più recenti riletture e revisioni di tale metodo,

diritto di cittadinanza fra le tecniche di tipo qualitativo [Berg, 1998: 223-252 e

Ricolfi (a cura di), 1997].

Le ragioni di questa incerta collocazione dell’analisi del contenuto

nell’ambito della metodologia della ricerca sono diverse. Una di queste, forse la

maggiore, risiede nella stessa, discutibile distinzione fra metodi qualitativi e

metodi quantitativi, distinzione che proprio nel caso dell’analisi del contenuto

risulta ancora più vacillante.

Un approccio di taglio più qualitativo sulla content analysis la identifica come

tecnica orientata ad intercettare "le dimensioni fondamentali di ‘senso’ presenti in

un testo oggetto di studio" (Bolasco, 1997: 165); ne deriva che è l'oggetto di

indagine ‘qualitativo’ a conferire tale habitus alla tecnica in questione.

La contrapposizione tra qualità e quantità va dunque superata in funzione di

una sintesi armonizzante tra i due approcci, separabili e nettamente distinguibili

solo in termini di tecniche e di procedure operative, ma convergenti sul piano

della fecondità della ricerca e dell'opportunità di scelte metodologiche da

compiere in relazione agli obiettivi, ai contesti, ai mezzi e al più ampio panorama

nel quale la ricerca ha luogo.

Dilatando ulteriormente il ventaglio di definizioni circa la content analysis,

Krippendorf approda ad una definizione che si discosta significativamente da

11

quella offerta da Berelson. Essa scaturisce da differenti premesse epistemologiche

che inevitabilmente implicano un diverso approccio metodologico all'analisi del

contenuto.

Secondo Krippendorff l'analisi dei dati testuali svolta seconda tale tecnica

mira "a stabilire inferenze valide e replicabili a partire dai dati per arrivare al

relativo contesto" (Krippendorff, 1983: 37), definizione che inaugura un diverso

approccio alla ricerca empirica che presceglie i contenuti dei testi18 come oggetto

di studio e le relazioni di questi con il contesto.

Nel solco di questo tentativo di superamento della prospettiva classica, si

colloca la definizione di content analysis di R. P. Weber: "l'analisi del contenuto è

un metodo di ricerca che utilizza un insieme di procedure per creare da un testo

deduzioni valide" (R. P. Weber, 1995: 11, corsivi miei).

Rispetto alla definizione di Berelson prima citata, l'analisi del contenuto viene

qualificata come tecnica atta a stabilire inferenze, anziché orientata a fini

descrittivi, essa viene cioè investita di una valenza sostanzialmente interpretativa,

in cui il compito inferenziale assume un rilievo dominante.

Ciò deriva fondamentalmente dalle premesse epistemologiche dalle quali parte

la riflessione di Krippendorff, incentrata sul carattere vicario della comunicazione:

poiché essa è altro rispetto ai fenomeni cui si riferisce, la ricezione si risolve in

un'attività che tende a stabilire inferenze (deduzioni) a partire dai dati in

riferimento a specifiche sezioni dell'ambiente empirico del ricettore (cfr.

Campelli, 1983: 10).

Mettendo l'accento sulla dimensione interpretativa dell'attività di ricerca e di

analisi, Krippendorff sostiene che "messaggi e comunicazioni simboliche relative

ai fenomeni sono in genere ben altro che non i fenomeni direttamente osservati.

La natura vicaria delle comunicazioni simboliche, consiste nel fatto che chi le

riceve deve trarre inferenze specifiche a partire da dati sensoriali riguardo a

sezioni del suo ambiente empirico. Questo ambiente empirico è quello cui … ci

riferiamo parlando di contesto dei dati" (Krippendorff, 1983: 39).

Nella definizione di Krippendorff è dunque evidente una particolare enfasi sul

contesto dei dati piuttosto che sul contenuto stesso, quest'ultimo perno centrale

delle versioni classiche dell'analisi del contenuto. 18 La nozione di testo non va circoscritta restrittivamente all'idea di testo scritto, bensì va inteso in un'accezione più ampia che include anche i testi verbali, nonostante le analisi testuali (cfr. Casetti- di Chio, 1998) si rivelino più efficaci per lo studio e l'analisi delle interviste, conversazioni, testi audio-visivi, testi iconici.

12

Il compito inferenziale dell'analista viene dunque rivalutato nella lettura che

Krippendorff fa della tecnica in esame, individuando nella figura del ricercatore

un problema-chiave dell'analisi del contenuto. Egli entra in gioco a pieno titolo

nelle dinamiche e soprattutto nelle scelte che fondano la ricerca empirica, con il

suo bagaglio di conoscenze, con il suo background professionale ed esperienziale,

infine, con i suoi frames cognitivi che "incorniciano" concettualmente il lavoro di

ricerca soprattutto nell'impostazione del disegno della ricerca e nella fase finale

dell'analisi e interpretazione dei dati.

I dati di cui si parla sono, come Krippendorff insiste nel sottolineare, di natura

simbolica19, mentre "il contesto cui essi si riferiscono rappresenta l'habitat

complessivo in cui i simboli si determinano e si collocano: in questo senso

l'interesse principale dell'analisi del contenuto sarebbe precisamente quello di

stabilire un ponte fra dati e contesto, fra variabili simboliche e variabili non

simboliche" (Campelli, 1983:11-12).

Nella lettura di Krippendorff viene pertanto enfatizzata, a differenza delle

precedenti definizioni di content analysis, la relazione tra i contenuti del testo e il

loro contesto istituzionale, sociale e culturale.

Un altro importante aspetto che fa da discriminante tra la definizione di

Berelson e quella di Krippendorff, è legato al tema dell'oggettività nella ricerca

scientifica.

All'oggettività intesa come conoscenza-riflesso (metafora dello specchio) di

una realtà esterna contenente "informazioni" da scoprire, descrivere e spiegare

secondo tecniche utilizzate con rigore e metodo scientifico (di derivazione

baconiana e cartesiana), approccio seguito dall'originaria impostazione di

Lasswell e dalla conseguente riformulazione metodologica di Berelson,

Krippendorff contrappone il criterio metodologico della replicabilità, condizione

indispensabile per una ricerca scientifica orientata a garantire l'attendibilità e la

validità20 dei propri risultati.

"Da qualsiasi strumento scientifico ci si aspetta l'attendibilità. Ciò significa,

per essere più precisi, che quando diversi ricercatori, in momenti differenti nel

19 Secondo alcuni studiosi infatti l'analisi del contenuto più che dei contenuti manifesti, apparenti, "usuali" (Lasswell e Kaplan) dovrebbe interessarsi dei comportamenti segnici, in particolare di quelli linguistici, "quali effettivamente sono stati tenuti dai loro interpreti; in particolare, … dei significati, quali effettivamente sono stati intesi dai loro interpreti" (F. Bercelli, 1971: 207; corsivo mio).20 Questi due aspetti fondamentali dell'analisi del contenuto vengono trattati più accuratamente, in chiave analitica, nel paragrafo successivo.

13

tempo e magari in circostanze diverse, applicano la stessa tecnica ai medesimi

dati, i risultati devono essere identici: perché l'analisi del contenuto sia replicabile

deve soddisfare questo requisito" (Krippendorff, 1983:37).

A conclusione di questa riflessione sulle caratteristiche, potenzialità e limiti

della content analysis, è importante ancora una volta mettere l'accento sulla

revisione critica che ha permesso di ri-esaminare e ri-leggere gli aspetti

fondamentali e problematici di questo strumento di ricerca, ampiamente utilizzato

nelle scienze sociali per lo studio di testi e documenti soprattutto nell'ambito della

mass-communication research.

Attraverso tale ri-lettura è possibile individuare nuovi orientamenti emergenti

nell'ampia famiglia di tecniche di ricerca che va sotto il nome di content analysis,

che si spingono oltre i limiti epistemo-logici e metodo-logici caratterizzanti

l'analisi del contenuto classica altresì denominata "quantitativa".

E' così possibile distinguere due forme-base di analisi del contenuto: l'analisi

quantitativa del contenuto e l'analisi del contenuto "come inchiesta" (Casetti- di

Chio, 1998: 207-208).

"L'approccio quantitativo ai contenuti … punta soprattutto sul computo dei

dati, applicando tecniche di calcolo anche molto raffinate, mentre l'analisi del

contenuto come inchiesta tende a dare più spazio al momento interpretativo…

[essa] presenta una maggiore flessibilità e…una vocazione, in un certo senso, più

<qualitativa>. Anche questo tipo di analisi produce dati in forma numerica, ma li

supporta e integra con un maggiore sforzo interpretativo. Il numero non ha cioè

valore in sé, ma trae il suo significato dai modelli che suggerisce e,

contemporaneamente concorre a sostanziare" (ibidem: 208).

L'amplificazione del momento interpretativo nell'analisi del contenuto può

tuttavia comportare dei rischi capaci di compromettere la "scientificità" della

ricerca condotta.

Essi si sostanziano nella rischiosa possibilità di distorcere i dati da esaminare,

con serie ricadute sull'attendibilità dei risultati dell'indagine, prelevando dal

corpus testuale solo quei dati che confermano le ipotesi che il ricercatore intende

convalidare o, in extremis, di forzarli entro cornici teorico-concettuali inadeguate

al tipo di analisi da sviluppare.

La tradizionale diatriba quantità versus qualità va quindi superata in favore di

una produttiva riconciliazione tra i due versanti, ancora oggi identificati come

14

opposti e inconciliabili da scuole e orientamenti che si scontrano sul più ampio

terreno metodologico che li ricomprende entrambi, così come sottolinea lo stesso

Krippendorff trattando i "fondamenti concettuali" dell'analisi del contenuto.

Egli rifiuta opportunamente questa alternativa evidenziando come essa

scaturisca da un problema mal posto, una sorta di "fallacia logica" per dirla con

una espressione appartenente al linguaggio filosofico.

Krippendorff sottolinea come la scelta tra strumenti quantitativi e qualitativi, o

sull'eventuale uso di una loro combinazione governata da criteri scientifici, non

possa essere vincolata dall'adesione a-critica e de-contestualizzata ad una

particolare area o approccio di ricerca, suggerendo piuttosto come essa scaturisca

da un intreccio di fattori legati a quella particolare situazione problematica

(analisi situata) che si intende studiare e analizzare, anche ricorrendo a più

tecniche appartenenti a entrambi gli schieramenti (qualitativo e quantitativo)

nell'ambito della stessa ricerca.

L'intreccio di fattori si compone di più fili: il tipo di problema da indagare, il

target (obiettivi) della ricerca, le risorse economiche e umane disponibili per la

sua realizzazione, i tempi disposti per la definizione del lavoro di ricerca, sono

solo alcuni tra gli aspetti rilevanti da considerare nella fase di formulazione del

disegno della ricerca che implica anche la valutazione accurata delle scelte

metodologiche da adottare.

Il successivo paragrafo affronterà nel dettaglio ed in termini strettamente

tecnico-procedurali come accostarsi al lavoro di ricerca svolto secondo le tecniche

proprie della content analysis, illustrando anche in chiave sintetica le due grosse

aree che ne costituiscono i nodi problematici fondamentali: l'attendibilità e la

validità.

3 . L E T E C N I C H E D E L L ' A N A L I S I D E L C O N T E N U T O .

A T T E N D I B I L I T A ' E V A L I D I T A ' 2 1 .

Procedere all’analisi del contenuto di un testo vuol dire scomporlo in elementi

più semplici, i quali vanno classificati con riferimento alle variabili22 (categorie di

21 Alcune parti di questo paragrafo sono tratte da un articolo, di cui è autore Alberto Trobia (Ricercatore di Sociologia del Diritto presso l'Università di Messina).22 In questo modo i concetti che si vogliono esplorare vengono "operazionalizzati" mediante la loro conversione/traduzione in variabili. In metodologia il passaggio dalle unità rilevanti per il fenomeno oggetto di studio ai casi, e dalle proprietà/concetti alle variabili avviene secondo la formulazione e l'esplicitazione di definizioni operative. .

15

analisi) definite dal ricercatore. Tali elementi più semplici vengono chiamati,

come già accennato, "unità di classificazione".

Queste vanno considerate in un certo contesto, che talora può coincidere con

le unità di classificazione stesse.

Stabiliti i criteri di indagine, si procede con la elaborazione delle schede di

codifica (schede di rilevazione per l'analisi del contenuto) o con la

parametrizzazione delle routine di interrogazione informatizzata dei testi, a

seconda della tecnica di elaborazione adottata.

Le prime vengono generalmente utilizzate per l’analisi degli asserti valutativi

(evaluative assertion analysis), mentre le seconde per l’analisi delle frequenze ed

il calcolo computerizzato delle occorrenze (analisi delle contingenze).

Le schede di codifica devono essere sottoposte ad una fase di pre-testing

(controllo preventivo) per verificarne l’affidabilità. Non vi è una letteratura,

invece, circa la validazione delle routine di interrogazione informatizzata dei testi.

Il tema della validazione è uno dei più sensibili in ogni campo della ricerca

scientifica. La validità, in generale, "assicura che i risultati analitici rappresentano

ciò che hanno lo scopo di rappresentare" (Krippendorff, 1980: 185 e cap. 13).

Esso comprende due sotto-temi: quello dell’attendibilità, che di solito riguarda

i risultati della ricerca, e quello dell’affidabilità, che riguarda invece lo strumento

di indagine (schede di rilevazione o routine informatizzate) e il momento della

codifica (regole di codifica). Sono due cose diverse che spesso vengono confuse,

fuorviandone i significati e le dimensioni cui vanno riferite.

L’attendibilità (o validità interna) è una necessaria, per quanto non

sufficiente, condizione della validità. Essa garantisce che "i dati ottenuti siano

indipendenti dalla situazione di misura, dallo strumento o dalla persona. Dati

attendibili, per definizione, sono dati che restano costanti al variare del

procedimento di misura" (Kaplan e Goldsen, cit. in Krippendorff, 1980: 185).

Rositi (1992: 378) ha scritto che: "Le due operazioni di scomposizione e di

classificazione devono avvenire […] sulla base di un sistema di regole che devono

essere seguite: a) correttamente; b) in qualsiasi momento; c) da chiunque le

intenda e le accetti", ma ha considerato erroneamente questi come requisiti di

affidabilità.

16

L’attendibilità riguarda prevalentemente le azioni dei codificatori. Tre tipi di

attendibilità sono riconducibili all'analisi del contenuto: stabilità, riproducibilità e

accuratezza (o precisione).

"La stabilità (stability) si riferisce al momento in cui i risultati della

classificazione del contenuto rimangono invariabili nel tempo. La stabilità può

essere determinata quando lo stesso contenuto è codificato più di una volta dallo

stesso codificatore …è la forma più debole di attendibilità … La riproducibilità

(reproducibility), …si riferisce al fatto che la classificazione del contenuto

produce gli stessi risultati quando lo stesso testo viene codificato da più di un

codificatore. Un'alta riproducibilità è uno standard minimo per l'analisi del

contenuto … La precisione (accuracy) si riferisce al modo in cui la classificazione

del testo corrisponde a uno standard o a una norma. E' la forma più sicura di

attendibilità" (R. P. Weber, 1995: 21).

Krippendorff ha proposto di non insistere, nell’analisi del contenuto, su un

criterio forte di attendibilità: "I dati devono essere almeno riproducibili, tramite

ricercatori indipendenti, in tempi e posizioni diversi, utilizzando le medesime

istruzioni per codificare lo stesso insieme di dati" (Krippendorff, 1983: 189).

L’autore definisce correttamente l’attendibilità in funzione dell’accordo

raggiunto fra i codificatori per quanto riguarda l’assegnazione delle unità alle

diverse categorie23.

A differenza dell’attendibilità, e al contrario di quanto pensino

molti autori anche autorevoli, l’affidabilità riguarda sostanzialmente le procedure

e regole di codifica, la costruzione delle unità, aree e categorie di analisi scelte.

L’affidabilità, pertanto, è una caratteristica che attribuiamo allo strumento di

rilevazione. Si parla, infatti, di dati "attendibili" e di strumenti "affidabili" e non

viceversa.

Una validità più forte di quella già esaminata sotto il nome di attendibilità

(validità interna), si ottiene paragonando i dati dell'analisi del contenuto con

alcuni criteri esterni. Si riconoscono quattro tipi di validità esterna: validità di

costrutto, validità dell'ipotesi, validità predittiva e, infine, validità semantica (cfr.

R. P. Weber, 1995: 23-26).

23 "L’attendibilità consiste sempre, in ultima analisi, nel misurare l’accordo raggiunto fra osservatori, codificatori o giudici per quanto riguarda il modo in cui essi indipendentemente elaborano l’informazione scientifica" (ibidem: 190).

17

Di base, si distinguono tre tecniche di analisi dei dati nell’ambito della content

analysis: l’analisi delle frequenze, l’analisi delle contingenze, l’analisi degli

asserti valutativi (evaluative assertion analysis).

1. La tecnica più tradizionale di analisi del contenuto è rappresentata

dall’analisi delle frequenze. Essa consiste nel misurare la ricorrenza delle unità di

analisi all’interno di uno o più testi, e viene spesso impiegata nelle fasi esplorative

dell’indagine (Casetti-di Chio, 1998: 205). Sull’opportunità e i limiti intrinseci di

un’analisi di questo tipo si è già detto. Proprio in ragione di tali limiti, la tecnica in

questione ricopre generalmente un ruolo meramente strumentale nella ricerca, allo

scopo: a) di avere un quadro d’insieme del corpus testuale a disposizione; b) di

raffinare le categorie e le liste di parole campione utilizzate nelle analisi

successive.

2. L’analisi delle contingenze si propone di misurare la co-occorrenza, cioè la

presenza contemporanea di due o più unità di analisi in uno stesso testo (o

segmento di testo). L’indagine può anche essere allargata, a seconda delle

esigenze di ricerca, ai contesti nei quali le parole chiave sono collocate, secondo

un approccio che nella letteratura anglo-americana viene definito di Key Word In

Context (KWIC) (Cfr. Weber, 1995). Tale contesto è stato convenzionalmente (e

in prima approssimazione) definito con un’estensione che va da venti parole a

sinistra a venti parole a destra24 dalla parola chiave considerata, non prima, però,

di aver collocato in un file di "parole vuote" (stopword) tutte le forme grafiche

"inquinanti", quali articoli, preposizioni, congiunzioni, particelle pronominali, etc.

Con l’analisi delle contingenze si passa certamente ad un livello più sofisticato

di indagine. I calcoli, infatti, assumono una dimensione di tipo statistico, piuttosto

che meramente matematico25.

Per raggiungere dei risultati attendibili, tutte le forme grafiche di un testo

devono essere sottoposte ad un'operazione che prende il nome di

24 Si è verificato come i risultati (attendibilità) non subiscano distorsioni significative restringendo l'estensione ad un intervallo -7/+7.25 "La co-occorrenza statistica è il grado di probabilità che una parola o determinate parole hanno di trovarsi associate in un testo con altre parole. [...] Il calcolo della co-occorrenza statistica, conosciuto nella linguistica computazionale come Mutual Information, si basa sulla seguente formula:

MI = log [f(x,y) / f(x) * f(y)]dove f(x) ed f(y) sono i due valori di frequenza delle due parole ed f(x,y) è la frequenza delle due parole in uno stesso contesto" [Tratto dalla guida all’uso del DBT3]. Il risultato di questi calcoli è un indice, la cui soglia di significatività è stata fissata al valore di 2 unità, con f(x,y) maggiore di 3.

18

disambiguazione, all'interno della quale vanno collocati i processi di

lemmatizzazione e omogeneizzazione.

Per "lemma" si intende la forma canonica di una parola quale è presente come

intestazione di una voce o articolo in un dizionario della lingua. [...] Pertanto le

occorrenze <scrive> e <scrivono> individuano due forme grafiche distinte,

appartenenti ad un solo lemma: <scrivere(_verbo)> (Bolasco, 1997: 171).

Con l'omogeneizzazione, invece, certi sinonimi vengono considerati come

aventi la stessa forma grafica; ciò si verifica per esempio per le parole: sindaco,

candidato, leader, quando queste si riferiscono alla medesima persona.

Un altro aspetto importante del processo di disambiguazione riguarda gli

omografi, parole cioè composte dagli stessi segni grafici ma con significati

differenti.

L’analisi delle contingenze operazionalizza il vecchio assunto di Lasswell, per

cui compito di un’analisi del contenuto è quello di capire chi dice che cosa, come

già analizzato nei precedenti paragrafi.

Questo modello di analisi, pur rappresentando un passo avanti rispetto al mero

conteggio delle occorrenze, possiede limiti rilevanti. "La polemica contro l’analisi

del contenuto ha inteso in genere sottolineare la complessità e la non trasparenza

dei fatti comunicativi, pluridimensionali sia a livello di senso (si pensi, ad

esempio, al gioco sottile che in molti messaggi si instaura tra livello denotativo e

livello connotativo), sia a livello di situazione pragmatica, dove un processo di

comunicazione si svolge normalmente attraverso codici multipli (lingua, idioletti,

mimica, intonazione) ed è attraversato da continui feedback tra gli interlocutori. In

proposito può sembrare davvero troppo generico il riferimento al contesto

contenuto nel modello di Lasswell: Chi dice che cosa a chi in quali condizioni e

con quali effetti" (Rositi, 1992: 376).

3. L’analisi degli asserti valutativi (evaluative assertion analysis) mira a

"fornire, con la massima attendibilità possibile, una misura delle valutazioni date

dal produttore di un messaggio a determinati oggetti del discorso" (Caruso, 1971:

43). Tali valutazioni possono essere positive o negative, forti o deboli. Questa

tecnica, nell’ambito dell’analisi del contenuto, rappresenta un tentativo di

giungere ad un compromesso fra qualità e quantità, e per tale motivo è quella che,

in genere, produce i risultati più interessanti.

19

Per questa specifica tecnica si fa riferimento a una particolare versione di

scala del differenziale semantico di Osgood, Suci e Tannenbaum (1957).

Secondo gli autori citati, esprimere un giudizio, positivo o negativo, su una

persona, vuol dire schematicamente attribuirgli un punteggio lungo un continuum

fra due coppie opposte di termini appartenenti a tre dimensioni di base: la

valutazione (buono o cattivo), la potenza (forte o debole) e l’attività (attivo o

passivo) (ibidem).

In base a questa polarizzazione, il codificatore segue una procedura per

l’attribuzione delle valutazioni espresse nei confronti dell'oggetto di studio;

valutazioni che possono oscillare fra -3 e +3. Tali valutazioni vengono attribuite

secondo lo schema che segue:

* ± 3 (forte intensità): essere, avere e verbi come amare,

odiare, temere, ecc., usati al presente indicativo. Ad esempio, “A / è / X”;

* ± 2 (media intensità): verbi che implicano un aspetto

probabile, parziale, imminente, ecc., come ad esempio “A / ha intenzione di

fare / X”;

* ± 1 (debole intensità): verbi che indicano relazioni solo

ipotetiche o possibili, quali “A avrebbe fatto X”, “fonti ritenute attendibili (A)

sostengono che X” e simili;

* 0 (nessuna intensità): quando non è possibile

individuare alcuna valutazione, ovvero nel caso di citazione letterale (presenza

di virgolette) della fonte.

Nel dettaglio, l’algoritmo di rilevazione prevedeva i seguenti steps (fasi) :

1. individuazione di una keyword;

2. standardizzazione della frase in cui la keyword è presente

nella forma: OA (oggetto di atteggiamento) / f (forma verbale) / v (termine

valutativo) ovvero n (non valutativo);

3. attribuzione del punteggio, secondo lo schema precedente.

20

R i f e r i m e n t i B i b l i o g r a f i c i:

Barthes, R.

1988 La morte dell'autore, in ID., Il brusio della lingua, Torino, Einaudi (ed.ne orig.le 1968).

Berg, B. L.

1998 Qualitative research methods for the social sciences, Boston, Allyn

and Bacon.

Berelson, B.

1952 Content analysis in Communications Research, New York, The

Free Press of Glencoe.

Bolasco, S.

1997 "L’analisi informatica dei testi", in Ricolfi, L. (a cura di), La

ricerca qualitativa, Roma, NIS.

Bercelli, F.

1971 "Teoria dei segni e analisi del contenuto. Considerazioni

epistemologiche", in De Lillo, A. (a cura di), L’analisi del

contenuto. Dalla teoria dell’informazione allo strutturalismo,

Bologna, Il Mulino.

Campelli, E.

1983 Introduzione a Analisi del contenuto. Introduzione metodologica,

trad. it. Torino, Eri (ed.ne orig.le 1980).

Caruso, P.

1971 "I metodi quantitativi di analisi del contenuto", in De Lillo (a cura

di), L’analisi del contenuto. Dalla teoria dell’informazione allo

strutturalismo, Bologna, Il Mulino.

Casetti, F., di Chio, F.

1998 Analisi della televisione, Milano, Bompiani.

21

Ceruti, M.

1996 Il vincolo e la possibilità, Feltrinelli, Milano.

Eco, U.

1979 Lector in fabula. La cooperazione interpretativa nei testi narrativi,

Milano, Bompiani.

Hall, S.

1980 "Encoding/Decoding in Television Discourse", in S. Hall, D.

Hobson, A. Lowe, P. Willis (eds).

Krippendorff, K.

1983 Analisi del contenuto. Introduzione metodologica, trad. it. Torino,

Eri (ed.ne orig.le 1980).

Geertz, C.

1987 Interpretazione di culture, il Mulino, Bologna (ed.ne orig.le 1971).

Iser, W.

1987 L'atto della lettura, Il Mulino, Bologna (ed.ne orig.le 1976).

Kristeva, J.

1969 Semeiotikè. Recherches pour une sémanalyse, Paris: Seuil. Trad. it. Semeiotikè. Ricerche per una semanalisi, Milano, Feltrinelli, 1978.

1970 Le texte du roman, The Hague - Paris: Mouton.

Lasswell, H. D.

1927 Propaganda Technique in the World War, New York, Knopf.

1941 The Technique of Symbol Analysis (Content Analysis),

Experimental Division for the Study of war Time Communication,

Document n. 11.

1949 "The Language of Power", in Lasswell, H.D. e leites, N., (eds.), Language of Politics; Studies in Quantitative Semantics, New York.

22

Lotman, J.M.

1985 "Il testo nel testo", in J. Lotman, La semiosfera, Marsilio, Venezia. (1985).

Luhmann, N., De Giorgi, R.1995 Teoria della società, VII^ ed.ne, FrancoAngeli, Milano, (I^ ed.ne

1992).

Morcellini, M. e Fatelli, G.

1999 Le Scienze della Comunicazione. Modelli e percorsi disciplinari, Carocci Editore, Roma.

Morin, E. 1993 Introduzione al pensiero complesso, Sperling & Kupfer, Milano.

Morley, D.

1980 The NationWide Audience, London, British Film Institute.

Osgood, C. E. , Suci, G. J. , Tannenbaum, P. H.

1957 The measurement of Meaning, Urbana, University of Illinois Press.

Paulson, W. R.

1988 The Noise of Culture: Literary texts in a world of information.

Rositi, F.

1992 Contenuto, analisi del, in “Enciclopedia delle scienze sociali”, vol.

II, Roma, Treccani, pp. 374-380.

Shannon, C. E. e Weaver, W.

1949 The Mathematical Theory of Communication, Urbana, University

of Illinois Press.

Ricolfi, L. (a cura di)

1997 La ricerca qualitativa, Roma, NIS.

Volli, U.

1994 Il libro della comunicazione, Il Saggiatore, Milano.

23

Weber, R. Ph.

1995 Fondamenti di analisi del contenuto, trad. it. a cura di G. Badami e

S. Costantino, Palermo, Sigma Edizioni (ediz.ne orig.le 1990).

Wiener, N.

1966 Introduzione ala cibernetica, Boringhieri, Torino.

24