METODOLOGIA E TECNICA DELLA RICERCA Introduzione ...sociologia.altervista.org/appunti/131.pdf · I...

60
METODOLOGIA E TECNICA DELLA RICERCA Introduzione: i manuali sono l’espressione della “scienza normale”, cioè della scienza dei dubbi fugati, non dovrebbe esserci spazio per dubbi, questioni irrisolte. In questo si è scelta la forma espressiva più argomentativa, un manuale orientato più alla formazione che alla sola informazione. La ricerca sociale è integrazione di metodologia e tecniche di ricerca; intanto separiamo la metodologia dalle tecniche, e lasciamo ai teorici che vogliono occuparsene; le tecniche, soprattutto di rilevazione e di analisi, sono tante: la cosa importante è acquisire le tecniche di analisi, soprattutto quelle statistiche multivariate, bisogna saperne gestire il software. Problema b. Ipotesi c. Progetto d. Costrutti e. Rilevazione f. Elaborazione g. Analisi h. Generalizzazioni PROBLEMA: ostacolo che si incontra in un cammino, un ostacolo esplicitamente riconosciuto come tale , e pertanto concettualizzato, è istituito come problema scientifico. La situazione problematica può essere rappresentata con il concetto di dissonanza cognitiva di Festinger ( fenomeno dissonante rispetto alle aspettative del soggetto conoscente viene dapprima negato e poi ricondotto o a spiegazioni note o a una nuova spiegazione) o con il concetto di anomalia di Kuhn (un’anomalia è una differenziazione significativa rispetto a un trend consolidato e noto). IPOTESI: congetture fondate e controllabili sulla struttura e/o su un processo di un fenomeno. Sono strategie adattive di ricomposizione dello stato di equilibrio fra le cose conosciute, formulate secondo criteri di conoscenze certificati. PROGETTO: progetto della ricerca, va inteso come fase esplicita di un’indagine. Articola operativamente le ipotesi, dopo aver ripercorso l’iter concettuale dalla situazione problematica al problema, valutando l’applicabilità di diverse teorie, definendo i costrutti concettuali utilizzabili e organizzando le fasi e la tempistica. Un progetto ci dice sia perché quella ricerca deve essere fatta, sia cosa deve essere studiato, sia come. COSTRUTTI: sono “costrutti” gli strumenti concettuali tipici della ricerca: i concetti, le loro dimensioni, gli indicatori che elaboriamo per rilevarle, gli indici che componiamo per sintetizzare gli indicatori e rendere con un modello ridotto il concetto di partenza. È il piano del passaggio dalla teoria alla pratica, dal concettuale all’empirico. RILEVAZIONE: è la fase più complessa e delicata fra quelle del ciclo della ricerca, di solito più semplicemente presentata che metodologicamente argomentata. A complicare le cose, va notato che la ricerca sociale ha importato in modo eclettico strumenti di rilevazione dai più diversi campi disciplinari e settori di ricerca, fondati su basi logico-operative non solo diverse, ma spesso configgenti. Gli strumenti non hanno gradi di libertà assoluti dalle basi logico-teorico che li hanno espressi. La forma standard della ricerca sociale nacque per raccogliere informazioni, opinioni e propensioni di singoli cittadini. Per generalizzare diremo che la rilevazione, come fase del ciclo della ricerca, apre due grossi problemi: 1: la definizione delle unità di rilevazione congruenti con il rationale della ricerca, cioè con il sistema di problemi, ipotesi, fenomenologie osservative e costrutti in cui e attorno a cui si struttura il nostro progetto. 2: la definizione del caso o dei casi dell’indagine, in cui raggiungere le unità di rilevazione. ELABORAZIONE: l’uso incongruo delle tecniche naufraga di fronte alla dura realtà tecniche: le informazioni raccolte necessariamente convergeranno in una struttura matriciale, possentemente denominata casi × variabili ( meglio casi × caratteri) . informazioni raccolte senza una costante di riferimento alla loro struttura matriciale solo con grande difficoltà potranno poi essere correttamente organizzate ed elaborate in una struttura matriciale. I dati non parlano da sé, né quelli quantitativi, né quelli qualitativi. Questa fase segna il passaggio dalle informazioni ai dati e costituisce la base di dati che dovrà essere strutturata in modo da rendere possibile l’analisi dei dati. ANALISI: la fase di analisi dei dati solo come un’operazione di riduzione può identificarsi con la sola analisi statistica dei dati, la statistica è pur sempre la metodologia delle scienze osservativo-sperimentali, e a vari livelli la data analysis verrà presentata. GENERALIZZAZIONE: di solito l’ultima delle fasi della ricerca è su tutti i manuali quella della presentazione dei risultati, il report è si l’ultima fase, ma professionale; dal punto di vista metodologico la fase finale è la generalizzazione dei risultati all’interno della quale si inserisce la loro presentazione. Un risultato è tale, in un contesto di ricerca, se è generalizzato, il che significa che la ricerca scientifica nelle scienze sociali non ha come compito primario quello di descrivere un singolo caso o un’isolata datità statistica, ma quello di individuare il senso, cioè il suo aspetto generale, ciò che in ipotesi lo potrebbe rendere in qualche misura rappresentativo di un tipo o classe di casi. La cosa è possibile grazie a due procedure logico-operative: L’analisi dei fenomeni sufficientemente stabili, scelti per rappresentatività tipologica di un collettivo La generalizzazione mediante processi induttivi e abduttivi INDUZIONE: (vedi tabella 1 pag 22) si rappresenta il caso in cui esiste un fenomeno da spiegare (explanandum) e sono note tutte le condizioni di osservazione del fenomeno, non sono però disponibili generalizzazioni alle quali il fenomeno possa essere ricondotto; tali generalizzazioni (insieme alle condizioni costituiscono l’explanans) vengono prodotte a partire dalla ripetuta osservazione di quel fenomeno. Generalizzazione per astrazione induttiva.

Transcript of METODOLOGIA E TECNICA DELLA RICERCA Introduzione ...sociologia.altervista.org/appunti/131.pdf · I...

METODOLOGIA E TECNICA DELLA RICERCAIntroduzione:i manuali sono l’espressione della “scienza normale”, cioè della scienza dei dubbi fugati, non dovrebbe esserci spazio per dubbi, questioni irrisolte. In questo si è scelta la forma espressiva più argomentativa, un manuale orientato più alla formazione che alla sola informazione. La ricerca sociale è integrazione di metodologia e tecniche di ricerca; intanto separiamo la metodologia dalle tecniche, e lasciamo ai teorici che vogliono occuparsene; le tecniche, soprattutto di rilevazione e di analisi, sono tante: la cosa importante è acquisire le tecniche di analisi, soprattutto quelle statistiche multivariate, bisogna saperne gestire il software.

• Problema → b. Ipotesi → c. Progetto → d. Costrutti → e. Rilevazione → f. Elaborazione → g. Analisi → h. Generalizzazioni

PROBLEMA: ostacolo che si incontra in un cammino, un ostacolo esplicitamente riconosciuto come tale , e pertanto concettualizzato, è istituito come problema scientifico. La situazione problematica può essere rappresentata con il concetto di dissonanza cognitiva di Festinger ( fenomeno dissonante rispetto alle aspettative del soggetto conoscente viene dapprima negato e poi ricondotto o a spiegazioni note o a una nuova spiegazione) o con il concetto di anomalia di Kuhn (un’anomalia è una differenziazione significativa rispetto a un trend consolidato e noto). IPOTESI: congetture fondate e controllabili sulla struttura e/o su un processo di un fenomeno. Sono strategie adattive di ricomposizione dello stato di equilibrio fra le cose conosciute, formulate secondo criteri di conoscenze certificati.PROGETTO: progetto della ricerca, va inteso come fase esplicita di un’indagine. Articola operativamente le ipotesi, dopo aver ripercorso l’iter concettuale dalla situazione problematica al problema, valutando l’applicabilità di diverse teorie, definendo i costrutti concettuali utilizzabili e organizzando le fasi e la tempistica. Un progetto ci dice sia perché quella ricerca deve essere fatta, sia cosa deve essere studiato, sia come.COSTRUTTI: sono “costrutti” gli strumenti concettuali tipici della ricerca: i concetti, le loro dimensioni, gli indicatori che elaboriamo per rilevarle, gli indici che componiamo per sintetizzare gli indicatori e rendere con un modello ridotto il concetto di partenza. È il piano del passaggio dalla teoria alla pratica, dal concettuale all’empirico.RILEVAZIONE: è la fase più complessa e delicata fra quelle del ciclo della ricerca, di solito più semplicemente presentata che metodologicamente argomentata. A complicare le cose, va notato che la ricerca sociale ha importato in modo eclettico strumenti di rilevazione dai più diversi campi disciplinari e settori di ricerca, fondati su basi logico-operative non solo diverse, ma spesso configgenti. Gli strumenti non hanno gradi di libertà assoluti dalle basi logico-teorico che li hanno espressi. La forma standard della ricerca sociale nacque per raccogliere informazioni, opinioni e propensioni di singoli cittadini. Per generalizzare diremo che la rilevazione, come fase del ciclo della ricerca, apre due grossi problemi:

• 1: la definizione delle unità di rilevazione congruenti con il rationale della ricerca, cioè con il sistema di problemi, ipotesi, fenomenologie osservative e costrutti in cui e attorno a cui si struttura il nostro progetto.

• 2: la definizione del caso o dei casi dell’indagine, in cui raggiungere le unità di rilevazione.ELABORAZIONE: l’uso incongruo delle tecniche naufraga di fronte alla dura realtà tecniche: le informazioni raccolte necessariamente convergeranno in una struttura matriciale, possentemente denominata casi × variabili ( meglio casi × caratteri) . informazioni raccolte senza una costante di riferimento alla loro struttura matriciale solo con grande difficoltà potranno poi essere correttamente organizzate ed elaborate in una struttura matriciale. I dati non parlano da sé, né quelli quantitativi, né quelli qualitativi. Questa fase segna il passaggio dalle informazioni ai dati e costituisce la base di dati che dovrà essere strutturata in modo da rendere possibile l’analisi dei dati. ANALISI: la fase di analisi dei dati solo come un’operazione di riduzione può identificarsi con la sola analisi statistica dei dati, la statistica è pur sempre la metodologia delle scienze osservativo-sperimentali, e a vari livelli la data analysis verrà presentata. GENERALIZZAZIONE: di solito l’ultima delle fasi della ricerca è su tutti i manuali quella della presentazione dei risultati, il report è si l’ultima fase, ma professionale; dal punto di vista metodologico la fase finale è la generalizzazione dei risultati all’interno della quale si inserisce la loro presentazione. Un risultato è tale, in un contesto di ricerca, se è generalizzato, il che significa che la ricerca scientifica nelle scienze sociali non ha come compito primario quello di descrivere un singolo caso o un’isolata datità statistica, ma quello di individuare il senso, cioè il suo aspetto generale, ciò che in ipotesi lo potrebbe rendere in qualche misura rappresentativo di un tipo o classe di casi. La cosa è possibile grazie a due procedure logico-operative:

• L’analisi dei fenomeni sufficientemente stabili, scelti per rappresentatività tipologica di un collettivo• La generalizzazione mediante processi induttivi e abduttivi

INDUZIONE: (vedi tabella 1 pag 22) si rappresenta il caso in cui esiste un fenomeno da spiegare (explanandum) e sono note tutte le condizioni di osservazione del fenomeno, non sono però disponibili generalizzazioni alle quali il fenomeno possa essere ricondotto; tali generalizzazioni (insieme alle condizioni costituiscono l’explanans) vengono prodotte a partire dalla ripetuta osservazione di quel fenomeno. Generalizzazione per astrazione induttiva.

ABDUZIONE: è fondato sull’analogia,ed è meno controllabile sul piano logico dei processi induttivi. Formalmente, ciò significa o che il processo di astrazione interviene su casi simili ma non eguali, o che si effettua l’estensione probabilisticamente fondata delle caratteristiche note di un campione alle corrispondenti caratteristiche ignote di un universo cui il campione non appartiene o appartiene solo in parte. Le generalizzazioni per induzione o abduzione sono spesso assai gratificanti per i ricercatori, esse devono essere disponibili ex ante, o i fenomeni da spiegare saranno spiegati se potranno essere considerati casi particolari di quelle generalizzazioni qualora sia possibile individuare ed esplicitare le condizioni logico empiriche di occorrenza di quei fenomeni. In tal caso, il singolo explanandum è spiegato allorché sia concettualizza bile non solo come fenomeno individuale ma anche come fenomeno generalizzato. Il sistema di vincoli:i vincoli sono le condizioni logico-empiriche che limitano e insieme consentono l’operatività della ricerca sociale. In assenza di vincoli avremmo un concetto genetico di ricerca non realizzabile; tre classi di vincoli:Vincoli teorici: sono numerosi e consistono in matrici disciplinari, sistemi di riferimento teorico, generalizzazioni nomo tetiche. Quello di matrice disciplinare è un concetto tratto dagli studi di storia della scienza e da Kuhn: una disciplina è una chiave di lettura della realtà, un punto di vista, un sistema di vincoli su quali siano i fenomeni d’interesse e su come debbano essere studiati. Storicamente la ricerca sociale si inserisce in una matrice a forte e prevalente caratterizzazione sociologica. La concezione della sociologia come scienza empirica concettualmente orientata di seconda approssimazione- che costruisce il suo discorso anche e necessariamente su approcci, concetti e fenomeni di altre scienze umane e sociali- rende questa scienza costitutivamente inter e transdisciplinare, e connota la sua metodologia come necessariamente trasversale e insieme integrata. La teoria è un punto di vista che consente e guida l’interpretazione (Weber), un principio generale che stabilisce tipi di relazione (Einstein), una rete di asserti ipotetici universali (Popper) e di regole generali di corrispondenza parziale fra il piano concettuale e la base empirica (Hempel). Derivata per astrazione dalla base empirica (Parsons), sintetizza e integra generalizzazioni di vario ordine ed è un costrutto complesso, ordinativo di fenomeni, problemi e anomalie (Kuhn e Ziman). Rispetto alla processualità della ricerca distingueremo generalmente fra teoria come guida concettuale ex ante e come sintesi concettuale ex post. Una sintesi ex post rappresenta per le ricerche successive un approccio ex ante. In assenza di una teoria ex ante (che può anche essere implicita) non si percepisce neanche la situazione problematica, né si ha possibilità di percepire un’anomalia in quanto tale. Rispetto al livello di consapevolezza da parte del ricercatore distinguiamo teoria esplicita, il cui intervento sarà regolato in modo vigile ed esplicitato dal ricercatore, e teoria implicita che opererà come conoscenza tacita, soprattutto nella costruzione e utilizzazione dei concetti. Rispetto al grado di assiomatizzazione differenziamo in teorie assiomatizzate che sono ipotesi in merito alle strutture di relazione fra grandezze espresse in notazione logico-matematica, senza contenuto informativo specifico e non riportabili al piano osservativo se non con il supporto di una serie di teorie ausiliarie; teorie sostantive che fanno riferimento esplicito a determinati tipi di fenomeno ed hanno contenuto informativo specifico e utilizzano anche il linguaggio ordinario. Rispetto al grado di gerarchizzazione le teorie potranno essere isodinamiche, cioè strumenti né sovra né sotto determinati rispetto ad apparati quali leggi e ipotesi, o sovra-ordinate, in tal caso teoria ˃ leggi ˃ ipotesi. Infine, rispetto al grado di copertura dei fenomeni differenziamo fra teorie di medio raggio, teorie speciali e le grand theories:Le teorie speciali sono micro teorie relative a fenomeni specifici, sono costitutivamente sostantive, e come tutte le teorie sostantive hanno un senso scientifico se sono estensibili (es. teoria di Katz e Lazarsfeld del flusso a due fasi nella comunicazione di massa). Le teorie di medio raggio sono unificazioni di teorie speciali, sono derivate per astrazione e trattano aspetti circoscritti dei fenomeni sociali, sono facilmente estensibili ed applicabili a contesti diversi da quelli di partenza. Per Mertono sono un’esigenza metodologica in quanto necessario raccordo fra le ipotesi di lavoro che si formulano abbondantemente durante la routine quotidiana della ricerca e le speculazioni onnicomprensive. L’importanza di tali teorie deriva dalla loro capacità di ottimizzare distanza dal senso comune, vicinanza ai dati e semplicità di formulazione, il che assicura la loro polivalenza (es. teoria della dissonanza cognitiva, della differenziazione sociale, della privazione relativa). Le grand theories si collocano al di fuori del riferimento meso, non sono sintesi delle MRT, anzi le MRT possono operare entro grand theories diverse e contrastanti. Merton nota che la MRT del role-set è compatibile con diverse macroteorie (marxismo, comportamentismo) il ché attribuisce maggiore importanza alle MRT e mostra che la ricerca scientifico sociale può procedere mediante mesoteorie senza necessariamente riferirsi a macroteorie, in quanto non esiste fra il livello macro e quello meso un’implicazione reciproca assoluta. La fungibilità delle grand theories rispetto alle MRT ne mostra la sostanziale inaffidabilità rispetto alla ricerca sociale empirica per il fatto che l’operazionalizzazione di esse può portare alle più diverse MRT e ciò significa che le macroteorie non sono un buon approccio ex ante né un buon punto di partenza per un processo di operazionalizzazione. Le grand theories

hanno forte valenza di strumenti ex post di identità cognitiva e culturale e lato sensu ideologica, ma il loro rapporto con la ricerca sociale empirica resta indefinito, anche se la ricerca sociale può utilizzare concettualizzazioni congruenti con alcune grand theories, senza doverne sussumere i fondamenti. Ad esempio il fatto che nella progettazione della struttura e delle specifiche domande di un questionario tenga conto di tre fondamentali meccanismi di difesa della soggettività decritti da Anna Freud (rimozione, razionalizzazione e proiezione) non comporta che si aderisca alla teoria psicoanalitica in genere. Le macroteorie hanno connotati che consentono di ravvisare in esse incontrollabile distanza dai fenomeni osservativi, punti di vista preconcetti, giudizi valoriale pregiudiziali e pregiudizievoli, ciò basterebbe ad espugnarle dal campo dell’applicazione scientifica. Una macroteoria tanto più risulta legittimata nella ricerca, quanto meno si configuri come paradigma e quanto più si costituisca esplicitamente in programma di ricerca che consiste di regole metodologiche: alcune indicano quali vie della ricerca evitare ( euristica negativa), altre quali vie perseguire (euristiche positive). A posteriori, e cioè sulla base di un consistente numero di ricerche condotte, e quindi sul piano metodologico in quanto valutazione critica e non in quanto prescrittiva, sarà possibile individuare un macrotrend di ricerca, una tradizione di ricerca, che ci fornirà “un insieme di direttive per la costruzione di teorie specifiche” (Laudan). Ci limitiamo a osservare che la riferibilità delle teorie di medio raggio e speciali a più macroteorie significa che ogni macroteoria apre un ampio ventaglio di opzioni, non sempre suscettive di tradursi in teorie di medio raggio e speciali, indispensabili riferimenti per la ricerca scientifica. Restiamo fermi nell’impostazione che alle teorie di medio raggio e speciali assegna la massima affidabilità come elementi strutturanti della ricerca. Dal piano delle mesoteorie al piano empirico è necessaria un’operazione di riduzione-traduzione della teoria in sistemi di riferimento micro: le ipotesi e i modelli. Ci riferiamo qui alle ipotesi circoscritte, che articolano in elementi osservabili controllabili istanze teoriche superiori. Le ipotesi vanno riportate alla loro funzione nel progetto di indagine, in genere sono congetture- teoricamente ed empiricamente fondate- sulla configurazione o sull’andamento di un oggetto, fenomeno o processo. Il fondamento teorica ed empirico costituisce il grado di legittimità, e pertanto di praticabilità scientifica, di un’ipotesi. L’esistenza di un corpus teorico-empirico legittima l’assunzione di una congettura altrimenti gratuita in ipotesi circoscritta. Un ipotesi o meglio un sistema di ipotesi può essere espresso in un modello, cioè in una microstruttura multidimensionale e semplificata di relazioni complesse fra oggetti, concetti e variabili, in cui elementi scientifici e di senso comune integrano secondo criteri di convenzionalità e utilità strumentale. Anche per i modelli vale il principio cautelativo di legittimità in ragione di un loro ancoraggio teorico-empirico. Di tutte le possibili tipologie di modelli, ai fini della nostra introduzione, la più utile è quella che distingue fra modelli ex post (rappresentativi e più o meno formalizzati) e modelli ex ante (procedurali, interpretativi, simulativi); i primi utilizzabili come sintesi di ricerca, i secondi impiegabili come guida alla ricerca. Le generalizzazione nomo tetiche vengono anche designate con il nome di legge, esso è un termine usato malvolentieri per le connotazioni di imperatività, necessità e assolutezza che il termine è venuto assumendo nello sviluppo delle scienze osservativo-sperimentali. Fra il significato iniziale di lex e il concetto di generalizzazione nomo tetiche non c’è gran differenza, ma è certo che nelle scienze sociali non possiamo reperire generalizzazioni di fenomeni basate su legami immutabili, fissi e certi, senza margine di probabilità d’errore, fra fenomeni o variabili. PROCESSUALITà: teoria ex ante ed ex postCONSAPEVOLEZZA: teoria esplicita e implicitaASSIOMATIZZAZIONE: teorie assiomatizzate e teorie sostantiveGERARCHIZZAZIONE: teorie isodinamiche e sovra-ordinateCOPERTURA DEI FENOMENI: teorie speciali, di medio raggio e grand theories.Vincoli concettuali: la disponibilità di determinati concetti-termini rappresenta un limite non solo nella fase del ciclo della ricerca denominata d. costrutti: concetto-dimensioni-indicatori, ma addirittura nelle primissime fasi del ciclo, nella percezione dell’esistenza di un problema. I concetti disponibili vengono utilizzati in prima approssimazione dal ricercatore secondo un approccio che tende a ottimizzare il rapporto conoscenza-concetti, secondo il principio di parsimonia; la pratica di evitare la costruzione ex novo dei concetti necessari all’indagine porta a configurare il nuovo secondo categorie consuete, la qual cosa può tradursi in fraintendimenti, incapacità di percepire problemi, difficoltà a concettualizzare le novità. Ciò avviene per il fatto che i concetti-termini hanno una valenza teorica e culturale che rappresenta a seconda dei casi il loro valore o disvalore aggiunto, insomma essi stessi sono elementi strutturanti dell’esperienza. I costrutti costruiscono l’esperienza. Generalizzando: i concetti-termini portano con sé il riferimento a teorie implicite o a conoscenze tacite di senso comune, che ne condizionano la percezione dei problemi, la predisposizione di progetti e strumenti, la formazione di ulteriori costrutti, inclusi gli indicatori, talché la presenza di concetti già invalsi può comportare considerevoli effetti di distorsione. Sicché emerge una delle tante tensioni essenziali che il ricercatore sociale deve affrontare: mantenere i vecchi concetti, assicurando comparabilità con il rischio di distorsione semantiche, o costruirsene nuovi, impedendo la comparazione con il rischio dell’autoreferenzialità?Vincoli tèlici: normalmente, si dà per scontata la finalità esclusivamente conoscitiva della ricerca sociale: salvo a

distinguere dalla ricerca ai fini di conoscenza dei fenomeni altri tipi di ricerca, quali la ricerca valutativa, la ricerca-azione, la ricerca applicata al servizio sociale. Questa condizione di non-detto, non-definito non ci conviene per due motivi:

• La ricerca sociale si svolge in un quadro complessivo che, riferendosi a Herber Simon, definiremo di razionalità limitata; nella sua visione ciò significa che la ratio economica si coniuga alla ratio scientifica; e nella ratio economica l’azione è per definizione tèlica (finalizzata)

• Gli organismi internazionali che finanziano e valutano la ricerca scientifica hanno normato e chiarito i tipi e livelli della ricerca scientifica, inclusa la ricerca nelle scienze sociali.

In merito al problema della razionalità limitata, possiamo declinare la questione nei termini della funzione insieme di limite e di condizione esercitata sulla ricerca dal sistema delle risorse che sono di vario tipo:

• Risorse umane• Risorse cognitive• Risorse strumentali• Risorse temporali• Risorse finanziarie• Risorse gestionali

Il sistema delle risorse condiziona significativamente tutto il ciclo della ricerca sociale, dalla percezione della situazione problematica sino alla ridefinizione del problema, attraverso tutte le fasi tecniche dell’indagine. A chi svolge ricerca sociale applicativa, ma anche a chi svolge ricerca sociale fondamentale o di base, è chiaro che un ciclo di ricerca sarà avviabile e sostenibile solo in presenza di un ben articolato team di ricerca, ove le competenze necessarie siano reperibili, approntabili e distribuibili a costi ragionevoli, di una base di conoscenze disponibili, di un apparato di spazi, attrezzature scientifiche e tecnologiche dedicate, ivi incluse le capacità interne per la loro gestione ( risorse strumentali), di una capitale erogato o disponibili a coprire i costi (risorse finanziarie), infine di capacità di management scientifico organizzativo (risorse gestionali). È certo che il sistema di risorse entra prepotentemente nella logica stessa della ricerca. La razionalità limitata significa che negli impianti di big science non si spende per far ricerca, ma ormai si fa ricerca perché si è speso in precedenza per costruire quegli impianti, i cui costi vanno ammortizzati. Tutto ciò riguarda le hard sciences, come la fisica, ma non la ricerca sociale, ma la crescente presenza sul mercato della ricerca sociale di aziende che lavorano per università, enti pubblici, agenzie governative non mancherà di esercitare qualche possibile condizionamento sulle procedure tecniche della ricerca, e di riflesso sull’ideazione di progetti. È inutile negare che ai fini della conduzione di progetti di ricerca tanto pubblici quanto privati è richiesta la presenza di competenze di management e valutazione delle risorse, ma sono competenze tecniche integrate con quelle metodologiche per chi abbia responsabilità di direzione di programmi e progetti di ricerca. La ricerca sociale è presentata sul piano didattico e concettualizzata sul piano scientifico come impresa esclusivamente intellettuale; l’esigenza di disporre di criteri certi di valutazione della ricerca scientifica ha spinto numerosi organismi internazionali a concordare e diffondere definizioni di cosa debba intendersi per ricerca scientifica nei suoi vari tipi. Nel Frascati Manual vi è la distinzione fra ricerca di base, applicata e di sviluppo, quindi una ricerca sociale può condursi in ciascuna classe. La ricerca di sviluppo è destinata a essere trattata in tutti i settori a livello di letteratura aziendale, poiché è tanto più veloce il cambiamento tecnico quanto più si trascorre dalla ricerca di base alla ricerca di sviluppo. In questo manuale si è voluto dare importanza al concetto di ricerca applicata e di ordinare intorno al concetto di ricerca finalizzata temi, argomenti, metodi e tecniche di quest’opera. La ricerca finalizzata è la categoria ufficiale di sintesi di una parte della ricerca di base, la ricerca strategica che nella ricerca sociale designa la ricerca di base su problemi che siano insieme scientifici e sociali e la ricerca applicata direttamente intesa alla soluzione di problemi. Se si vuole anche la ricerca fondamentale orientata a fenomeni di interesse e solo cognitivo, ma che mantiene alta la domanda del ricercatore sulla sua funzionalità.

• Il sistema dei vincoli ci fa percepire una situazione come problematica e ci consente di formulare correttamente un problema, che ad essi sarà relativo

• Le ipotesi sono plausibili se supportate teoricamente e se i vincoli tèlici ne rendono eseguibile almeno in linea di principio il test

• Un progetto è realizzabile se il sistema di risorse è ben governato e congruente con il tipo di ricerca• I costrutti sono buoni o cattivi in ragione degli apparati teorici e delle finalità adottate nel progetto• La rilevazione è ben condotto se congruente non solo con i criteri logico-sequenziali del progetto, ma se

adeguata alle finalità dell’indagine, e in particolare al sistema delle risorse• La costituzione della matrice “casi × caratteri” è governata anzitutto dalle finalità teoriche e pratiche

dell’indagine• L’analisi dei dati consegue strettamente al tipo di progetto e alle sue specifiche finalità• Per la generalizzazione ogni risposta data apre un nuovo problema

Tener presente costantemente un orientamento strategico-applicativo nel proprio lavoro di ricercatore metodologico

comporta l’abbandono del modello lineare teorizzazione → applicazione e l’adozione di un pensiero finalizzato; le tecniche in tal modo saranno costantemente riportate alla logica cogente. Qui si chiarisce il ruolo differenziato che assegniamo al metodo e alle tecniche, e si chiarisce anche il significato proprio del campo disciplinare della metodologia e tecnica della ricerca sociale. La metodologia è letteralmente la “teoria delle procedure”; La tecnica è un sapere più empirico, operativo, applicativo ma è anche una procedura pratica, però è una sorta di espediente. L’approccio alla ricerca sociale in chiave metodologica e tecnica è un approccio integrato fra teoria delle procedure e tecniche applicative, che corrisponde abbastanza bene alla definizione di metodologia applicata. Nell’ambiente accademico è presente il campo disciplinare della metodologia fondamentale, cioè dell’analisi metodologica proprio in quanto analisi logico-teorica delle procedure d’indagine e delle tecniche che vi sono collegate. La metodologia fondamentale ha prevalente ma non esclusivo, orientamento alle questioni di ricerca fondamentale nelle scienze sociali, mentre la metodologia applicativa ha prevalente, ma non esclusivo, orientamento alle questioni di ricerca finalizzata nelle scienze sociali; la loro arena d’incontro e scambio è la ricerca strategica. La sola metodologia senza le tecniche è vuota, le tecniche senza metodologie sono cieche. Insomma la teoria e la ricerca sono pilastri entrambi indispensabili ad assicurare dignità scientifica al campo disciplinare. Ciò significa che va sgombrato il campo da due concezioni stereotipali tanto diffuse, quanto false:

• La facile equazione metodologia = epistemologia + statistica• Il clichet del metodologo come valutatore ex post della logica di ricerche altrui

Per il fatto che il principio regolatore dell’intero ciclo della ricerca è la teoria sociale applicata in un contesto di razionalità limitata, possiamo affermare che l’approccio puramente logico o logico-statistico è un vano esercizio aspecifico. Per gli stessi motivo il metodologo è il ricercatore stesso che fa ricerca senza chiedere ex ante consiglio, o ex post validazione, ma nel costante e consapevole controllo del frame tecnico-metodologico. Se le scienze sociali dedicano specifica formazione alla metodologia ciò deve tradursi in una diffusa capacità critica e autocritica. Insomma se la metodologia non fosse altro che epistemologia applicata, allora si tradurrebbe in analisi critica ex post; se la metodologia fosse semplicemente il mix di filosofia delle scienze e metodi quantitativi statistico-matematici, allora avremmo una metodologia come sistematica prescrittiva ex ante. Se la metodologia è ricerca autocritica in itinere, allora essa si configura come metodologia critica. Un approccio in chiave di metodologia critica ha alcune conseguenze di ordine teorico generale e formativo: la prima è che la metodologia critica è e resta ancorata al piano metodologico. La teoria delle procedure non rinvia ad altri terreni la soluzione dei propri problemi. Pertanto non andremo alla ricerca di un pensiero più forte, risolvendo la metodologia nell’epistemologia e nella gnoseologia. È pratica da alcuni adottata come metodo di discussione metodologica, ma è da abbandonare poiché:

• Richiede una tecnicalità filosofica assai poco diffusa, che non può improvvisarsi• Lungi dal rafforzare la competenza metodologica, presuppone la superiorità scientifica del sapere

filosofico, risolvendosi nello svuotamento della metodologia• Enfatizza il ruolo della gnoseologia e dei dualismo ad essa connessi

Il riferimento diretto o indiretto alla gnoseologia comporta l’adesione di una serie di false dicotomie che derivano dall’approccio gnoseologico. Essa si fonda sul presupposto dell’assoluta distinzione fra pensiero e realtà, tra soggetto e oggetto. La problematizzazione delle false dicotomie comporta di considerare al di fuori della portata metodologica critica la questione complessa e controversa dell’oggettività delle scienze sociali. Il problema trova il suo fondamento in un dualismo gnoseologico estraneo alla metodologia critica. Ci porremo solo problemi di affidabilità delle procedure e delle conoscenze raggiunte nella consapevolezza della difficoltà di controllare efficacemente anche queste varianti laiche del problema filosofico dell’oggettività. Preferiamo porre una diversa ipotesi di lavoro: quella che considera le scienze sociali come scienze sistemiche, alle quali è necessario mantenere una qualche complessità di analisi, poiché quasi sempre il loro campo d’osservazione è di sistemi e processi complessi. Per queste scienze l’oggetto di indagine non è riportabile alla ricerca di nessi causali unidirezionali e semplici, né può concepirsi una forte e durevole stabilità dei sistemi. Esse hanno bisogno di proporsi tutti i possibili metodi per pervenire alla valutazione e alla qualificazione delle fenomenologie, delle strutture, dei processi, dei corsi d’azione. Ci sono dieci punti su cui è riscontrabile un sufficiente accordo fra gli autori:

• L’insufficienza di un approccio lato sensu neopositivista alla scienza, non riducibile a semplice fatto linguistico

• La generale finalità tecnoco-adattiva, oltreché cognitiva, della ricerca• L’affermazione dell’autonomia del piano metodologico da altre superiori istanze epistemologiche o

gnoseologiche• La convenzionalità del punto do vista del ricercatore• La struttura non lineare, ma elicoidale e aperta, del ciclo della ricerca

• L’impossibile diretta osservabilità dei fenomeni al di fuori di sistemi di riferimento teorici espliciti o taciti• L’interpretabilità delle fenomenologie osservative mediante costrutti interpretativi• Gli approcci teorici vincolanti nei confronti delle scelte tecnico-operative• La non fungibilità e la pari dignità conoscitiva delle tecniche• La connotazione valutativa della ricerca sociale, in quanto costantemente chiamata a comporre un giudizio

sulla base del confronto delle risultanze di varie tecniche e metodicheIn questi punti si ravvisa l’adesione esplicita, o implicita, a posizioni di varie scuole metodologiche: dal convenzionalismo allo strumentalismo,all’interazionismo simbolico, al costruttivismo debole. La metodologia critica guarda con attenzione a tutti i contributi teorici e tecnici che consentono di dare alle domande scientifico-sociali complesse le migliori risposte in termini di comprensione, interpretazione, spiegazione e previsione dei fenomeni sociali, senza alcuna preclusione di ordine tecnico-metodologico, proponendosi come arena trans epistemica per la costruzione di una ricerca sociale metodologicamente provveduta e socialmente utile.

1° Capitolo: il disegno dell’indagineScopo dell’indagine scientifica è la produzione di asserti giustificabili (Dewey), ovvero giustificati su base empirici, prodotti attraverso un procedimento diretto e controllato, pubblico , controllabile anche da altri, e potenzialmente replicabile. Affinché possa dirsi diretto e controllato, il procedimento dell’indagine empirica richiede progettazione e una programmazione ex ante ma gioca sempre un ruolo fondamentale nella costruzione della validità dei risultati della ricerca stessa. La funzione di un disegno di ricerca “è garantire che i risultati ottenuti permettano di rispondere alla domanda iniziale nel modo più univoco possibile”. Distinguiamo l’impianto (metodo)logico dell’indagine dalla sua progettazione operativa: il disegno dell’indagine ha a che fare con gli aspetti logici, la progettazione con quelli logistici. Entrambi servono al ricercatore per il controllo sulle procedure di ricerca poiché gli errori posso verificarsi in ogni fase dell’indagine. La preparazione del progetto di ricerca aiuta a chiarire i nessi esistenti fra precondizioni, mezzi e obiettivi della ricerca, tanto al finanziatore, che al ricercatore, che per questa via predispone una strategia di indagine. Il progetto può infine costituire una base intorno alla quale iniziare a costituire il consenso dei vari attori coinvolti dall’indagine e il punto d’inizio della raccolta delle opinioni di esperti e testimoni privilegiati. La progettazione operativa dell’indagine: si suddivide in quattro fasi:

• Impostazione e organizzazione delle informazioni: ideazione o concettualizzazione, momento in cui si intuisce il problema scientifico e le prime ipotesi orientative; progettazione, in cui si predispongono e organizzano i mezzi necessari per la realizzazione della ricerca, si prepara e si presenta il progetto di ricerca, si pianificano le azioni successive.

• Raccolta o rilevazione delle informazioni: preparazione e organizzazione della raccolta delle informazioni necessarie, e la loro effettiva rilevazione, allo scopo di costituire la base empirica della ricerca.

• Organizzazione delle informazioni e analisi dei dati: terminata la rilevazione i materiali informativi prodotti dovranno essere organizzati, ordinati e lavorati allo scopo di trasformare l’informazione raccolta in informazione analizzabile.

• Presentazione dei risultati: momento in cui il progetto e il prodotto devono essere resi pubblici, in forma di report scientifico, articolo o volume a stampa.

Nelle indagine quantitative l’indagine è finalizzata alla raccolta di informazioni strutturate, e strutturate a priori, pertanto la sequenza delle 4 fasi viene rispettata anche nella pratica. Nella fase di impostazione, si può anche fare una discesa sul campo (ricerca di sfondo), finalizzata alla specificazione delle ipotesi in riferimento al particolare contesto dell’indagine, oltreché all’acquisizione di informazione necessarie alla progettazione e all’organizzazione della rilevazione vera e propria. La rilevazione materiale delle informazioni richiede tempi brevi, mentre è più laboriosa e lunga la sua pianificazione. La ricerca qualitative è finalizzata alla raccolta di molte informazioni, non strutturate e spesso di natura diversa. Uno dei motivi per cui scegliere l’approccio qualitativo è la sua apertura al fortuito incontro con una nuova scoperta, all’esplorazione di realtà piccole, complesse e poco indagate. La sequenza delle 4 fasi non viene rispettata rigidamente nella pratica. L’imprevedibilità in termini di costi e tempi di rilevazione della ricerca qualitativa rappresenta uno dei principali ostacoli da affrontare nel convincere i finanziatori privati a sostenerla,d’altra parte i costi sono solitamente contenuti e i tempi relativamente brevi.Rilevazione,organizzazione e analisi delle informazioni finiscono con il coincidere da un punto di vista temporale e metodologico: l’analisi delle informazione via via raccolte porta a formulare nuove ipotesi di ricerca, a ridefinire la popolazione di riferimento. Questo processo termina allorché non si sia raggiunta la saturazione. La rilevazione occupa dunque un periodo di tempo che può essere molto lungo, il lavoro è di squadra, con frequenti incontri e discussioni sui risultati. Validità interna ed esterna: il ricercatore non si troverà mai nella condizione di avere un riscontro diretto della gran parte degli asserti che produce, e dovrà affidarsi alla logica e agli strumenti di misurazione. L’indagine

scientifica produce risultati giustificabili e non giustificati, risultati che possono rivelarsi fallaci, su basi empiriche o logiche. Il concetto di attendibilità si applica agli strumenti di misurazione e rilevazione. I risultati prodotti sono riproducibili in quanto attendibili, il che garantisce la pubblicità e la controllabilità dei metodi e dei risultati d; e anche la ragionevole certezza che eventuali variazioni nei risultati della replica di una ricerca dipendono da effettive variazioni nei fenomeni oggetti di studio. Il nesso fra attendibilità e validità appare chiaramente: informazioni ottenute mediante strumenti non attendibili possono essere, come non essere corrette e non sono dunque valutabili. Si tende a prestare più attenzione all’attendibilità degli strumenti che alla validità. Nella progettazione di una ricerca questi due aspetti devono essere considerati entrambi. Nella fase iniziale dell’indagine, il problema è allestire l’indagine per tenere sotto controllo le possibili fonti di errore. A confronto del ricercatore, vi è l’esperienza di ricerca matura in quel settore, e dunque la letteratura teorica e soprattutto empirica, che è bene consultare prima di iniziare la ricerca. Per valutare i pro e i contro dei diversi disegni dell’indagine parliamo di validità interna per indicare il grado di giustificabilità degli asserti prodotti, la consistenza dei risultati rispetto alle ipotesi dal punto di vista logico prima che empirico; e di validità esterna per riferirsi al grado di generalizzabilità dei risultati a una popolazione più ampia rispetto a quella sulla quale l’indagine stessa è condotta. La generalizzabilità dei risultati coincide con la validità esterna quando sono anche soddisfatti i requisiti di validità interna e di validità e attendibilità delle informazioni raccolte. La definizione del problema: un problema diventa scientifico quando diventa risolvibile; il ricercatore deve individuare un possibile percorso conoscitivo, che lo metta nella condizione di trovare le risposte cercate. Tre domande da tenere a mente:

• Di chi è il problema? Identificazione dei referenti, un interessante problema scientifico non è detto che sia rilevante per il finanziatore

• A che servirà la soluzione del problema? Aiuta a definire in maniera semplicissima gli obiettivi dell’indagine e il tipo di risultati attesi

• Qual è l’ambito d’indagine?Nella ricerca applicata, la chiara determinazione degli obiettivi conoscitivi diventa centrale: il ricercatore spesso è molto più preoccupato della generalizzabilità dei risultati o della ricerca di cause di quanto non lo sia l’eventuale committente. Considerati tali aspetti possiamo decidere il tipo di informazioni necessarie: statistiche, documenti, articoli di giornale. Scopi conoscitivi dell’indagine: le indagine descrittive hanno lo scopo di pervenire a un’ampia e dettagliata conoscenza di un fenomeno sociale e delle sue diverse articolazione, o di un evento o caso particolare. Nella ricerca sociale, la descrizione implica la necessità di prendere in considerazione numerosi fenomeni o variabili interconnessi. Una ricerca descrittiva può essere condotta con due obiettivi opposti: il primo è la descrizione generalizzabile di un fenomeno in un determinato contesto sociale e/o territoriale; il secondo è la descrizione dettagliata di pochi casi, o al limite di un solo caso o evento particolare. Nelle ricerche esplicative l’obiettivo è studiare gli effetti su una o più variabili dipendenti di una o più variabili indipendenti. Per spiegazione di un fenomeno intendiamo cose diverse:

• La ricerca di possibili cause in campo relativamente sconosciuto• La valutazione del contributo della determinazione del fenomeno di una o più cause• La riprova di una qualche ipotesi specifica derivante da una teoria più generale

Nel primo caso abbiamo quella che Hyman definisce ricerca diagnostica che può anche definirsi esplorativa, nel secondo ricerca valutativa o esplicativa, nel terzo ricerca sperimentale o verificativa. La ricerca esplorativa, il cui scopo è individuare i fattori di variazioni rilevanti e più significativi, necessariamente include tutti i fattori di variazione prevedibili, per poterne escludere alcuni a favore di altri.La ricerca valutativa è orientata all’individuazione di fattori sui quali è possibile intervenire per produrre determinati effetti, mediante l’individuazione non di cause in senso generale ma di fattori che siano ostacolo al raggiungimento dei nostri obiettivi e/o che lo favoriscono, e che possiamo rafforzare.La ricerca verificativa riveste un interesse quasi esclusivamente teorico, essendo dedicata al controllo e alla precisazione di relazioni causali fra fenomeni.Nella spiegazione di un fenomeno, c’è sempre la possibilità dell’esistenza di fattori ignoti che influenzano la variabile dipendente, e che potrebbero invalidare i nostri risultati. Una ricerca esplicativa tenderà a limitare le fonti di variazione del fenomeno, per isolare le relazioni che interessano; ciò avviene riducendo il numero delle variabili analizzate e circoscrivendo il più possibile l’ambito dell’indagine, e il numero dei casi.Le ipotesi: il loro ruolo è prefigurare il genere di risposta considerata soddisfacente, rispetto ai quesiti posti all’origine dell’indagine, e di orientare le procedure di ricerca in rapporto a “configurazione specifiche dei fenomeni osservati”. Un’ipotesi è una proposizione “espressa in forma controllabile che – in una ricerca descrittiva

– orienta il ricercatore nella selezione degli aspetti da considerare, o che – in una ricerca esplicativa – prefigura un particolare rapporto tra due o più variabili p fenomeni da esplorare o controllare. Per avere forma controllabile l’ipotesi deve essere formulata in stretto rapporto al contesto di svolgimento dell’indagine, ricorrendo all’insieme di conoscenze che si riveleranno necessarie nell’orientare la scelta delle variabili e/o dei fenomeni cui le ipotesi fanno riferimento. Ciò vale anche nella ricerca qualitativa, per le cosiddette ipotesi emergenti dal rapporto con il campo di osservazione; in questo caso le ipotesi dovranno guidare il ricercatore nella raccolta del materiale empirico da utilizzare per il loro controllo e rappresenteranno il punto dal quale avviare il processo di interpretazione teorica del materiale frammentario e disomogeneo che spesso la ricerca qualitativa produce.La ricerca descrittiva: secondo Hyman sono due i problemi teorici fondamentali che una ricerca descrittiva deve affrontare: la concettualizzazione del fenomeno e la decisione sulla popolazione rilevante. Nonostante la corretta concettualizzazione di un fenomeno sia il presupposto di una misurazione precisa, non si può fare a meno di osservare come la gran parte dei fenomeni sociali siano suscettibili di varie possibili definizioni. I problemi di classificazione sono frequenti nella pratica della ricerca e le ricerche descrittive servono proprio a mettere a punto classificazioni più adeguate. A tale scopo, può essere conveniente concentrarsi su pochi casi e adottare tecniche qualitative di rilevazione e analisi dei dati che lascino aperta la possibilità di ridefinire in corso d’opera le categorie analitiche e concettuali, fino a ottenere una classificazione adeguata. In questo modo è possibile pervenire a un’analisi molto dettagliata delle configurazione specifiche che i fenomeni oggetto d’indagine assumono in quei casi, sia pure a scapito della generalizzabilità dei risultati. È una strategia di ricerca estremamente utile, quando si abbia a che fare con casi unici o rari, o situazioni che si sono verificate in un determinato momento e/o contesto, e che non si ripeteranno nella stessa forma. Per pervenire a una generalizzazione di un fenomeno, i casi osservati dovranno essere numerose, e soprattutto vari. Oltre a un adeguato disegno di campionamento, si dovrà ricorrere, proprio in conseguenza dell’elevato numero di casi, a strumenti standardizzati di rilevazione, che consentono di utilizzare tecniche statistiche per l’analisi dei dati o per la stima dei valori dell’intera popolazione. La ricerca esplicativa: come nella ricerca descrittiva, anche qui la definizione e la concettualizzazione delle variabili riveste un’importanza capitale, particolare attenzione deve essere dedicata alla individuazione, alla selezione e al controllo delle variabili indipendenti. Il controllo empirico delle relazioni causali: Bunge sostiene che il concetto di causa rinvia all’idea di produzione di un fenomeno da parte di un altro. Questa idea si scontra con un primo limite dell’analisi empirica delle relazioni causali: la produzione in quanto produzione non può essere osservata, e la ricerca empirica deve limitarsi a rilevare e ad analizzare covariazioni e serie temporali. Se vogliamo utilizzare il concetto di causa per ragioni teoriche, dobbiamo adattarci all’idea che esso non può essere sottoposto a controllo empirico e che un asserto causale può essere considerato giustificabile se si dimostra che:

• Vi è covariazione fra una variabile dipendente Y e una variabile indipendente X• Questa covariazione va nella stessa direzione della relazione causale ipotizzata X→Y• In assenza di variazioni della variabile indipendente, la variazione nella variabile dipendente non si produce;

oltre a riscontrare l’esistenza di una covariazione fra queste due variabili• Qualunque altro fattore, oltre a X, in grado di influenzare questa relazione sia stato controllato, oppure

escluso in quanto irrilevante. Si tratta del terzo limite del controllo empirico di una relazione causale: non è possibile avere la certezza che tutti i possibili fattori di variazione siano stati presi in considerazione e tenuti sotto controllo, oppure che siano irrilevanti. C’è sempre la possibilità che uno o più fattori ignoti agiscano a nostra insaputa, introducendo variazioni incontrollabili.

Il controllo delle fonti di variazioni: uno dei fattori principali della validità dei disegni esplicativi è il metodo o i metodi, adottati per controllare gli effetti delle variabili estranee, esaminiamo i metodi:

• L’isolamento della variabile dipendente dall’influenza di altri fattori; questa soluzione non è praticabile nella ricerca sociale nella sua forma pura, sia perché è difficile isolare materialmente i soggetti sperimentali, sia perché i soggetti sono portatori di tante caratteristiche, fra le quali alcune potrebbero influenzare in maniera non prevedibile la variabile dipendente

• La trasformazione in parametri costanti delle variabili che potrebbero influenzare la variabile dipendente• Le soluzioni ipotetiche consistenti nella manipolazione delle fonti ipotizzate di variazione mediante

assunzioni semplificate riguardanti dati non esistenti e il ricorso ad una conoscenza generale. Si tratta di un modo per trasformare variabili potenzialmente operative in parametri, in assenza della possibilità di manipolarle e di informazioni su di esse. Un esempio è l’assunto del ceteris paribus, che consiste nell’accettare come presupposto che tutti gli altri fattori restino costanti (anche se nella realtà non è così)

• La randomizzazione degli effetti dei fattori estranei, mediante procedimenti di selezione causale dei soggetti studiati. Così le variazioni introdotte dai fattori estranei agiscono in modo casuale sui diversi soggetti, annullando il loro effetto complessivo sulla relazione che a noi interessa. Questa procedura è sempre consigliabile nella ricerca sociale, in quanto ogni individuo è portatore di un numero indefinito di caratteristiche potenzialmente rilevanti.

• La scelta ragionata dei casi in rapporto a caratteristiche che rappresentano gli stati delle variabili operative degli eventuali parametri, in modo da isolare le relazioni che interessano ed escludere gli effetti delle altre variabili

In sintesi i principali problemi teorici posti dalle indagini finalizzate alla spiegazione di fenomeni sono:• La selezione o la concettualizzazione della variabile dipendente• La selezione e concettualizzazione delle variabili indipendenti che si intendono prendere in considerazione• La selezione dei parametri• La scelta e la messa in opera di metodi di comparazione• La scelta e la messa in opera di sistemi di controllo dei fattori estranei

La realizzazione di un’indagine di questo tipo richiede l’esistenza di conoscenze pregresse sui fenomeni in oggetto, in misura consistentemente maggiore rispetto alla ricerca descrittiva. Le risposte a queste questioni teoriche definiscono veri e propri modelli causali, che prevedono ipotesi relative alle relazioni fra le variabili considerate ( variabili operative), assunti sui parametri noti e semplificazioni tese a escludere l’incidenza dei fattori estranei. La validità interna di un disegno esplicativo è tanto maggiore quanto maggiore è il controllo esercitato sui fattori estranei, quanto minore è cioè la probabilità che possa rilevarsi migliore una spiegazione alternativa a quella fornita. Assumere questo tipo di validità restringendo l’ambito dell’indagine implica una minore generalizzabilità dei risultati. Anche per questa ragione, nella ricerca sociale, si preferiscono i sistemi basati sulla randomizzazione dei fattori estranei, che ottimizzano il rapporto fra controllo e generalizzabilità. Disegni di indagine esplicativi: offrono soluzioni diverse ai problemi posti dal controllo empirico delle relazioni causali. Si differenziano per:

• Il modo in cui controllano la covariazione delle variabili dipendenti e indipendenti e la direzione di questa covariazione

• Il tipo di controllo esercitato sulla situazione ambientale (setting) e i fattori esterni• Il tipo di comparazione effettuata per applicare il ragionamento contro fattuale

I disegni esplicativi devono fare i conti col fattore tempo: è nel tempo che si ha varianza, sia delle variabili operative, sia delle altre. I disegni che non prendono in considerazione la variabile tempo devono risolvere altrimenti il problema di individuare la direzione della relazione osservata; quelli che la includono hanno più problemi nel controllare i fattori esterni. La validità interna dipende dal modo in cui tutti gli elementi vengono combinati nel disegno dell’indagine allo scopo di controllare la relazione causale, e di escludere le “ipotesi rivali”. I disegni sperimentali forniscono maggiori garanzie di validità interna al ricercatore; i disegni statistici massimizzano la validità esterna, ma hanno minore capacità di controllo dei fattori esterni e degli effetti del tempo. Lavorando su pochi casi, si presentano anche problemi di generalizzabilità dei risultati, per questa ragione, sono da considerarsi disegni di ricerca indicati se gli scopi della ricerca sono descrittivi o esplorativi.Il disegno sperimentale: l’esperimento è il disegno di indagine in cui la logica del controllo empirico delle relazioni causali viene soddisfatta con la migliore approssimazione. Nell’esperimento vengono messe a confronto due situazione; una in cui viene introdotta artificialmente una variazione nella variabile indipendente (X) e una in cui tale variazione non viene introdotta, per controllare sia il prodursi di una variazione in Y per effetto di X, sia l’assenza di tale variazione in assenza di X. Non potendo confrontare tali effetti sullo stesso caso e nello stesso tempo, la soluzione adottata è quella di confrontare due casi (A e B), rilevando i relativi valori della variabile dipendente (Ya e Yb) in almeno due tempi prima ( al tempo T0 : Ya0 e Yb0) e dopo (al tempo T1: Ya1 e Yb1) la variazione nella variabile indipendente. La rilevazione in due tempi consente sia di registrare la variazione (Ya1-Ya0), sia di controllare la direzione causale, che l’effetto cioè si produca dopo la causa. Per attribuire in maniera inequivocabile questa differenza a X, i due casi in oggetto dovrebbero però essere simili in tutto e per tutto, la sola differenza dovrebbe essere rappresentata da X. Poiché nella ricerca sociale non è possibile trovare due individui effettivamente equivalenti, gli esperimenti vengono effettuati su almeno due gruppi di individui: quello in cui viene introdotta la variazione della variabile indipendente è detto gruppo sperimentale, l’altro gruppo di controllo. La composizione dei gruppi sarà controllata dal ricercatore affinché possano essere considerati equivalenti, in due modi: trasformano alcune delle variabili estranee in parametri; e assegnando casualmente i soggetti ai gruppi ( randomizzazione) . Un’ulteriore fonte di variabilità imprevista è il tempo: dobbiamo poter escludere che fra la prima e la seconda rilevazione intervenga qualche fattore estraneo, a modificare la variabile dipendente. Poiché non possiamo immaginare di isolare fisicamente i soggetti, l’unica soluzione è rappresentata ancora dalla randomizzazione dei gruppi. I disegni sperimentali nella ricerca psicologica e sociale possono essere resi molto più complessi, allo scopo di aumentare il numero delle variabili operative e dei parametri, senza aumentare il numero delle variabili operative e dei parametri, senza aumentare troppo il numero dei soggetti, o essere molto semplificati, fino a eliminare il gruppo di controllo, o anche la prima rilevazione. Il tutto nel tentativo di adattare questo tipo di disegno alle diverse situazioni di ricerca, salvaguardando nello stesso tempo la sua specificità, ovvero l’elevato grado di controllo sui diversi fattori, che lo rende adatto esclusivamente al controllo di ipotesi e alla valutazione. I risultati di un esperimento non sono generalizzabili a un intera popolazione: sono necessarie numerose repliche, su

diversi tipi di soggetti, prima di poter considerare stabili i risultati. Se in tutti gli esperimenti il fenomeno si presenta nelle condizioni previste dalla nostra ipotesi possiamo considerare adeguatamente validati i nostri risultati. Nelle scienze sociali subentra un ulteriore problema: i fenomeni tendono a non essere stabili nel tempo, mentre le stesse categorie di analisi e le variabili possono non essere adatte alla replica sperimentale nel giro di pochi anni. Per questa ragione spesso i risultati sperimentali vengono validati ricorrendo a indagini campionarie mirate.Disegni statistici:

• L’indagine campionaria: nella gran parte delle situazioni di ricerca non è possibile manipolare la variabile indipendente,ed è necessario confrontare i valori della variabile dipendente così come si presentano i gruppi di individui che si differenziano rispetto alla variabile indipendente, allo scopo di controllare la loro covariazione. Per prima cosa, è necessario essere certi che i casi studiati presentino tutte le possibili variazioni della variabile indipendente: questo si può ottenere preselezionando gli intervistandi (esperimento naturale), oppure costruendo un campione di tutti gli studenti che hanno sostenuto l’esame, sarà sufficiente registrare il voto ottenuto. Questa seconda strategia è preferibile in quanto capace di garantire che le variabili operative incluse nel modello, o anche quelle ignote, non interferiscono con le relazioni che ci interessano. La strategia di campionamento dovrà garantire l’adeguata numerosità dei gruppi da comparare, e la loro equivalenza. Questo tipo di disegno fa ampio uso delle tecniche statistiche ed inoltre richiede il ricorso a campioni sufficientemente ampi. Avendo la possibilità di isolare alcune variabili – trasformando in costanti – il campione potrà essere ridotto. Il controllo delle relazioni fra variabili avviene confrontando i valori della variabile dipendente fra i gruppi di soggetti definiti dai valori della variabile indipendente. Il grado di controllo sugli effetti introdotti dal fattore tempo è minore rispetto ai disegni sperimentali: se il problema generale dell’invarianza può essere considerato risolto grazie al campionamento probabilistico; resta il problema dei tempi della rilevazione. Mentre nelle situazioni sperimentali il test viene sottoposto a tutti i soggetti contemporaneamente, la rilevazione su un campione probabilistico richiederà un tempo più lungo, in quanto i soggetti dovranno essere nominativamente contattati dai ricercatori. Nella rilevazione potrebbe intervenire un fattore esterno, a determinare una variazione che riguarderebbe solo i dati raccolti da quel momento in poi. Il tempo della rilevazione dipenderà dal numero e dalla reperibilità dei soggetti, ma anche dal numero dei rilevatori; è consigliabile ridurre i tempi di rilevazione, riducendo il numero di soggetti da contattare per ogni intervistatore.

• I disegni longitudinali: questo approccio presenta due differenze fondamentali rispetto al disegno sperimentale: l’assenza di un gruppo di controllo propriamente detto e l’intervallo temporale fra le due rilevazioni, solitamente maggiore, stante il fatto che questo disegno risponde alle esigenze di studiare gli effetti del tempo o di eventi nel tempo, rispetto all’oggetto di studio. Questi disegni sono molto utili quando sia rilevante studiare la dinamica di un fenomeno nel tempo (es. mutamenti sociali). I principali limiti sono rappresentati però dal basso controllo dei fattori estranei e degli effetti imprevisti introdotti dal tempo. L’elemento che accomuna questi disegni fra di loro è dunque la presenza di almeno due rilevazioni, distanziate da un lasso di tempo significativo. La prima distinzione ha anche a che fare con il lasso temporale richiesto per il controllo del mutamento che si intende studiare, che dipende in buona sostanza dall’oggetto dell’indagini. La seconda distinzione ha a che fare con la variazione della variabile indipendente, introdotta dal ricercatore, o naturale, legata all’intervento temporale che intercorre fra la prima e la seconda rilevazione e a un evento che si prevede possa intervenire nell’intervallo stesso. Nel primo caso, la situazione di ricerca è molto simile a quella dell’esperimento senza gruppo di controllo, il numero dei casi studiati sarà limitato e il controllo sulle variabili esterne quanto più elevato possibile. Nel secondo l’indagine si configura come un’indagine campionaria ripetuta nel tempo, per realizzare la quale diventa fondamentale la strategia di campionamento adottata. Venendo meno il controllo diretto sulla variabile indipendente non abbiamo la certezza che l’evento causale coinvolga tutti i soggetti inizialmente contattati. Per sfruttarlo a tutto vantaggio della validità, conviene aumentare il numero dei soggetti iniziali per tentare di ottenere un gruppo di controllo. Per procedere a una comparazione efficacie, questo gruppo dovrà essere abbastanza numeroso, e soprattutto non dovrà presentare differenze significative rispetto a qualche variabile; il controllo di questi requisiti potrà avvenire solo ex post facto. Le ricerche longitudinali si distinguono infine a seconda che le diverse rilevazioni siano effettuate sempre sugli stessi soggetti oppure su campioni equivalenti ma composti da individui diversi. Fra la prima e la seconda rilevazione alcuni soggetti potrebbero non essere più disponibili, per ragioni accidentali o volontarie. Poiché il lasso di tempo fra una rilevazione e l’altra è ritenuto sufficiente a produrre il mutamento desiderato, è altamente probabile che esso sia sufficiente a introdurre anche altri cambiamenti, non voluti e non controllabili. In pratica i postulati di equivalenza e invarianza si rivelano più accettabili ricorrendo a campioni diversi, ma equivalenti, nelle diverse rilevazioni.

• Comparazione e studio di caso: l’espressione “metodo comparativo” fa riferimento a un ampio ventaglio di disegni di indagine che hanno in comune l’elevato numero di variabili e un esiguo numero di casi o

l’elevato numero di variabili rispetto al numero dei casi. Mentre nell’esperimento i casi sono pochi e le variabili ridotte mediante l’assunzione di modelli causali, e nel disegno statistico le variabili sono molte e la popolazione ampia, nella comparazione il ricercatore si trova a dover operare con pochi casi, senza avere la possibilità di controllare adeguatamente le variazioni delle variabili estranee o tanto meno di quelle ignote. Se in un disegno sperimentale possiamo parlare di piccoli campioni, nel metodo comparato parliamo di pochi casi. Come nell’esperimento, anche nel metodo comparato e negli studi di caso i risultati prodotti non sono generalizzabili, ed è dunque necessario validarli mediante replica, o su altri casi o sugli stessi casi nel tempo. Il metodo comparato trova un vastissimo impiego negli studi politologici e laddove si renda necessario indagare sulle cause di fenomeni a carattere istituzionale: in queste situazioni i casi sono rappresentati spesso da unità territoriali o sociali, di numerosità limitata i anche indefinita. La comparazione non è cioè un ripiego rispetto all’approccio sperimentale o a quello statistico, ma risponde a esigenze diverse. La logica della comparazione è simile a quella dell’esperimento, con la differenza che il controllo sulle variabili operative viene esercitato mediante la scelta ragionata dei casi.

• La scelta dei casi comparabili: i primi due metodi di scelta ragionata dei casi servono a esplorare le relazioni causali, basandosi sulla comparazione di due o più casi che possano essere considerati comparabili rispetto a una delle variabili operative, è precisamente presentare almeno due stati diversi di una stessa variabile. Entrambi i metodi si ispirano ai canoni del comportamento induttivo di Mill e servono a individuare induttivamente le cause di un fenomeno: le relazioni causali vanno considerate ipotetiche. Il primo metodo è quello dei casi dissimili, basato sul canone delle concordanze: in questo modo, è possibile analizzare la covariazione di X e Y, escludendo che le altre variabili siano sufficienti a produrre il fenomeno. Il secondo metodo è basato sul canone della differenza: è così possibile controllare la covariazione fra due fenomeni; applicare il ragionamento contro fattuale, selezionando anche uno o più casi in cui, in assenza delle cause, il nostro fenomeno non si manifesta, e dunque specificare cause e concause del fenomeno stesso.

• La scelta dei casi singoli: negli studi di caso la selezione è orientata dal rilievo teorico intrinseco dei casi stessi, che possono presentare fattori o configurazioni di fattori, altrove non individuabili in quella stessa specifica forma. Per poter ad esempio ricorrere alla forza argomentativa del ragionamento contro fattuale, è preferibile selezionare i casi devianti rispetto a una tendenza o una regolarità empirica. La logica sottostante è ancora il canone della differenza: l’obiettivo è individuare l’eventuale terzo fattore che spieghi la deviazione osservata, fornendoci un’indicazione per una spiegazione alternativa o una specificazione della nostra ipotesi. Stesso ragionamento vale anche per i casi estremi, casi cioè in cui la variabile dipendente si presenta con particolare intensità: l’ipotesi alla base di questa scelta è che i fattori causali dovrebbero essere più visibili, mentre i fattori estranei dovrebbero agire con minore forza. I casi estremi e i casi devianti sono solitamente sottostimati nelle indagini campionarie e non possono essere adeguatamente analizzati con le tecniche statistiche: l’approfondimento qualitativo di queste situazioni può rilevare aspetti rilevanti che potrebbero restare in ombra. I casi tipici sono difficilmente utilizzabili a fini esplicativi perché la tipicità è un criterio di selezione fondato sull’attenzione posta a molteplici caratteristiche connesse l’una all’altra in un particolare configurazione il che significa, in buona sostanza lavorare con molte variabili e pochi casi, praticamente senza controllo delle fonti di variazione.

La ricerca esplorativa: quando gli obiettivi riguardano “possibili cause in un campo relativamente sconosciuto” e la ricerca si configuri come esplorativa, il disegno dell’indagine condivide con la ricerca descrittiva l’esigenza di pervenire a una rappresentazione dettagliata della variabile dipendente. Con la ricerca esplicativa la ricerca esplorativa condivide la necessità di formulare ipotesi-guida sui possibili fattori causali e sui possibili fattori estranei, che non saranno però altrettanto dettagliate, dovendo il ricercatore indagare un fenomeno relativamente sconosciuto. Non è possibile adottare il metodo sperimentale a questo scopo, in quanto esso, lavorando su pochi casi e poche variabili, non risponde a nessuna di queste due esigenze: “ la scelta iniziale di un disegno descrittivo permette la verifica successiva di un’ipotesi mediante approssimazione a posteriori del disegno sperimentale, mentre al contrario la scelta iniziale di un disegno esplicativo preclude ogni successiva approssimazione del disegno richiesto per un’indagine descrittiva”. Ricorrendo all’indagine campionaria in chiave esplorativa, è possibile controllare diverse ipotesi contemporaneamente; effettuare tante ricerche verificative quante sono le possibili spiegazioni concorrenti lavorando su poche variabili alla volta, sarebbe senz’altro una soluzione meno efficiente. Questa debolezza della concettualizzazione delle ipotesi fa si che non sia possibile sapere a priori se tutti i requisiti necessari al controllo delle diverse ipotesi concorrenti saranno soddisfatti dai dati raccolti mediante indagine campionaria. Il ricercatore potrebbe scoprire in fase di analisi dei risultati l’importanza di alcune variabili, sulle quali aveva magari raccolto informazioni a scopo descrittivo, ma che non aveva messo in conto di controllare in senso proprio, e trovarsi nella condizione di non poter dimostrare adeguatamente il nesso casuale stesso. I risultati ottenuti potranno rappresentare un’ottima base per la formulazione di ipotesi più specifiche, ma dovranno essere validati mediante ulteriori indagini, che includano tali variabili nel modello causale. I limiti di validità interna dei disegni comparativi e dello studio di caso riguardano il controllo delle relazioni causali in senso propriamente

detto. Per quanto riguarda l’esplorazione di un fenomeno, invece, i vantaggi del metodo statistico riguardano più la generalizzabilità dei risultati. In questo contesto, i disegni basati sull’analisi di pochi casi si rivelano più efficienti delle ricerche sperimentali: se la validazione dei risultati ottenuti richiede anche qui la replica delle osservazioni, essi lasciano infatti al ricercatore la possibilità di individuare nuove relazioni, cosa da escludersi nel modo più assoluto con le ricerche sperimentali.2° capitolo: il processo di operazionalizzazione nella ricerca sociale.L’operazionalizzazione nel ciclo della ricerca: il termine operazionalizzazione è un neologismo che designa la traduzione di assunti o vincoli teorici in operazioni, insomma il passaggio dalla teoria alla ricerca. Assegniamo a “operazione” il significato convenzionale di procedura osservabile e comunicabile, cioè di corso d’azione che possa essere dichiarato e controllato da altri, rispetto a quelli che lo pongono in atto. Operazionalizzazione trova un sinonimo in un altro neologismo: operativizzazione, ad esso, però, è associata una valenza pratico-applicativa, di operazioni materiali, che al termine operazionalizzazione non è necessariamente associato. Il processo di operazionalizzazione- in quanto passaggio dal piano dei modelli teorici al piano della ricerca sul campo- è costitutivo della metodologia della ricerca, mentre la discussione nata sul ruolo dell’ operazionalizzazione nella ricerca delle scienze umane e sociali ha contrassegnato il dibattito nella metodologia delle scienze sociali. Nel 1927 il fisico Percy W. Bridgman pubblicò un testo sulla logica della fisica moderna, in esso l’autore chiarì e sostenne il punto di vista operazionale, secondo il quale “ il concetto è sinonimo del corrispondente gruppo di operazioni”. La definizione operazionale di un concetto è quindi l’esplicitazione delle operazioni che gli corrispondono. Sul piano della logica della ricerca l’impostazione operazionale fu presto considerata un’indebita riduzione della scienza alla pura datità e rianimò quanti, secondo un approccio neopositivistico, consideravano necessaria la riduzione integrale dei concetti teorici al linguaggio osservativo (protocollare). Nachmias e Nachmias affermano: “in altre parole i concetti guadagnano significato empirico dalle definizioni operazionali e guadagnano significato teorico nel contesto della teoria in cui sono impiegati”. L’elemento centrale di discussione è quale sia il ruolo della teoria nel processo di operazionalizzazione. Un approccio “ragionevole” considererà il livello operazionale precedente quello osservativo-sperimentale e assegnerà ai concetti una funzione ex ante rispetto alla fase empirico-sperimentale; un approccio “radicale” considererà il livello operazionale simultaneo a quello osservativo-sperimentale e assegnerà ai concetti una funzione in itinere se non ex post rispetto alla fase empirico-sperimentale (pertanto il concetto esiste in virtù delle operazioni osservativo-sperimentali che gli sono associate). L’approccio radicale nell’analisi operazionale- saldatosi con il comportamentismo in psicologia e sociologia- unitamente a una scelta pregiudiziale e fideistica (Dottrina secondo la quale le verità supreme non si possono conoscere con la ragione ma solo attraverso la fede) in favore delle tecniche quantitative statistiche e matematiche ebbe a tradursi in quel riduzionismo e in quella quantofrenia che furono facili bersagli per Sorokin, preoccupato per le conseguenze dell’approccio operazionale nei confronti della sfera dei valori, ridotti a semplici comportamenti valutanti. Il ricercatore sociale non contrario a un orientamento costruttivista, o che intrattenga un approccio sensibile all’interazionismo, o un ricercatore sociale critico, che comprenda la conseguente impossibilità di scindere in modo assoluto l’intreccio di teoria e ricerca, concorderà sul fatto che la dicotomia fra sfera teorico-concettuale e sfera empirico-fenomenologica è solo un “come se” di comodo e di maniera: sarebbe come affermare che le teorie e i concetti hanno origine esclusivamente mentale, strutture o forme pure a priori rispetto all’osservazione, e che essa segue logicamente e temporalmente teorie e concetti, mentre il ricercatore valuta come “da fuori” l’adeguatezza fra teorie e concetti da un canto e fenomenologie osservative dall’altro. Al contrario “le modalità dell’osservazione sono parte integrante del modo in cui i fenomeni ci appaiono”. Le procedure sono costitutive delle teorie che servono a rappresentare, interpretare e manipolare le fenomenologie osservative. “operazionalizzaizone” non è solo specificazione progressiva dei passi procedurali, ma traduzione e articolazione in procedure possibili del problema da cui la ricerca trae origine, del campo disciplinare ed euristico dell’indagine, dei vincoli teorico-pratico che lo regolano, degli scenari e delle possibili soluzioni. Il fulcro della ricerca è e resta un intreccio di vincoli di vario ordine e livello:

• Apparati teorici• Concetti empirici• Vincoli tèlici

I vincoli teorici, concettuali e tèlici partecipano sempre alle varie fasi dell’indagine. Del ciclo ottagonale della ricerca non fa parte la situazione problematica, cioè la situazione complessa che può, o non può, evolvere in senso scientifico. Il problema scientifico sociale è qualcosa di diverso dal constatare che la situazione è complessa, che presenta molti aspetti e asimmetrie. Un problema è tale se definisce un’impasse tecnica e/o cognitiva, in ragione della quale la fenomenologia osservata produce una percepita dissonanza cognitiva nel ricercatore, sicché la fenomenologia osservata stride con le conoscenze acquisite o disponibili. Il riconoscimento e l’istituzione di questa fenomenologia così descritta e così osservata costituisce il problema che legittimamente innesca il ciclo ottagonale della ricerca. Di qui le ipotesi le cui caratteristiche logico-operative portano alla definizione di un preciso progetto

di ricerca che definisce finalità, apparati teorici e concettuali, oggetti e strumenti dell’indagine, fasi e tempi, risorse e ruoli all’interno del gruppo di ricerca; in altre parole, amplia e definisce il sistema dei vincoli in ragione del quale andranno valutati i comportamenti e i prodotti dell’indagine posta in essere. Il progetto, per una ricerca, è il suo codice procedurale e valutativo locale. Il piano della progettazione degli indicatori pone le premesse per comporre una rappresentazione ridotta della fenomenologia inizialmente osservata; l’immagine del fenomeno dalla quale ci siamo mossi è ora definita mediante quegli indicatori; è standardizzata e resa comunicabile all’interno della comunità di pratiche che possiamo definire comunità scientifica, proprio perché standardizzata, nel senso che sono definiti i tratti rilevabili, cioè gli indicatori, e le modalità di rilevazione di quegli indicatori. Le fasi della rilevazione, elaborazione ed analisi consentono di pervenire, da ultimo a una fase che, pur conseguente ai passi adottati, presenta notevoli gradi di libertà, e quindi sensibili margini di incertezza: quella della generalizzazione dei risultati, che si traduce da un canto nella soluzione del problema, ma anche nell’apertura di nuovi problemi, immediatamente percepiti come tali o meno. Adottiamo, quindi, una concezione ampia dell’ operazionalizzazione, considerata costitutiva e quasi sinonimo della metodologia applicativa, intesa ad approntare le varie fasi del ciclo della ricerca secondo garanzie logico-metodologiche. Bisogna ricordare che una diffusa concezione ristretta dell’ operazionalizzazione ne circoscrive l’impiego, nella ricerca sociale, alla sola progettazione degli indicatori, tendendo a confondere fra processo di operazionalizzazione e definizione operazionale dei concetti, o anche secondo alcuni degli indicatori o delle variabili.Problemi di lessico: concetto, definizione, operazione, definizione operazionale: Concetto: i concetti sono costrutti, che correttamente Marradi considera come una sorta di stenografie classificatorie: il che vale tanto per i concetti di senso comune, quanto per quelli scientifici. Possono essere costruiti in molti modi, secondo una scala di cinque processi fondamentali:

• Per astrazione• Per derivazione• Per analogia• Per metafora• Per ostensione

I concetti sono costrutti strumentali di controllo delle fenomenologie osservative alle quali vengono applicati e sono costruiti e vagliati dal gruppo e/o dalla comunità che dovrà utilizzarli.Definizione: etimologicamente significa determinazione dei confini di applicazione di un concetto. In logica è d’uso distinguere fra definizioni lessicali e definizioni stipulative: le prime definiscono significati vecchi e sono o vere o false, le seconde significati nuovi e non sono né vere né false. L’attributo lessicale va riferito al lessico della comunità che dovrà poi utilizzare quella definizione. Tutte le definizioni sono classificatorie; e la classificazione è un’operazione di costruzione di insiemi di elementi che abbiano almeno una caratteristica in comune. Una classificazione scientifica non potrà sottrarsi al doppio requisito di essere composta da classi mutuamente esclusive e nel complesso totalmente inclusive ( cioè nessun elemento da classificare resta al di fuori come residuo). Operazione: il problema delle definizioni operazionali è relativo a quali siano le operazioni ammissibili o raccomandabili in una definizione. Linguisticamente un’operazione è un’azione finalizzata, intesa a produrre un effetto preciso; brevemente è un’azione tèlica. Bridgman considera esplicitamente legittime nella pratica scientifica le sole operazioni manipolative e quelle carta e matita. Le operazioni intese in senso ampio accompagnano la sensata formazione e anzi la costruzione della conoscenza. La ricerca operativa è branca della matematica applicata intesa a trovare soluzioni pratiche a problemi pratici di ordine gestionale; quindi, laddove prevalga il senso della praticità o della predisposizione all’azione finalizzata in vista di un risultato pratico-fattuale osservabile, preferiremo “operativo/a”; mentre riserveremo “operazionale” a significare “tradotto in operazioni procedurali”. Nel presente volume l’attributo operativo/a/e/i designerà soluzioni, pratiche, strumenti o variabili destinate all’impiego pratico. Definizione operazionale: l’ostacolo opposto all’utilizzazione delle definizioni operazionali è derivato da fattori diversi, dalla loro effettiva impiegabilità. Buona parte del problema deriva dalle opere di analisi psicosociale di Bridgman e dalla deriva statistico-matematica che radicalizzò l’analisi operazionale dei concetti limitando le operazioni a operazioni misurative. I concetti astratti vennero trasformati in indici, l’intelligenza in test. Per Lundberg il processo di operazionalizzazione coincide ampiamente con la metodologia della ricerca e le operazioni ammesse sono tutte quelle che siano esplicitabili e comunicabili; l’operazionalizzazione consiste quindi nella specificazione progressiva del campo d’indagine e dei passi procedurali della ricerca. Ciò è integrabile con l’interazionismo simbolico di Blumer, con lo strumentalismo di Dewey, con il costruttivismo di Piaget e Bruner. La posizione di Blalock è opposta: l’operazionalizzazione riguarda solo indicatori e variabili, ovviamente mediante operazioni solo misurative. Fu emarginato dalla comunità sociologica Dodd per la pretesa di trasformare l’intero processo della ricerca sociale in una serie di algoritmi logico-matematici, che nessuno spazio lasciavano alla teorizzazione e alla comprensione delle novità significative. Nachmias e Nachmias dicono che, seppure limitata allo studio di indicatori e variabili, l’operazionalizzazione utilizza tutte le possibile gamma di operazioni. “una

definizione operazionale è un insieme di procedure che descrive le attività da svolgere per fondare empiricamente l’esistenza o il grado di esistenza di un concetto. I significati dei concetti vengono specificati mediante tali definizioni: le definizioni operazionali esplicitano le procedure di testing che forniscono i criteri per l’applicazione empirica dei concetti. Così, le definizioni operazionali raccordano il livello teorico-concettuale al livello empirico osservativo. Esse ci dicono cosa fare e cosa osservare al fine di condurre il fenomeno definito nell’ambito dell’esperienza del ricercatore”. Secondo loro le definizioni operazionali hanno valenza descrittiva e prescrittiva. Il ché è eccessivo: semmai, ci limiteremo ad assegnar loro una valenza esemplificativa. D’altronde considerare ogni definizione operazionale la definizione del corrispondente concetto ripercorre uno dei problemi più spinosi dell’analisi operazionale: quello della “proliferazione dei concetti”. Un approccio operazionale in senso “radicale” considera le procedure operazionali non solo un criterio semantico, di specificazione del significato ma addirittura il criterio si produzione del significato: le definizioni operazionali producono i concetti e più definizioni produciamo, più concetti diversi vengono prodotti. La proliferazione di per sé non impedirebbe processi successivi di ricomposizione dei concetti (proliferazione →selezione →integrazione →astrazione), ma affiderebbe il consolidamento delle basi concettuali a processi evolutivi casuali, in assenza dell’esplicito intervento di meccanismi regolativi. Un tradizionale meccanismo regolativo a difesa della proliferazione dei concetti p il “rasoio” di Ockham, ribattezzato modernamente “principio di economia o di parsimonia”. Secondo il principio di economia la scienza deve coprire il maggior numero di fenomeni con il minimo numero di concetti. Pertanto il pericolo delle definizioni operazionali è limitato dal rasoio di Ockham. Invece, il principio regolativo che fornisce strutturazione semantica e pragmatica alle definizioni operazionali è inevitabilmente l’apparato teorico su cui l’indagine poggia, e soprattutto il set di teorie di medio raggio disponibili e applicabili. L’analisi operazionale nella ricerca sociale: un generale approccio alla ricerca sociale come ricerca empirica, teoricamente e concettualmente orientata, sui processi sistemici comporta un necessario ricorso a complesse procedure di operazionalizzazione, mediante ricorso a operazioni quali quantitative, in quanto procedure di semplificazione della complessità euristica dal punto di vista del ricercatore. Il problema è come operazionalizzare. Nella ricerca sociale è certo individuabile una natural science trend, cioè un orientamento favorevole all’uniformazione della metodologia nelle scienze sociali e fisiche. Di questo orientamento metodologico non rimase traccia proprio a partire dagli anni ’40, allorché da un canto il paradigma struttural-funzionalista e dall’altro la metodologia della ricerca di scuola lazarsfeldiana ne erose le posizioni. In realtà il natural science trend cadde per un altro valido motivo, interno: la comunità sociologica non sopportò il suo programmatico ed esplicito ricorso a produrre definizioni operazionali, considerate per se negative. Si deve a Lazarsfeld aver codificato un’ordinata sequenza progettuale che è sicura guida per il ricercatore sociale che intenda procedere dai concetti scientifici sino all0individuazione dei tratti comportamentali o fenomenologici che consentano la rilevazione nella realtà sociale della presenza e grado di quei concetti. “Gran parte dell’attività di ricerca degli scienziati sociali necessita di una traduzione dei concetti in strumenti operativi che consentano di classificare gli individui o i gruppi. Con molta approssimazione questi strumenti vengono spesso definiti misurazioni”. In Lazarsfeld l’idea di definizione operazionale come traduzione e nel contempo di escludere una facile condanna di Lazarsfeld per quantofrenia. Il suo nome è associato subito al “4° paradigma”:

• Fase: Imagery o rappresentazione del concetto• Fase: scomposizione delle dimensioni o componenti del concetto• Fase: specificazione del significato e cioè degli indicatori relativi a ciascuna dimensione• Fase: sintesi degli indicatori in indici

L’intero processo, per come è presentato, è semantico, riduttivo e tendenzialmente misurativo. Il processo definito da Lazarsfeld è troppo ordinato; in qualche modo, ci presenta un idealtipo di processo di operazionalizzazione, in cui la scomposizione delle dimensioni e la specificazione degli indicatori portano inevitabilmente alla sintesi di un indice. Il processo riduttivo-operazionale anzitutto non è simmetrico: alcune dimensioni possono esigere un’ulteriore scomposizione in sottodimensioni, altre trovano solo un possibile indicatore, altre infine seguono le fasi di Lazarsfeld. Inoltre è indispensabile pervenire a una sintesi degli indicatori in un indice (il ché può avvenire in vari modi: qualitativo, topologico, numerico). È facile rimarcare che, se il modello generale ( imagery → scomposizione → specificazione → sintesi) sembra almeno nelle prime due fasi dotato di andamento deduttivo-analitico; in realtà a livello operativo Lazarsfeld ci propone un approccio sostanzialmente induttivo, che parte da un’elencazione degli indicatori, che vengono poi accorpati in dimensioni. Una procedura, questa, che prende come punto di partenza quello che è il punto di arrivo, e che sottace quanto siano impregnate di conoscenza tacita tanto le percezioni, quanto la rappresentazione di un fenomeno, e come la costruzione di tutti gli strumenti concettuali, ivi inclusa l’eventuale sintesi degli indicatori in un unico indice, sia da una canto “intrisa di teoria” dall’altro strumentale. Il cosiddetto paradigma di Lazarsfeld, almeno nella sua versione analitico-deduttiva, è in grado di condurre un ricercatore a costruirsi gli strumenti concettuali per studiare i fenomeni, ma certo nella sua versione induttiva affida l’effettiva realizzazione di una sensata ricerca ad altri meccanismi incontrollabili. Le differenti scelte tecnico-metodologiche non vanno ricondotte né ai singoli concetti, né alla psicologia dei ricercatori, bensì a) a ciò

che sta a monte dei concetti; b) alle finalità dell’indagine e c) all’approccio teorico che condiziona fortemente la percezione del problema, le fasi di scelta e costituzione del problema, la definizione delle aree tematiche e problematiche, e poi il processo di operazionalizzazione ristretto (dai concetti agli indicatori). Il pericolo di intrattenere concezioni oscillanti è tanto più forte, quanto più si considera il processo di operazionalizzazione circoscritto alla “definizione operazionale” degli indicatori ed è invece ben controllato da una concezione ampia, che estende il processo di operazionalizzazione dal problema all’analisi dei dati. Peraltro, un’accezione ristretta dell’operazionalizzazione – che finisce per far coincidere definizioni operazionale con scelta degli indicatori e sintesi degli indici – fa compiere alla definizione operazionale un cambiamento: essa diviene una definizione comportamentista delle variabili mediante comportamenti degli attori sociali investigati; al contrario, un’accezione estesa mantiene il punto di vista del ricercatore, talché la definizione operazionale degli indicatori avviene dal punto di vista dell’osservatore e comprende a) la progettazione dei costrutti e b) la riduzione parziale dei concetti a termini osservativi. Indicatore, indice, variabile: definiremo indicatore un costrutto, operato su fenomeni o comportamenti osservabili o rilevabili, o indirettamente apprezzabili mediante simbolizzazioni o misure standardizzate, singole o aggregate, che nell’assenza, presenza o intensità di tali fenomeni o comportamenti registri la dimensione di un concetto. Nelle scienze osservativo-sperimentali “indicatore” sta per tratto (non necessariamente misurativo) manifesto di una grandezza (nel nostro lessico meglio caratteristica o attributo) altrimenti latente. Tale definizione è corretta anche nella ricerca sociale. Nel linguaggio scientifico esiste anche il termine “indice”. Siamo abituati a pensare che esso abbia un significato misurativo e di sintesi, in realtà non è così. In alcune scienze naturali, “indice”, sta per elemento materiale che è dirimente per un’attribuzione classificatoria (geologia). Quando Lazarsfeld ci presenta l’indice come punto di ricomposizione di quello che noi definiamo processo di operazionalizzazione, ci dice che un indice costituisce la sintesi – riconducibile probabilisticamente al concetto di partenza- di più indicatori provenienti dalla stessa dimensione concettuale, si riferisce alla declinazione statistico-economica del termine indice, che in queste discipline si presenta some sintesi necessariamente misurativa di più indicatori. L’indice misurativo di sintesi non è punto di approdo né indispensabile, né obbligatorio nell’attività di ricerca sociale, che non può sottrarsi a generali criteri di sensatezza e di utilità. Anche un indice di sintesi è un indicatore. Pertanto, le caratteristiche logico-applicative attribuibili agli indicatori sono sempre applicabili agli indici, non il viceversa. In tutta la procedura di operazionalizzazione abbiamo una standardizzazione stipulativa dei significati, che lascia dei residui semantici, allora si conclude che non è solo l’indice ad avere caratteristiche di rappresentatività “probabilistica” verso i livelli di partenza, ma tutto il processo di operazionalizzazione, che non a caso molti autori considerano riduttivo della complessità iniziale. Ciò avviene in quanto tutti i singoli passaggi di riduzione della complessità saturano la semantica del livello precedente o solo parzialmente o comunque in modo controvertibile e strumentale, relativo a quella specifica ricerca localizzata spazio-temporale. Le singole dimensioni sono il risultato di una declinazione del concetto all’interno di una certa comunità scientifico-disciplinare, che lo scompone in dimensioni pragmaticamente utili a quella specifica indagine, dal suo punto di vista, che ha il suo rationale nel progetto di ricerca. Per ciascuna componente o dimensione fisserò come ricercatore degli standard quali-quantitativi di valutazione ( i miei indicatori). Il fatto che tutto il processo di operazionalizzazione sia convenzionale e strumentale comporta un’accumulazione dell’errore potenziale della scelte del ricercatore, che da ultimo compone quel quadro di indeterminazione strutturale che Lazarsfeld riferisce al solo rapporto probabilistico fra indice e concetto. E poiché l’indice di sintesi altro non è che un indicatore, è facile affermare che l’indicatore ha verso di essa un grado di saturazione semantica parziale, che tale rimane anche quando si considerino per una dimensione tutti i possibili indicatori. Molte sono le possibili classificazioni degli indicatori, a fronte delle quali la distinzione di Lazarsfeld in indicatori espressivi e predittivi ci sembra parziale. Anzitutto, i modelli-indicatori non corrispondono agli indici di sintesi, da un canto perché non necessariamente algoritmici e dall’altro perché sono meglio rappresentabili come vettori di valori di variabili quali-quantitative. È opportuno chiarire cosa siano gli indicatori indiretti: ad esempio, un elevato indice di mortalità perinatale è sì un indicatore sanitario diretto, ma anche una delega indiretta di sviluppo economico, poiché è comprovato dalle teorie dello sviluppo il legame fra condizione economica e indici sanitari. Gli indicatori individuali sono semplicemente caratteri riferiti al singolo; gli indicatori soggettivi sono le rilevazioni di opinioni, atteggiamenti e motivazione. Ad esempio, il titolo di studio dell’intervistato è un indicatore individuale strutturale; il punteggio di scala di apertura mentale del signor x è un indicatore individuale soggettivo. La distribuzione o la media dei punteggi di una scala d’intolleranza etnica relativo a un aggregato di persone è un indicatore collettivo soggettivo; il numero dei giorni annui per vacanza pro familia per regione è un indicatore collettivo strutturale (tabella pag 103). Gli indicatori possono avere funzioni diverse nell’economia dell’indagine; per essere più precisi: lo stesso comportamento sociale, assunto a indicatore in diversi progetti di ricerca, può essere utilizzato nei diversi progetti per diverse finalità, quindi con funzione diversa (tabella pag 103). Variabile è termine algebrico-matematico, che designa un simbolo che rappresenta un valore numerico ignoto in un’equazione. La statistica ha ampliato l’utilizzazione del termine: la scuola statistica italiana distinse fra mutabili e variabili. Possiamo sostituire a misurazione il termine

operazionalizzazione, a significare che il ricercatore potrà, a sua scelta e secondo motivazioni teoriche o di utilità pragmatica, operazionalizzare le sue variabili secondo vari livelli (tabella pag 105). Il concetto di indice sintetico proposto da Lazarsfeld rientra nelle variabili metriche, e pertanto nel caso della tradizione lazarsfeldiana possiamo considerare gli indici sintetici una sottoclasse delle variabili metriche. Secondo questo approccio, nell’universo degli indicatori è individuabile un sottoinsieme, quello degli indici di sintesi. Viceversa, se concepiamo il processo di misurazione in senso più lato, e accettiamo una nozione ampia di variabile, allora definiremo indicatori quelle variabili che acquistano senso e significato in ragione di un modello teorico. Fra gli indicatori, a loro volta, quelli che siano variabili metriche e che abbia senso sintetizzare mediante algoritmo, saranno gli indici sintetici. Insomma, indicatori, indici e variabile di per sé non indicano nulla, se non all’interno di un quadro teorico-interpretativo, che non può, in sede scientifica, uscire ad hoc, ma deve essere chiaro, distinto e depositato, poiché la ricerca sociale non può sottrarsi al suo esser parte della conoscenza scientifica, che è accumulazione di sapere legittimati dalla presenza di conoscenze certificate mediante procedure depositate. I requisiti di legittimità delle procedure operazionali: concetti, dimensione, sottodimensioni e indicatori sono tutti costrutti, la cui elaborazione si conforma alla tensione essenziale fra l’esigenza si una rilevazione analitica dei fenomeni e l’altrettanto forte esigenza di sintesi e di rispetto del principio di economia di Ockham. Il rasoio di Ockham è anche un criterio di valutazione soprattutto ex post. Significa che l’applicazione del rasoio dopo la ricerca ci aiuterà a valutare e semmai ricomporre o eliminare parti non bene integrate concettualmente, mentre l’applicazione ex ante potrebbe anche avere l’effetto indesiderabile di frenare eccessivamente la creatività concettuale. La legittimità delle procedure operazionali chiama in causa in primis il requisito generale della solidità logica – ovvero della soundness – di una procedura d’indagine. In quanto le procedure operazionali costituiscono l’adjustment fra ricercatore e fenomenologie osservative di contesti e sistemi complessi, possiamo affermare che i requisiti di legittimità delle procedure sono da considerare, in un contesto di scienza sociale, assolutamente universali. I primi quattro articolano il concetto generale di “soundness”:

• Attendibilità• Validità• Coerenza• Portata sistematica

Attendibilità: la letteratura internazionale di metodologia della ricerca sperimentale impiega il termine inglese “reliability” che può anche essere reso con “affidabilità”, è frequentemente utilizzato nelle scienze osservativo-sperimentali, in riferimento ai risultati di un procedimento di misurazione a indicare la loro affidabilità, la quale viene per solito inferita dalla stabilità dei risultati stessi. Quest’uso non ci convince: da un canto non mette in discussione, se non ex post, la procedura utilizzata; in secondo luogo, assegna alla stabilità della misura un’importanza fondativa, che impedisce la corretta applicazione del concetto nei casi di difficili o impossibile replica delle procedure poiché il sistema osservato è instabile e pertanto incontrollabilmente sensibile all’interazione osservatore-osservato. Non possiamo non osservare le difficili condizioni di attendibilità delle procedure di tutte le scienze sistemiche; situazione alla quale sul piano operativo si cerca di rimediare con osservazioni estese e con il ricorso a un’attenta esplicitazione delle procedure , laddove riserveremo l’uso assai più infrequente del concetto-termine di “trustfulness”/”affidabilità” non ai dati bensì ai risultati, e quindi alle informazioni prese, elaborate analizzate. Il principio principe di valutazione dell’attendibilità risiede nelle procedure “test-retest”. La stabilità diacronica dello strumento è considerata come ragionevole garanzia di attendibilità.Validità: la validità dà corpo alla “realtà oggettiva”. Zetterberg distindue fra

• Validità interna o di contenuto o concettuale, in quanto grado di corrispondenza fra un indicatore e una definizione operazionale

• Validità esterna o secondo criterio o empirica, in quanto valutazione di quanto un indicatore sia un predittore efficacie di altri indicatori

Nel caso della validità interna la corrispondenza è valutata sul piano logico-operazionale: quel che si valuta è la solidità logica di un sistema di relazioni. Nel caso della validità esterna si fissa un criterio convenzionale come criterio di riferimento; e sempre convenzionalmente si definisce uno scarto massimo che ci consenta di decidere in merito all’efficacia delle predizioni.La validità interna viene di solito valutata a partire da un confronto fra il contenuto tematico-concettuale di un indicatore e il contenuto tematico-concettuale di un attributo esaminato. Vi sono tre sottoclassi:

• Validità per confronto: la valutazione è operata da un gruppo di giudici, che stima la congruenza fra gli indicatori e l’attributo studiato.

• Validità per campione: si deve valutare se l’insieme degli items è un “campione semantico” utile a ripercorrere la diversificazione dell’universo degli indicatori che rappresenta l’attributo in esame.

• Validità nomologica: di un costrutto o modello C quando, in rapporto a un insieme E di costrutti interrelati – C è sottoposto a test empirico, per saggiare la sua sistemicità in quanto efficienza predittiva. Il che è simile alla validità di costrutto di Cronbach, secondo la quale la validità consiste nella relazione stipulata fra

gli indicatori e un costrutto o modello teorico concettuale di riferimento; sulla base di quest’ultimo si ipotizzano relazioni fra variabili; il test delle relazioni può indebolire o rafforzare il modello; nel primo caso strumentazioni e misure sono invalide, nel secondo valide.

La validità esterna comprende anch’essa tre sottoclassi:• Validità predittiva: viene rilevata dalla correlazione fra le misure effettuate con la scala e le misure derivanti

dall’applicazione di uno strumento o standard già considerato valido, indipendentemente dall’assunzione di un modello teorico. Il test di validità consiste nell’indice di correlazione lineare r di Bravis-Pearson, inteso come coefficiente di validità.

• Tecnica dei gruppi noti• Validità convergente e la tecnica della validità convergente/discriminante: la prima accerta mediante la

correlazione lineare la sovrapponibilità fra due test dello stesso attributo o tratto, confrontando simultaneamente per ogni soggetto misura di scala e misura-criterio. La seconda consiste nella misurazione di più attributi o grandezze mediante la stessa o diverse procedure e può denominarsi “validità multitratto-multitecnica”. L’indice di correlazione monotratto-monotecnica misura l’attendibilità dello strumento usato in termini di stabilità delle misure; se non presenta valori elevati è inutile procedere alla valutazione della validità. Nella situazione monotratto-multitecnica, se lo scarto fra le due misure è prossimo a zero, i risultati delle due tecniche sono correlati e le due tecniche si considerano valide. Nel caso multitratto-monotecnica si valuta una tecnica a fronte di attributi diversi, e quindi dove essa sia più efficiente. Presumibilmente, le relazioni multitratto-monotecnica saranno deboli e questo ci consentirà di parlare di “validità discriminante”. Invece, i coefficienti multitratto-multitecnica dovrebbero presumibilmente essere scorrelati.

Riquadro: la sovrapponibilità degli indicatori, validità e predittività. Se più indicatori relativi alla stessa dimensione si comportano allo stesso modo, cioè se covariano, avrò una ragionevole sicurezza di “misurare” quanto volevo misurare. Se vedo che stabilmente A e B sono costantemente associati, allora, nel rispetto del principio di economia, posso in quella specifica ricerca utilizzare uno solo dei due. La cosa importante della sovrapponibilità fra indicatori è che essa può ricondursi alla “validità convergente” a patto, però, che o per progettazione ex ante o per valutazione ex post i due o più indicatori siano riconducibili alla medesima dimensione concettuale. Qualora ex post riscontriamo fra k indicatori un coorientamento e una sovrapponibilità di fatto, tale sovrapponibilità non potrebbe considerarsi un esempio di validità convergente finché non disponessimo di un modello concettuale che fondasse teoricamente la correlazione o connessione fra k indicatori. Di conseguenza, in assenza di un fondamento teorico, ogni uso di un indicatore come predittore di altri sarebbe sì possibile, ma si configurerebbe come un’applicazione di senso comune scientificamente non sostenibile. Coerenza: la coerenza è in prima approssimazione la consequenzialità logica. Il concetto-termine di coerenza è correttamente utilizzabile come attributo logico-operazionale di uno strumento. Nel caso della consequenzialità logica, la coerenza definisce soprattutto un attributo di un’argomentazione valutata ex post; nel caso della congruenza logico-operazionale, la coerenza è un principio regolativo in itinere delle procedure di ricerca nel loro farsi, affinché i passi operativi adottati siano costantemente gli sviluppi strumentali necessari dei passi operativi precedenti. In tal senso l’attribuzione di coerenza è rivolta alle procedure via via adottate, e al loro interno alle loro parti componenti. In tal senso, il concetto termine di coerenza articola e operazionalmente traduce il concetto di senso comune di adeguatezza. Non possiamo legittimamente scegliere una tecnica da applicare indipendentemente dagli assunti teorici dell’indagine, dalle caratteristiche già note della fenomenologia oggetto di studio, del filo rosso che lega gli assunti teorici e tecniche osservative. Questo ha a che fare con un criterio più teorico che logico di coerenza, quindi più con l’assunzione non contraddittoria di strumenti congruenti con il punto di vista adottato e con le caratteristiche dell’oggetto per come concepite, interpretate e declinate dall’osservatore, che non con un criterio puramente logico di ordine linguistico-formale. Ci stiamo muovendo qui in un ambito di coerenza interna, in quanto non contraddittorietà interna di uno strumento sul piano logico-operativo. Un’indagine coerente non necessariamente fornisce risultati importanti, ma un’indagine incoerente è semplicemente da accantonare. Solo apparentemente il requisito logico-operativo della coerenza interna può sovrapporsi al requisito dell’attendibilità possiamo costruire strumenti attendibili perché stabiliti nell’impiego, che potrebbero risultare incongrui e squilibrati, fino a indurre un forte bias nella risposta degli intervistati.Portata sistematica: il requisito della portata sistematica consiste nel legittimare uno strumento o una sua parte in relazione alla teoria. Lo strumento ha senso nella misura in cui fornisce risultati che corroborano i nodi della rete teorica e la rete nel suo complesso. Lo strumento è legittimato perché porta a risultati che irrobustiscono l’apparato teorico concettuale in cui strumento e risultati si inseriscono. Siamo di fronte a un concetto di efficacia teorica, laddove il concetto di coerenza è relativo a un’idea generale di efficienza teorica. Le risultanze empiriche che derivano da strumenti dotati di systematic power hanno forte cogenza teorica, cioè forniscono dati congruenti con l’apparato teorico. Abbiamo qui un requisito logico-operativo che articola il generale principio di soundness, poiché uno strumento dotato di systematic power può considerarsi un’estensione di un apparato teorico, sul quale retroagirà competentemente, o indebolendolo. Gli strumenti e i loro elementi derivano da procedure tracciate, che

consentono di collegare solidamente la teoria alla ricerca. Una conseguenza ovvia è che certi strumenti, all’interno di un certo frame teorico e di fronte a determinate fenomenologie, non possono di per sé portare ad alcun consolidamento della teoria, e da un punto di vista strettamente metodologico non potremmo considerare da essi legittimato neanche un indebolimento dell’apparato teorico. Un progetto di ricerca esplorativo deve a) risolvere a livello di unità di analisi il problema dell’assunto teorico e b) se il progetto è esplorativo, utilizzerà strumenti di data analysis di ordine dichiaratamente esplorativo. Unità pragmatica: il requisito logico-operativo dell’utilità pragmatica a rigore si colloca al di fuori del dominio della soundness. Si tratta di un criterio esterno, che legittima gli strumenti in funzione della loro utilità, non sul piano teorico, ma su quello applicativo. Il ricorso a tale criterio è innescato da domande del tipo: “a che serve questo strumento?di che utilità è?”. L’utilità pragmatica non è utilizzabile da sola: che uno strumento sortisca un effetto desiderato non lo legittima scientificamente. L’utilità pragmatica è criterio esterno alla logica dell’indagine stricto sensu; eppure né è un criterio di ordine regolativo e previsionale, che privilegia la progettazione e l’impiego di strumenti in grado di offrire margini di applicazione a casi concreti. Non necessariamente in un’ottica di ricerca-azione: anche nella ricerca fondamentale è individuabile una sezione, che è d’uso definire ricerca strategica, che è intesa a dare risposte operative, applicabili alla soluzione di problemi di grande interesse sociale. Ciò è in linea con la tradizione di Dewey e Lynd: una scienza che è strumento di conoscenza e insieme di intervento, che trova la sua legittimazione anche nella sua utilità sociale oltreché cognitiva. Il concetto di “utilità pragmatica” possiamo estenderlo sino a coprire il dominio semantico dell’applicabilità tecnica.Dalle definizioni lessicali alle definizioni operazionali: non si dà una definizione operazionale dei concetti: ci si arriva per gradi. Ciò significa che il passaggio dal piano retorico al piano operativo passa attraverso un’ordinata sequenza di progressiva operazionalità, fino alla definizione operazionale dei concetti, secondo una scansione di fasi che deve essere precisa:

• Definizione lessicale: è quella che si trova sul vocabolario. Essa corrisponde a una definizione astratta e generale, che registra l’uso linguistico corrente di un termine, per come presente nel linguaggio ordinario di senso comune.

• Definizione stipulativa: pertanto convenzionale. Convenzionale significa che su essa convengono un team di ricerca. Vale a dire che è errato pensare che nella ricerca sociale possa darsi una definizione singola e unilaterale di un concetto, una definizione non può essere relativa alle ubbie individuali di un ricercatore, ma deve rappresentare un elemento di un linguaggio settoriale di scambio e comunicazione fra specialisti. Una definizione stipulativa socio cognitivamente stabilizzata diviene una definizione lessicale; se la definizione lessicale è corretta, accurata e applicabile, allora formulare una definizione stipulativa potrebbe non essere necessario.

• Definizione semioperazionale: è l’anello di passaggio fra una definizione stipulativa e la corrispondente definizione operazionale. Soddisfa solo in parte i requisiti richiesti a una definizione operazionale, in quanto assolve alla funzione di specificazione parziale del significato da attribuire al concetto, senza però contribuire direttamente alla trasformazione del concetto in variabili. Essa costituisce solo l’inizio del processo di riduzione di complessità. In assenza di un’esplicita definizione semioperazionale il passaggio diretto alla definizione operazionale, che specifica dettagliatamente le procedure, avviene in base a una dimensione tacita e inespressa del sapere, sull’operato della quale né il ricercatore, né un soggetto esterno possono monitorare la complessiva procedura di operazionalizzazione. Essa è una definizione tecnico-applicativa.

• Definizione operazionale: deve rendere chiaro cosa fare, come farlo, con quali finalità e con quali strumenti. La ricetta di una torta è la definizione operazionale di torta (esempio pag.123)

Nell’iter definizione lessicale > definizione stupilativa > definizione semioperazionale > definizione operazionale si scende nella scala di astrazione, diminuisce il possibile consenso di senso comune, aumenta il possibile consenso scientifico, diminuisce la comunicabilità sociale, aumenta la chiarezza scientifico-applicativa. Questo iter chiarisce a noi cosa e come stiamo studiando, consente alla comunità scientifica competente di controllare e valutare sia pure ex post la nostra procedura operazionale e in buona sostanza definisce cosa effettivamente rappresentano i risultati della nostra ricerca. L’analisi operazionale non è necessariamente riferibile alla misurazione: essa sfugge alle facili dicotomizzazioni di maniera. Le procedure operazionali le utilizzeremo nella costruzione della nostra ricerca per certificare, e consentire ad altri di controllare, il nostro sapere.3° capitolo: strategie e tattiche di selezione dei casi. Non è corretto parlare sempre e comunque di “campione”, “campionamento” e simili in un’acritica e ritualistica adesione a uno schema tipo e , più astrattamente ancora, idealtipico che vorrebbe legittimare il processo di ricerca solo a condizione che si possa dichiarare o certificare soddisfatto il criterio per il quale a base di tutto il lavoro empirico di ricerca vi è un “campione” strutturato secondo regole canoniche di campionamento statistico riferite a teorie del campionamento così come sviluppate nella letteratura statistica classica. I risultati prodotti e le correlate possibili generalizzazioni o sono generate da una base campionaria oppure “non sono”. La ricerca, all’interno di

qualsiasi campo tematico, produce sempre inferenze a diversi tassi di generalizzazione e che, questa ampiezza di estensione è differente e valutabile di volta in volta, in ogni prassi di ricerca, in rapporto alle singole e specifiche situazioni di analisi e di contesto oltre che naturalmente allo stadio di evoluzione dei singoli campi di sapere scientifico. Per cui si danno situazioni in cui il contesto e la situazione di analisi consentono solo alcune procedure e non altre, rendono più opportuni e utili soltanto alcuni approcci piuttosto che altri e, corrispondentemente, producono tipi diversi di generalizzazioni soprattutto in termini di estensione e durata. Proprio questi due aspetti sono particolarmente sostantivi e cruciali nel caso della ricerca sociale e , soprattutto, nella ricerca applicata. Qui entra in gioco il concetto di dinamica sociale di fronte al quale il ricercatore sociale pure avvertendo, una produttiva e genetica ansia per la generalizzazione universale è, tutto sommato, poco interessato a generalizzazioni universali e stabili, proprio perché la fortissima consapevolezza del fatto che il proprio oggetto di studio, oltre a essere particolarmente complesso per variabili e numero di soggetti che entrano in gioco nelle dinamiche sotto osservazione, è culturalmente differenziato, strutturalmente instabile e , in aggiunta, poco duraturo, ovvero, con periodicità spesso ciclica, contraddistinto da un’accentuata velocità di mutazione. Il che porta a concludere che la ricerca sociale opera con pertinenza e legittimità le proprie analisi, attivando il massimo dei controlli e il massimo delle garanzie possibili che la situazione di ricerca le consente. Sia sul versante progettuale che su quello operativo delle prassi di indagine il ricercatore ha critica consapevolezza del fatto che anche al di fuori delle strette e canoniche logiche campionarie è possibile attivare procedure empiriche utili a produrre generalizzazioni metodologicamente controllate anche di medio raggio. In rapporto agli approcci che possono essere messi in campo dal ricercatore sociale, è più corretto riferirsi a tattiche e strategie di selezione dei casi piuttosto che a campioni e tipi di campionamento, dal momento che solo in alcune situazioni può essere tenuta sotto controllo una qualche definizione statistico-operativa di universo dal quale derivare parallelamente correlati campioni. La situazione migliore da perseguire e la più auspicabile rimane quella di poter fare riferimento a universi certi e stabili dei quali indagare in via previa quelli che gli statistici definiscono caratteri della popolazione e successivamente, sulla base di questi caratteri, ricavare canonicamente dei campioni tarati sulle necessità di indagine. Quando ciò non è possibile si procede con altre strategie di selezione.Rappresentatività sociale e rappresentatività statistica: il contributo dei classici: Lo studio di Durkheim costituisce una vera sfida metodologica: “se il suicidio è un atto dell’individuo che indice solo sull’individuo, un fatto così definito può interessare il sociologo?”. Durkheim elabora sulla base statistica il dato sociologico di contributo di ogni singolo nazione al fenomeno del suicidio con un proprio tasso di mortalità-suicidio, che trova praticamente costante per lunghi periodi di tempo fino a ritenerlo più invariabile dei principali fenomeni demografici routinariamente osservati dalle statistiche ufficiali. Da qui, operando i dati disponibili, relativi al sesso, all’età ecc, elabora una serie molto articolata di analisi incrociate allo scopo di confutare alcune tesi ricorrenti di tipo extrasociale e di proporne di nuove con riferimento a specifici fattori sociali che mostrano essere il suicidio un rilevante fenomeno sociale. La sua analisi è secondaria di dati raccolti per altre finalità; questi dati finiscono con il costruire l’unico universo di riferimento possibile, posto al di fuori di ogni possibilità di controllo, affidato unicamente al fatto che vi è una certificazione ufficiale attraverso gli organi competenti che hanno verbalizzato la ricognizione di polizia giudiziaria. Durkheim dimostra che non sono soltanto fattori economici negativi a interpretare il suicidio anomico ma anche elementi di mutazione sociale traumatica e veloce anche positiva. L’esempio da lui riportato è riferito agli eventi successivi alla costituzione del Regno d’Italia, e alla conquista di Roma, che portarono a uno sviluppo notevole e a forti innovazioni economiche strutturali. Nota Durkheim che nel periodo immediatamente successivo a tali eventi positivi i suicidi aumentarono del 36%. Nel caso della ricerca di Thomas e Znaniecki sul contadino polacco, che andava incontro a una problematica e pressante nei primi decenni del 900 in America come quella delle mutazioni culturali e della integrazione degli emigranti, il riferimento obbligato è al reperimento e all’analisi di materiale documentale di varia natura. Gli autori utilizzano in primo luogo circa 800 lettere di immigrati polacchi in America, raccolte attraverso un’inserzione su un giornale in lingua polacca pubblicato in America. Nell’insieme le lettere rappresentano 50 gruppi familiari ed è evidente che con questi 50 gruppi non vi è la pretesa di rappresentare esaustivamente l’universo dei contadini polacchi emigrati in America. Oltre ad esse vennero utilizzate parte di circa 8000 documenti reperiti e acquistati in Polonia da Thomas dagli archivi di un giornale polacco. E infine venne utilizzata la autobiografia scritta da un giovane polacco che racconta sia l’esperienza americana che quella polacca precedente alla sua emigrazione in America. Facendo un bilancio conclusivo sull’insieme dei materiali utilizzati da Thomas e Znaniocki, non vi è dubbio sul fatto che la via seguita dagli autori risulta la più adatta a tratteggiare una realtà culturale in mutazione, all’epoca fortemente dinamica e priva di qualsiasi antecedente conoscitivo. L’oggetto di studio dono le trasformazioni della società contadina polacca e gli atteggiamenti sociali in una situazione di profonda mutazione su due versanti cultural-territoriali, quello europeo e quello americano. Per in nostri autori le scelte effettuate non costituiscono delle facili scorciatoie tecniche o metodologiche, ma delle specifiche scelte progettuali e di approccio, anche a fronte del fatto, evidenziato in rapporto all’epoca, al contesto e al problema sotto analisi, dell’impossibilità, non solo pratica, di procedere con sistemi assimilabili in qualche modo a ciò che oggi intendiamo per survey.

Campionamento statistico e studi di caso: oltre l’antinomia qualità-quantità: nel caso della ricerca Banca della memoria si è adottato, sulla base della congruenza con il canovaccio tematico di progetto, un criterio di individuazione di un primo soggetto attraverso un mediatore. In pratica si è attivata la tecnica della selezione a valanga, animata da un rapporto fiduciario fra intervistatore e intervistato che consente di penetrare un ambito umano e sociale alquanto specializzato e omogeneo per base sociale, territoriale e culturale. Nello stesso tempo al procedere delle interviste biografiche tematizzate, cioè interviste che a differenza delle biografie o autobiografie classiche impongono un canovaccio tematico di base comune per tutti i soggetti, si è verificato costantemente il tasso di saturazione tematica raggiunto dall’insieme delle interviste effettuate, fino alla percezione del fatto che il modello culturale rilevato attraverso i soggetti ascoltati appariva alquanto stabilizzato e saturato nei contenuti e che, al proseguire con ulteriori interviste, risultava costantemente ripetuto. In questo caso siamo all’interno di una rappresentatività sociale giocata per intero su base qualitativa, fondata sulla trasparenza e correttezza dell’approccio e tarata più sull’universo dei contenuti che non sull’universo dei soggetti. A livello microsociologico vi sono, in casi del genere, sufficienti prove del fatto che le generalizzazioni derivabili siano, alle condizioni di controllo sopra premesse, pertinenti e affidabili; l’estensione ulteriore di essa obbliga a ulteriori rilevazioni in contesti omologhi ma territorialmente differenziati in modo tale da poter sviluppare analisi comparate utili all’estensione ipotizzata e desiderata. Alcune delle situazioni richiamate possono essere attribuite a quel tipo di approccio etichettato come case study: le caratteristica fondamentale è quella di isolare e interrogarsi su una singola questione, una singola filiera o un singolo elemento di essa. Lo scopo principale di uno studio di caso è quello di analizzare quella particolare situazione, per ridurne il tasso di incertezza conoscitiva soprattutto rispetto a una logica di processo, oppure per isolarne aspetti critici e per riformulare domande più specifiche su di esso anche in riferimento ad analisi di impatto circa effetti reali o potenziali. Quindi lo studio di caso non persegue l’obiettivo delle generalizzazioni al di fuori di stretti confini della situazione sotto analisi, ma è altrettanto evidente il fatto che basta introdurre elementi di analisi comparata fra eventi per ricavarne la possibilità di dare evidenza a costanti che aprono a percorsi, più che fondati, di generalizzazione anche al di fuori di ambiti strettamente tipologici e anche al di fuori di preoccupazioni che spesso fanno unico riferimento alla bassa numerosità dei casi sotto esame. Un paper del 1987 individua 6 tipi principali di case study:

• Applicazione in funzione illustrativa• Applicazione in funzione esplorativa• Analisi di esempi critici• Valutazione dell’attuazione di un programma• Valutazione degli effetti di un programma• Analisi cumulativa di più casi

L’approccio probabilistico al campionamento: ciò che porta a decidere l’una o l’altra strategia di selezione dei casi è da un lato il problema sotto indagine e dall’altro il riferimento al contesto operativo e alla definizione dell’universo o della popolazione sotto osservazione; condizioni non sempre controllabili sul piano operativo e tecnico. Ad esempio il criterio di base del campionamento casuale semplice è legato al fatto che tutte le unità della popolazione debbano avere la stessa probabilità di essere scelte. Rimane aperta la questione della distinzione fra campionamento casuale e campionamento a scelta ragionata, che arriva a toccare anche la legittimità del secondo tipo di campione, che per alcune scuole teoriche uscirebbe fuori dalla logica del campionamento ma che, nella pratica della ricerca, è utilizzato frequentemente e di fatto finisce con l’attenuare l’opposizione teorica fra i due tipi di campionamento. Maggiori garanzie di affidabilità si hanno in linea concettuale mantenendo le condizioni probabilistiche della casualità semplice, che però, nella pratica vengono poi corrotte e anche depotenziate nei loro rapporti di costanza della stima della rappresentatività in sede di analisi incrociata, laddove la frequenza unitaria venga frazionata per effetto dell’incrocio con altra variabile o mutabile che sia. I requisiti che un campione deve soddisfare sono:

• L’eterogeneità: capacità di includere le differenze interne, note o ipotizzabili, proprie dell’universo di riferimento non solo riguardo alle singole variabili ma soprattutto alla capacità di intercettare la loro varianza o dispersione

• La rappresentatività: capacità di rappresentare proporzionalmente le qualità note e caratteristiche, oppure come tali ipotizzate, dell’intero universo

• La sufficienza: capacità di garantire, anche con scarti statisticamente stimabili, un sufficiente livello di fiducia statistica della rappresentazione delle caratteristiche proprie dell’universo sotto analisi.

Criteri, nel loro insieme, che sommano aspetti qualitativi e quantitativi. Bisogna chiarire alcune procedure atte a mantenere la stabilità del criterio di estrazione casuale del campionamento casuale semplice: in pratica bisogna riprodurre le condizioni metaforiche della estrazione casuale di un numero da un’urna come avviene ad esempio nel gioco del lotto. Quindi il primo passo è costituito dalla chiara ed esaustiva identificazione dell’universo. Immaginando che le condizioni di fissazione dell’universi e numerazione dei soggetti siano state garantite si danno, seguendo le regole statistiche della probabilità due possibilità:

• Estrazione con ripetizione: il numero estratto viene rimesso nella nostra urna, viene mantenuta in maniera pura il criterio della casualità semplice anche se si va naturalmente incontro alla possibilità che un soggetto venga estratto più volte

• Estrazione senza ripetizione: il soggetto estratto non viene rimesso e quindi al procedere delle estrazioni diminuisce il numero di soggetti nell’universo originario, il che modifica i rapporti di probabilità originari che dovrebbero essere ricalcolati ogni volta al variare del totale dell’universo.

Verifiche statistiche comparate hanno condotto ad affermare che quando si ha un numero grande di casi dell’universo rispetto al numero dei casi costituenti il campione, alla fine le differenze fra le due procedure di campionamento risultano essere molto piccole. Lo strumento classico di estrazione sono le tavole dei numeri aleatori. Tali tavole vengono predisposte secondo presentazione grafiche differenti che però offrono, attraverso opportune spaziature di riga e colonna, una lettura facilitata a blocchi. Un modo tradizionale di procedere, una volta scelta casualmente una pagina della lista di numeri aleatori, è quello di individuare con un valore di riga e uno di colonna, a loro volta individuati attraverso l’estrazione casuale di due distinti numeri, rapportati all’ampiezza della pagina interessata, un singolo blocco di numeri a quattro cifre. Un sistema che, a determinate condizioni, semplifica e velocizza questo tipo di procedimento è la cosiddetta estrazione sistematica sulla base di un predeterminato intervallo fisso di estrazione in genere calcolato dividendo il totale dell’universo per il numero totale dei soggetti da campionare. Questa semplificazione non sempre può essere adottata, il tutto dipende dal tipo di lista-universo sulla quale si lavora. Dal momento che il piano di campionamento adotta il criterio dell’estrazione senza ripetizione si potrebbe estrarre, fini a esaurimento dell’universo, numerosi altri campioni composti ognuno da eguale numerosità. Scatta a questo punto la questione della valutazione del migliore fra tutti i possibili campioni, che può essere effettuata attraverso la valutazione di alcuni parametri analizzati da alcune misure canoniche dette stimatori, uno stimatore spesso usato è la media. Per poter procedere in questo modo occorrono informazioni previe sull’universo, che molto spesso non si posseggono. In questo caso ci si può riferire a informazioni indirette desumibili da studi precedenti, oppure si possono realizzare delle pre-analisi di sfondo. Questione importante rimane il controllo dell’universo, cioè l’esigenza della sua certa definizione all’origine, senza la quale gli elementi di precisione e affidabilità statistica garantiti dal campionamento casuale semplice crollano sul piano del merito anche a fronte di procedure ineccepibili di estrazione casuale. Quando questa condizione non può essere garantita, conviene fare riferimento a logiche e modalità campionarie diverse, come quelle a scelta ragionata, che non è detto risultino pregiudizialmente più deboli. La prima affermazione, riguardo la questione della numerosità del campione e del suo rapporto con l’universo, riconduce al fatto che operativamente la numerosità dell’universo è alquanto irrilevante per un buon campione, intendendo per buon campione una scelta congrua del tipo di campionamento e un altrettanto congruo e scrupoloso piano di campionamento rapportato al problema sotto analisi. Si danno due situazioni concrete: possedere ampie informazioni sull’universo, e in tal caso potrebbe risultare addirittura inutile procedere a un campionamento salvo motivi di stretta pertinenza ergonomica o economica e non conoscitiva; non avere informazioni sull’universo, e quindi è giocoforza puntare sul campionamento, che in questo caso sarà regolato da stime di vario tipo su un qualche parametro-guida con la speranza di intercettare in questo modo ampia parte della variabilità dell’universo a prescindere dalla sua numerosità. Nell’ipotesi di eterogeneità dell’universo sotto osservazione, senza che si sappia nulla non rimane che azzardare probabilisticamente sull’estrazione campionaria, assumendo l’unico criterio pratico di aumentare il numero di unità del campione in presenza di un’ipotesi di forte eterogeneità e di diminuirlo nell’ipotesi di un’eterogeneità limitata: condizioni che possono realizzarsi entrambe sia in presenza di un universo numeroso che di un universo piccolo. Per rispondere alla domanda “di quanti casi-campione ho bisogno nella mia situazione di ricerca?”, non avendo preventivamente dati di ricerca reali, seguendo uno dei possibili percorsi elaborati dalla statistica, devo attivare un circuito di acquisizione di informazioni tali da permettermi di:

• Individuare una qualche variabile la cui varianza sia ipotizzabile ampia• Determinare, anche attraverso stima, il valore di deviazione standard di detta variabile• Fissare un valore desiderato di derivazione standard normalizzante dal valore medio. In genere, nelle

scienze sociali tale valore viene fissato in valore Z = 1,96 che corrispondono al 95% dei casi riferiti all’area sottesa alla curva di Gauss

• Fissare, in riferimento alla variabile selezionata, un valore di oscillazione della media del campione dal valore della media reale, espresso in valori assoluti o in valori percentuali o altra metrica, opportunamente adattata a seconda della variabile presa in esame

La formulazione di calcolo che utilizza l’insieme di questi valori per determinare la numerosità del campione da selezionare è data da: dove non viene fatto riferimento al totale N dell’universo sotto indagine, che può riguardare poche centinaia di casi, così come decine di migliaia o più. Richiamiamo il cosiddetto errore si campionamento basato sul calcolo dell’errore standard collegato al teorema del limite centrale,per il quale l’estrazione di numerosi e successivi campioni da uno stesso universo comporta la progressiva tendenza della distribuzione campionaria ad adeguarsi alle regole della distribuzione normale. L’importanza di tale teorema è connessa al fatto che la media

della distribuzione campionaria viene legata alla media reale della popolazione sotto esame e che pertanto il fatto di poter stimare l’errore di campionamento ci dice in anticipo di quanto i dati campionari si avvicineranno o meno alle medie reali dell’universo. L’errore standard, cioè lo scarto quadratico medio della distribuzione campionaria, riferito alla specifica variabile-guida sotto osservazione, è dato dal valore di scarto quadratico medio dell’universo (σ), su quella particolare variabile, diviso la radice quadratica dell’ampiezza del campione ( : Dal che si ricava l’indicazione di aumentare la numerosità del campione tutte le volte che questo sia possibile anche compatibilmente con fattori economici, organizzativi e temporali, per abbassare il valore dell’errore standard. È possibile aggiungere in formula un cosiddetto fattore aggiuntivo, che utilizza il valore della radice quadrata nel rapporto fra la differenza tra universo e campione (N – n) e la numerosità dell’universo meno 1 ( N – 1), utile nel caso di bassa numerosità dell’universo, ovvero, quando il campione estratto non è eccessivamente piccolo rispetto all’universo. Tale fattore aggiuntivo è irrilevante nel caso di universi molto grandi, perché la numerosità del campione (n) risulterà in ogni caso molta piccola rispetto alla grandezza di N. la formula precedente basata sullo scarto quadratico medio, richiede il calcolo di valori medi e quindi può essere adoperata soltanto nel caso di variabili cardinali; nel caso, più frequente in sociologia, di variabili categoriali come quelle nominali, occorre fare riferimento a una formula diversa, che interpreta il σ come radice della proporzione stimata per p e q, introduce il livello di confidenza o fiducia della stima z che alla probabilità del 95% corrisponde al valore di 1,96 e utilizza nel calcolo la numerosità del campione n. Il campionamento nella pratica e gli schemi non probabilistici: ci poniamo il problema della tenuta della numerosità campionaria a fronte delle operazioni di analisi dei dati, la dove incrociando le variabili fra di loro (analisi bi-variata e multi-variata) diminuisce, anche all’aumentare della eterogeneità ma non solo per essa, il livello di rappresentatività e di sufficienza del campione estratto. Proprio in relazione al tipo di analisi ipotizzato la dimensione del campione va ricalcolata e necessariamente aumentata. Con un criterio pratico semplificato possiamo provare ad estrarre più campioni sulla base di più variabili, singolarmente o in associazione, comparandone la varianza sulle variabili assunte come discriminanti attraverso misure ed indici come le medie, gli scarti, il chi quadro o la correlazione, e da qui valutare gli effetti più utili rispetto al disegno della ricerca impostato e soprattutto rispetto al tipo di analisi che si intende sviluppare, da quella eminentemente descrittiva a quella esplicativo-causale. Le difficoltà proprie dei campioni probabilistici restituiscono al ricercatore il vantaggio di poter produrre inferenze, mentre i campioni non probabilistici si limitano alla verifica di ipotesi di contenuto che costituiscono comunque un risultato importante a fronte di fenomeni complessi e fortemente dinamici come quelli sociali. Se è vero che la “scelta ragionata” costituisce un allontanamento dall’ ideal-tipo della pura casualità, e che ogni criterio introdotto è in grado di introdurre fonti incontrollabili di errore, è anche vero che la rinuncia a priori da parte del ricercatore all’ utilizzazione dei caratteri e parametri dell’ universo che gli siano noti costituirebbe un forte limite alla progettazione dell’ intera indagine ed alle sue potenzialità. Nel campionamento stratificato la procedura di stratificazione, cioè l’applicazione di una tipologia di caratteri costitutivi e noti dell’ universo come schema di ripartizione in strati, comporta il rischio di introdurre possibili distorsioni derivanti proprio da quei caratteri, ma consente comunque di ottenere un campione rappresentativo per quei caratteri, utile sul piano dei modelli teorici a consentire al ricercatore il perseguimento delle sue finalità di indagine. Il campione stratificato muove da una buona conoscenza dell’universo di riferimento nei suoi caratteri principali, soprattutto in riferimento al fatto che sulla base di uno più criteri sia possibile individuare omogeneità interne all’universo,sulla cui base l’universo viene suddiviso in strati differenziati, dai quali poi si estraggono singoli campioni per singolo strato. L’insieme di questi costituirà il campione dell’intero universo. Rispetto al campione casuale semplice, il campione stratificato ottimizza una rappresentazione della variabilità dell’universo ragione delle omogeneità interne dal punto di vista del ricercatore (gli strati), sicché riesce subito a fornire buona evidenza all’eterogeneità complessiva dell’universo. Statisticamente parlando vengo anche ottimizzate le stime delle variabili-guida dell’universo, in quanto esse vengono elaborate con maggior aderenza alla realtà a livello di singoli strati; il che è un grande vantaggio, sia pure di fronte al rischio che la procedura di stratificazione abbia operato qualche distorsione rispetto alla rappresentazione campionaria casuale semplice. Ulteriore vantaggio è di poter spendere in funzione quantitativa rispetto al campione informazioni qualitative dell’universo che il ricercatore giudica discriminanti e note in anticipo, come ad esempio dati sul livello di istruzione. Gli strati possono essere costituiti da strati territoriali ritenuti, per il fenomeno sotto esame, omogenei al loro interno e discriminanti: al crescere della dimensione macro dello strato si perde il vantaggio discriminante della individuazione di omogeneità sostantive. Quanto alla numerosità del campione per singolo strato si può procedere mantenendo le stesse proporzioni percentuali del carattere sotto esame possedute dall’universo (laureati,sesso) : in questo caso si parla di campione stratificato proporzionale. Il ricercatore può decidere, in ragione di motivazioni giustificate dal disegno della ricerca e da obiettivi di analisi prefissati, di modificare le proporzioni percentuali del campione rispetto a quelle originali dell’ universo. Il peso di alcuni strati verrà aumentato o diminuito nell’estrazione campionaria, quindi in sede di elaborazione dei dati si dovrà correttamente ricorrere a semplici operazioni di ponderazione dei dati rilevati. Questo tipo di campionamento è detto stratificato non proporzionale e viene adoperato soprattutto quando alcuni strati appaiono con evidenza sottorappresentati. In

alcuni disegni di ricerca vengono predisposti piani di campionamento a stratificazione non proporzionale, con assegnazione a ogni strato di un pari numero di soggetti ad estrazione casuale dei soggetti stessi. È un piano di campionamento detto planel tipologico-fattoriale, che per progetto non è rappresentativo dell’universo, ma che nella pari numerosità degli strati garantisce che le procedure di testing delle ipotesi non vengano influenzate dalla differente numerosità degli strati. Qualora un campione venga formato per approssimazioni successive, introducendo in sequenza due o più criteri di selezione, parleremo di piano di campionamento bistadio o multistadio. Il campionamento multistadio è molto più impiegato in quanto utile a mitigare alcuni degli effetti tipici della casualità semplice quando si tende a operare con campioni ridotti. In questo tipo di campionamento si introduce anche la selezione per grappoli e per aree territoriali o zone. Se ad es, dovessimo rappresentare l’Italia nel suo tessuto regionale con il vincolo di non poterci permettere numerosità ampie, per effetto della casualità semplice potremmo trovarci paradossalmente a dover lavorare con “italiani” di un’unica qualità territoriale regionale o non rappresentativi della reale eterogeneità regionale italiana. Conviene allora ricorrere a un piano di campionamento multistadio: in un primo stadio selezioniamo casualmente alcune regioni da tutte le regioni italiane, con l’obiettivo di ampliare il numero di estrazioni compatibilmente alle risorse disponibili e ai risultati della casualità; in un secondo stadio selezioniamo alcune provincie fra tutte le provincie di ogni singola regione estratta; in un terzo stadio procediamo analogamente con la selezione di singoli comuni dall’elenco dei comuni appartenenti alle province selezionale. A questo punto, essendo più chiare le omogeneità e le eterogeneità territoriali e socio territoriali possiamo, previamente, raggruppare i comuni e procedere alla selezione per raggruppamenti omogenei su qualche caratteristica nota o facilmente stimabile e da qui procedere ulteriormente nella direzione del campionamento delle unità che interessano. La selezione ulteriore, per ulteriori stadi e ulteriori clausters, rimane legata alle conoscenze disponibili, rispetto alle quali si danno due vie possibili: o si conoscono, sulla base di specifiche liste e archivi, i soggetti o le unità dell’universo sotto esame e quindi si può campionare la numerosità richiesta, oppure, in assenza di liste di soggetti o di unità già identificare, si deve procedere necessariamente attraverso il criterio dei grappoli, che prescinde dalla nominatività degli individui e opera attraverso la selezione di un grappolo macro o, all’interno di esso, di un grappolo tipologico e quindi procede al contatto con tutti gli appartenenti a quel determinato grappolo nel momento in cui il contatto viene stabilito e viene svolta l’indagine. In altre situazioni, tecnicamente simili, si possono introdurre partizioni territoriali per aree o zone e su queste che sono ancora un’incognita per il ricercatore, operare selezioni casuali passando per municipi o quartieri, zonizzazioni territoriali più ristrette sino a singoli isolati o condomini e, all’interno di questi, con successivi criteri casuali (piano, appartamento) sino alle famiglie, continuando a mantenere criteri casuali di selezione attraverso regole prefissate per l’individuazione finale dei soggetti da intervistare. Si possono attivare molte varianti pratiche all’unica e fondamentale condizione che rimanga garantito il criterio della casualità. Nella pratica di ricerca avviene molto spesso che si attivino combinazioni diverse di tipi di campionamento, facendo ricorso sia a logiche e procedure tipiche del campionamento casuale semplice sia a campioni non probabilistici come i campionamenti per quote e i campionamenti a scelta ragionata, che sono fra i campionamenti più utilizzati in diverse scienze sociali.Campionamento per quote: è nel suo impianto un campionamento stratificato quasi sempre proporzionale; rispecchia cioè nel campione le stesse proporzioni note per l’universo su alcune variabili-base. Una volta fissate le quote proporzionali all’interno della numerosità campionaria calcolata saranno però i singoli ricercatori a scegliere i soggetti con criteri in ampia parte discrezionali e comunque non casuali, con l’unico vincolo di rispettare le quote per ogni strato. Per determinate esigenze di analisi si possono impiantare disegni non proporzionali fissando quote paritarie per ogni tipo di soggetti e per le singole modalità delle variabili con lo scopo di far emergere e dare valore a eterogeneità di scarsa consistenza quantitativa ma ritenute in ipotesi qualitativamente rilevanti. Quanto all’individuazione dei soggetti, in realtà la quota di discrezionalità è molto ridotta essendo regolata da criteri ampiamente sperimentali che vincolano tutti i ricercatori impegnati nell’indagine. Per esempio nelle indagini di mercato o nei sondaggi si fa riferimento a fasce orarie obbligate, a modalità fisse di effettuazione del contatto e dell’intervista. In sintesi, ogni decisione sul tipo di campionamento e ogni ulteriore passo operativo rimangono strettamente connessi al disegno di ricerca e alle esigenze conoscitive imposte dal tema sotto indagine. E per questa via quasi tutti i campionamenti, nei fatti, impongono aggiustamenti e meticcia menti fra vari tipi di campionamento e fra diverse procedure di selezione dei casi che spesso risultano del tutto obbligati in ragione del piano di indagine. Trasparenza, competenza e massimo controllo sono fattori che possono compensare la parziale perdita di una coerenza statistica stretta. È questo il caso canonico del campionamento a scelta ragionata che individua e seleziona, includendo ed escludendo, strati, grappoli, aree e soggetti sulla base di valutazioni proprie del ricercatore, il quale è vincolato in ogni caso a esplicitare in modo analitico criteri e procedure adottate al fine di poterne valutare con criteri di trasparenza, e controllo anche ex post, la tenuta logica e operativa anche in termini di coerenza con l’impianto generale del disegno di ricerca formulato. Molte indagini sulle comunicazioni di massa si fondano su questo impianto ragionato. Nulla esclude che anche all’interno di scelte ragionate si attivi la logica della casualità semplice al momento in cui si passa alla estrazione di soggetti e unità, combinando anche a monte

selezioni per strati o aree. Un approccio consimile può fornire elementi analitici più solidi per tentare di produrre generalizzazioni, che risultino capaci, per approssimazione e sulla base di una rappresentatività sociale, di operare sintesi all’interno di fenomenologie particolarmente complesse e dinamiche come quelle sociali.

4° CAPITOLO: LE FONTI STATISTICHE NELLA RICERCA SOCIALE.La rilevazione delle informazioni nell’analisi secondaria: la rilevazione delle informazioni rappresenta uno dei momenti intermedi del processo della ricerca empirica: essa si colloca a valle di alcune scelte compiute nella fase progettuale dell’indagine, in cui si definiscono concetti e individuano indicatori, e a monte di altre fasi successive – che riguardano la scelta e l’uso di tecniche di elaborazione e di analisi – sulle quali si fondano i risultati dell’indagine. Le informazioni rilevate costituiscono dunque gli elementi fondamentale della ricerca empirica, i dati dai quali traiamo, mediante opportune analisi, quelle conoscenze aggiuntive cui l’indagine è finalizzata. Varie e diversificate sono le tecniche e le modalità di rilevazione: esse dipendono dal tipo di problema indagato, dall’estensione del campo di indagine, dalle caratteristiche delle unità d’analisi, dalle finalità della ricerca. A volte è necessario compiere tali rilevazioni ad hoc, direttamente sul campo, attraverso metodi e tecniche che consentono di raccogliere i dati che soddisfano specifici obiettivi d’indagine; altre volte invece è possibile evitare tale rilevazione diretta, attingendo a informazioni già raccolte da altri per finalità diverse da quelle in cui esse vengono riutilizzate. Nel primo caso si parla di analisi primaria nel secondo di secondaria. Quest’ultima consente di leggere gli stessi dati da molteplici punti di vista, adottando approcci e obiettivi anche differenti da quelli originari per i quali i dati sono stati prodotti, con il vantaggio di evitare l’onere dei costi e dei tempi di raccolta e di archiviazione. Tuttavia proprio perché l’analisi secondaria utilizza dati prodotti da altri, raccolti ed elaborati per finalità diverse da quelle adottabili successivamente, diventa rilevante nel suo ambito non solo l’acquisizione dei dati veri e propri, ma anche quella dei metadati: l’attribuzione di senso richiede di prestare particolare attenzione alle informazioni sulle informazioni e all’intero processo che ha condotto alla loro produzione e che ne determina la qualità. Nell’analisi secondaria è indispensabile preoccuparsi dell’adeguatezza dei dati disponibili rispetto alle proprie esigenze conoscitive, ripercorrendo il processo che ha condotto alla loro produzione. L’espressione fonti statistiche si riferisce a qualsiasi ente o istituto che consenta di acquisire informazioni o dati riguardanti fenomeni, avvenimenti, gruppi sociali spazialmente e temporalmente definiti. Statistica si riferisce all’esigenza di contare ed esprimere attraverso la quantificazione i fatti della vita sociale, l’ammontare della popolazione ecc. la spinta alla quantificazione dei fenomeni collettivi risponde ai bisogni conoscitivi più generali che estendono e moltiplicano il numero dei produttori e dei fruitori di dati. Le fonti statistiche, nella loro accezione più stretta, sono quegli istituti o enti che hanno la funzione di raccogliere e quantificare le informazioni riguardanti fenomeni collettivi, con continuità e regolarità temporale sia a fini conoscitivi che amministrativi. Fonti statistiche ufficiali nazionali: la produzione di statistiche nazionali ufficiali in Italia è, dal 1989, affidata al SISTAN, in sistema statistico nazionale: una rete di circa diecimila operatori pubblici e privati, coordinato dall’istituto nazionale di statistica (ISTAT), posto sotto la vigilanza del presidente del Consiglio dei ministri. Ne fanno parte anche gli uffici di statistica delle amministrazioni centrali dello Stato, gli uffici delle regioni e provincie autonome, dei comuni, delle Camere di commercio, industria, artigianato e agricoltura, di alcuni enti privatizzati e dei soggetti privati aventi particolari requisiti previsti dalla legge. Con la partecipazione di nuovi enti si intendono colmare progressivamente alcuni vuoti informativi della statistica ufficiale, tradizionalmente affidata agli apparati amministrativi centrali e periferici, e si cerca inoltre di razionalizzare l’attività statistiche del sistema. A tal fine vengono eliminate le duplicazioni di indagini. Lo strumento fondamentale che definisce gli ambiti di attività del SISTAN è il Piano statistico nazionale PSN in cui vengono delineati, per ciascun settore di interesse, gli scenari in cui si svilupperà la produzione statistica nel corso di un triennio. Il PSN è un piano operativo in cui vengono indicati gli obiettivi che si intendono perseguire e i progetti che enti e organismi del SISTAN intendono realizzare. Il PSN è rilevante anche dal punto di vista metodologico: l’esigenza di soddisfare bisogni conoscitivi collettivi impone per alcune rilevazioni l’obbligo di risposta, previsto espressamente dalla legge, da parte di soggetti coinvolti nell’indagine. Questa imposizione si traduce, da un punto di vista operativo, in una maggiore completezza dei dati rilevati e in definitiva in una maggiore attendibilità delle statistiche prodotte. La standardizzazione delle modalità di rilevazione, delle classificazioni e delle procedure di controllo della qualità dei dati costituisce uno strumento indispensabile per garantire la comparabilità dei dati prodotti da fonti diverse o dalla stessa fonte in tempio differenti, e quindi la complessiva attendibilità di strumenti e risultati. Alcuni fonti statistiche internazionali: EUROSTAT, ufficio statistico della comunità europea, occupa una posizione di rilievo per la sua funzione di coordinamento del’attività statistica comunitaria. Promuove l’adozione di un linguaggio statistico condiviso a livello europeo mediante la standardizzazione delle nomenclature e delle classificazioni, dei modelli di rilevazione e dei questionari adottati per i censimenti e per altre indagini compiute dagli Stati membri, allo scopo di armonizzare i dati prodotti rendendone possibile la comparazione transnazionale. È organizzata in nove settori e confluisce in cinque database. MIGRAT raccoglie dati riguardanti l’immigrazione e l’emigrazione internazionale per sesso, età, cittadinanza e paese di provenienza e destinazione; LSF contiene dati

provenienti dall’indagine campionaria europea sulle forze lavoro; UNEMPLOY contiene statistiche armonizzate sulla disoccupazione secondo le definizioni dell’international labour office. EUROBAROMETRO: strumento d’interesse per la Commissione europea facente parte del settore “Analisi d’opinione pubblica”, che conduce indagini sopranazionali, sondaggi d’opinione effettuati nei paesi membri a partire dal ’73. La loro peculiarità risiede nel rilevare, adottando metodologie quantitative e qualitative, dati fattuali e variabili soggettive, relative a opinioni, stati d’animo, livelli di soddisfazione dei cittadini nei confronti delle iniziative della comunitò europea, riguardanti diverse sfere della vita quotidiana. L’origine dei dati: le procedure di raccolta dei dati compiute dalle fonti statistiche ufficiali possono essere ricondotto principalmente a due tipi di rilevazioni: per fini amministrativi o conoscitivi. Il primo si riferisce alla raccolta dei dati compiuta per finalità amministrative e gestionali dalla normale attività di amministrazioni, enti e istituti. Si tratta di informazioni rilevate e archiviate ai fini di controllo, di programmazione o di intervento riguardanti singoli soggetti o entità giuridiche. Nonostante la loro varietà tematica ( demografiche, giudiziarie, sanitarie) i dati derivanti da essa spesso non consentono di soddisfare le esigenze conoscitive che riguardano alcuni fenomeni, per i quali si rende necessario il ricorso a rilevazioni ad hoc. I dati di fonte amministrativa non consentono di cogliere eventi, fatti, avvenimenti, che per loro natura, sfuggono alle griglie formali tipiche degli atti amministrativi: ci si riferisce a dati fattuali, che riguardano aspetti certamente informali, ma non per questo socialmente poco rilevanti, come l’immigrazione irregolare. Tali fenomeni non compaiono nei dati raccolti a fini amministrativi, così come non appaioni i dati non fattuali riguardanti le opinioni, le motivazioni, gli atteggiamenti.I censimenti ISTAT: i censimenti sono rilevazioni totali, riguardano cioè tutte le unità statistiche che fanno parte della popolazione di riferimento a cui l’indagine si riferisce; sono generali, poiché riguardano i principali aspetti strutturali che caratterizzano le unità di rilevazione; sono dirette, poiché le informazioni vengono rilevate direttamente dalle unità e non desunte da altre fonti; sono rilevazioni simultanee, si riferiscono a uno stesso momento temporale; sono periodiche, poiché vengono ripetute a intervalli regolari di tempo. Il loro scopo è accertare sia la consistenza numerica che la distribuzione territoriale delle unità di rilevazione.

• Censimento generale della popolazione e delle abitazioni: si svolge ogni dieci anni, è finalizzato alla raccolta di informazioni sulla popolazione residente e occasionalmente presente nel nostro paese alla data del censimento e sulla consistenza numerica e sulle caratteristiche strutturali delle abitazioni destinate ad uso abitativo e non. Oltre ai residenti vengono considerati anche coloro che vivono occasionalmente nelle abitazioni private in qualità di ospiti o di turisti, nonché le persone che sono presenti in un determinato luogo per un periodo di tempo. Così si è cercato di rilevare con maggiore esattezza anche la consistenza delle persone che utilizzano un determinato territorio, anche senza esservi ufficialmente registrate come residenti. Questo aggregato statistico risponde all’esigenza di cogliere i mutamenti nelle condizioni di vita della popolazione. Lo strumento di rilevazione è il questionario strutturato, che si diversifica a seconda del tipo di unità di rilevazione. Le informazioni vengono anche utilizzate per aggiornare alcuni dati di fonte amministrativa.

• Censimento generale dell’industria e dei servizi: censimento economico finalizzato a fornire con dettagli territoriali un quadro esaustivo della dimensione e delle principali caratteristiche del sistema economico nazionale. Questo censimento estende il campo di indagine a tutti i settori economici; l’unità di rilevazione è costituita dall’impresa, dall’istituzione e dall’unità locale riferita al luogo in cui si realizza la produzione di beni o servizi. Utilizzano anche l’Archivio delle imprese attive (ASIA) che consente di identificare le imprese e le loro unità locali garantendo una migliore copertura delle attività produttive del paese. Viene usato il questionario strutturato, progettato per rilevare oltre ai dati anagrafici anche le caratteristiche dell’unità locale e della sua rete commerciale, gli addetti e il loro inquadramento in aziende. I dati censuari, diffusi anche a livello comunale e per categoria di attività economica, consentono analisi dettagliate del sistema economico nazionale.

• Censimento generale dell’agricoltura: consiste nel conteggio del numero delle aziende agricole esistenti in Italia e nell’individuazione delle loro caratteristiche fondamentali. Fornisce un quadro particolarmente dettagliato del settore agricolo, utile sia per gli studi del settore che per la definizione delle politiche agricole. L’unità di rilevazione è costituita dall’azienda agricola. Lo strumento di rilevazione utilizzato è un questionario strutturato, complesso e articolato, finalizzato a rilevare oltre alle caratteristiche generali dell’azienda anche informazioni sull’organizzazione del lavoro e sugli addetti. Alcuni quesiti in particolare mirano a raccogliere dati su aspetti innovativi della produzione agricola come l’agricoltura biologica. Questi dati potrebbero risultare particolarmente utili per delineare i livelli e la portata delle innovazioni che caratterizzano il settore primario del nostro paese.

Le indagini campionarie ISTAT: l’ISTAT ha il compito di condurre periodicamente alcune indagini campionarie su svariate tematiche e su differenti settori di ricerca:

• Indagine sulle forze di lavoro: rilevazione campionaria condotta con cadenza trimestrale dal 1959 al 2003, con lo scopo di determinare la posizione nei confronti del lavoro della popolazione in Italia. A partire dal

2003, in linea con il Consiglio dell’Unione europea, si è passati a una rilevazione continua. Gli occupati, individuati secondo un criterio oggettivo, basato sullo svolgimento di una i più ore di lavoro nella settimana che precede l’intervista vengono suddivisi per settore di attività economica, professionale, titolo di studio ecc. Per gli individui in cerca di prima occupazione vengono rilevate le azioni di ricerca di lavoro compiute. Su questi dati è possibile calcolare una serie di tassi indici riassuntivi della situazione occupazionale. La popolazione di riferimento è costituita dai componenti delle famiglie di fatto residenti in Italia che risultano iscritti alle anagrafi comunali. Il campione utilizzato è probabilistico a due stadi: nel primo stadio vengono estratti i comuni, nel secondo le famiglie che costituiscono le unità di rilevazione; viene impiegato un questionario elettronico somministrato mediante CAPI-CATI (computer assisted personal interview; computer assisted telephone interview).

• Indagine sui consumi delle famiglie: consente di descrivere, valutare e interpretare i comportamenti di spesa delle famiglie italiane, le condizioni abitative, il possesso di beni durevoli. È una indagine campionaria, condotta dall’ISTAT in collaborazione con gli uffici comunali di statistica che hanno il compito di rilevare i dati. L’indagine rileva la “spesa” delle famiglie di fatto che costituiscono le unità di rilevazione. Il disegno di campionamento utilizzato è probabilistico a due stadi, di cui il primo è stratificato: le unità di primo stadio sono i comuni, quelle di secondo stadio cono le famiglie. Utilizza tre tipi di rilevazione: il libretto degli acquisti che rileva gli acquisti per i generi di largo consumo per un periodo di sette giorni; il taccuino degli autoconsumi; il riepilogo delle spese, compilato mediante una intervista face to face, le spese sono generalmente riferite allo stesso mese, tranne quelle per l’acquisto di beni durevoli, per le quali si fa riferimento agli ultimi tre mesi. Questa indagine costituisce la fonte principale per l’individuazione dei prodotti inseriti annualmente nel paniere di beni su cui l’ISTAT calcola gli indici dei prezzi al consumo; è una fonte di rilievo per l’analisi secondaria quantitativa e qualitativa dei consumi delle famiglie.

• Indagine multiscopo sulle famiglie: avviata nel 1987 e ristrutturate nel corso degli anni, finalizzate alla rilevazione e all’approfondimento di tematiche sociali. Adottano un0unica strategia di ricerca, limitando gli elementi disomogenei che potrebbero comportare problemi di comparabilità dei dati da una rilevazione all’altra, ma si diversificano di volta in volta sulla base dei temi sociali su cui focalizzano l’attenzione. Si avvale di indicazioni derivate direttamente dai soggetti intervistati, privilegiando il loro punto di vista su temi solo in parte ricostruibili mediante statistiche e dati di fonte amministrativa. Le dichiarazioni dei soggetti su tematiche differenti introducono nelle statistiche ufficiali gli atteggiamenti e le opinioni, consentendo di ricostruire il senso di comportamenti e di delineare stili di vita che caratterizzano sottogruppi di popolazione.

• Indagine “aspetti della vita quotidiana”: annuale ad ampio spettro riguardo la formazione scolastica, le attività del tempo libero, le abitudini alimentari, il ricorso ai servizi sanitari. Fornisce un’ampia panoramica aggiornata annualmente di temi sociali e consente di compiere anche analisi longitudinali al fine di individuare tendenze e mutamenti della società contemporanea.

• Indagine “viaggi e vacanze”: cadenza trimestrale mediante intervista telefonica, focalizza l’attenzione sul profilo dei viaggiatori e sulle modalità e gli intervalli temporali con cui tali viaggi vengono effettuati.

• Indagine “condizione di salute e ricorso ai servizi sanitari”: indagine quinquennale finalizzata alla rilevazione della percezione dello stato di salute degli intervistati e delle loro condizioni; le informazioni raccolte introducono nell’affresco delle statistiche sanitarie il punto di vista dei soggetti a prescindere dal loro effettivo ricorso ai servizi e alle strutture sanitarie.

• Indagine “tempo libero e cultura”: indagine quinquennale focalizzata sulla percezione del tempo libero e sulle attività mediali, espressive, ricreative e creative svolte nel suo ambito. Consente anche di rilevare l’insieme variegato di attività extra-mediali svolte dai soggetti nel tempo libero, divenuto quantitativamente e qualitativamente sempre più rilevante nelle società avanzate.

• Indagine “sicurezza dei cittadini”: indagine quinquennale compiuta mediante interviste telefoniche, finalizzate alla rilevazione di informazioni sul senso di sicurezza e sui fatti criminosi realmente vissuti o temuti dai soggetti intervistati, introduce il punto di vista delle vittime.

• Indagine “famiglie, soggetti sociali e condizione dell’infanzia”: indagine quinquennale che tenta di delineare forme di struttura familiare tradizionali e nuove, le reti di sostegno, la vita di relazione coniugale. Queste informazioni consentono di fondere empiricamente le riflessioni sui mutamenti dei bisogni individuali e familiari e dei ruoli parentali nella società contemporanea.

• Indagine “uso del tempo”: condotta dal 1988 al 2003, finalizzata a rilevare e ricostruire i differenti modi con cui la quantità di tempo a disposizione dei soggetti viene ripartita tra usi differenti allo scopo di fornire chiavi interpretative di diversi stili di vita. Indagine campionaria nell’ambito della quale viene richiesto ai soggetti intervistati di rispondere ad alcune domande, di tenere un diario settimanale e giornaliero. Le possibilità di elencare diverse attività simultanee consente di tener conto della sovrapposizione di usi differenti del tempo e della conseguente moltiplicazione virtuale dei tempi di vita.

Metadati, macrodati, microdati: l’uso di dati prodotti da altri impone al ricercatore di reperire informazioni che consentono di ricostruite il senso, considerando il processo con cui il dato è stato costruito. Il campo d’indagine si riferisce al contesto spazio temporale in cui i dati sono stati rilevati e riguarda pertanto sia la popolazione di riferimento che il periodo di rilevazione. Individuare la popolazione di riferimento, ossia l’insieme delle unità di rilevazione e di analisi a cui si riferisce l’indagine, significa sapere quali sono le specifiche condizioni di eleggibilità delle unità statistiche considerate. È un concetto relativo al contesto e agli scopi di indagine. La sua specificazione è indispensabile per cogliere il senso dei dati prodotti: il contenuto informativo cambia con il variare della popolazione su cui la statistica è stata costruita, ad esempio la variabile numero di alfabeti è diverso se il dato è rilevato su tutta la popolazione o solo su quella dai sei anni in su. Anche il periodo di rilevazione, ossia il periodo temporale a cui i dati si riferiscono, è necessario per una contestualizzazione adeguata delle informazioni utilizzate. A volte il tempo che passa tra il momento della rilevazione, quello della diffusione e della reale fruizione in analisi secondarie compromette la qualità del dato in termini di attualità e utilizzabilità. Un altro elemento da considerare riguarda il tipo di indagine, ossia la sua estensione e le modalità di rilevazione. In quest’ultimo caso sarà opportuno informarsi sul tipo di campione usato e sulla sua numerosità. Le finti statistiche ufficiali impiegano disegni campionari probabilistici; tuttavia tra il campione teorico e quello empirico si rilevano spesso scostamenti che potrebbero inficiarne la rappresentatività. A tal proposito è opportuno considerare, al fine di verificare la tenuta del campione teorico rispetto quello effettivamente rilevato. Anche le informazioni sulle modalità della rilevazione sono utili per ricostruire il senso dei dati utilizzati. Infine costituiscono informazioni indispensabili le definizioni esplicite operazionali di ogni variabile utilizzata e le formule matematiche eventualmente applicate per ottenerle. È buona norma evitare di attribuire a una statistica il significato che deriva dal linguaggio comune ricorrendo invece alle definizioni operazionali che esplicitamente i produttori di quella statistica forniscono e che generalmente sono pubblicate in appendice alle pubblicazioni o in appositi glossari. L’insieme di tutte queste informazioni, necessarie a delineare il significato dei dati, costituisce i metadati: essi consentono di stabilire se le statistiche prodotte da altri sono adeguate o inadeguate, congruenti o non con le specifiche finalità delle indagini secondarie nell’ambito delle quali vogliamo utilizzarle. I dati veri e propri, desumibili dalle fonti statistiche, possono a loro volta essere ricondotti a due tipi:

• Macrodati: si riferiscono ai dati aggregati in base a uno o più criteri. Pur se originariamente raccolti su singole unità di rilevazione, spesso nelle statistiche ufficiali i dati vengono raggruppati su base territoriale oppure utilizzando altri criteri di raggruppamento ( anno, classi di età, sesso). I vincoli imposti dai macrodati sono quelli che derivano dai criteri utilizzati per costruirli; pertanto se l’informazione che cerchiamo è diversa da quella desumibile dalle elaborazioni compiute dai produttori è necessario seguire altre vie, accedendo direttamente ai microdati.

• Microdati: si presentano sottoforma di grandi matrici di dati in cui ogni riga si riferisce all’unità di rilevazione o di analisi originaria e ogni colonna alle variabili rilevate su quelle unità. L’analisi dei dati elementari consente al ricercatore di adottare le strategie di elaborazione che ritiene più opportune e i criteri di aggregazione più adatti ai suoi obiettivi di indagine: vengono in tal modo massimizzati i vantaggi dell’analisi secondaria e ridotti al minimo i vincoli che essa comporta. Tali vincoli derivano soprattutto dal processo di produzione del dato che rimane comunque estraneo alle diverse finalità degli utilizzatori. Anche nell’uso dei dati elementari valgono le considerazioni fatte precedentemente sull’opportunità di disporre dei metadati che consentono di ricostruire il processo logico e concettuale con cui il dato è stato costruito.

5°CAPITOLO: LE TECNICHE DELL’OSSERVAZIONE.Osservazioni e tipi di osservazioni: il termine osservazione rimanda immediatamente a due azioni specifiche: guardare e ascoltare e, di conseguenza, all’attività speculativa che consente di usare queste azioni a vari fini. In questa generica accezione, il termine può essere usato per qualificare una pratica sociale, prima ancora che tutte le tecniche di ricerca che prevedono la raccolta di informazioni da parte di un ricercatore. Nella seconda accezione – soffermandosi nel campo della ricerca sociale – si osserva quando si somministra un questionario, quando si analizza una fonte secondaria, quando si raccoglie un’intervista biografica,quando si conduce un focus group ecc. In tale contesto, il termine osservazione indica un insieme di tecniche di rilevazione che permettono lo studio dei comportamenti degli individui e delle loro interazioni dall’interno delle situazioni nelle quali questi si producono. L’osservazione raccoglie di prima mano le informazioni, attraverso azioni di ricerca direttamente intraprese dal ricercatore che vuole studiare un fenomeno sociale. Nell’osservazione partecipante, il ricercatore vive per un cero periodo di tempo come e con le persone protagoniste del fenomeno studiato, entrando a far parte di quest’ultimo; nell’osservazione non partecipante l’osservatore rimane esterno a queste attività, pur essendo comunque presente mentre le attività si svolgono. Il tratto che accomuna i due tipi di osservazione, è la capacità specifica di studiare i comportamenti degli individui e le loro interazioni in situazione che li differenzia come le interviste o lo studio dei documenti/fonti secondarie. Se l’osservazione serve a studiare i comportamenti degli individui e le loro interazioni in situazione, bisogna precisare che queste situazioni possono prodursi sia nei luoghi e nei tempi nei quali naturalmente si producono, essere fisicamente presente in situazione, guardarla mentre si

svolge per renderne conto, in pratica riproducendo o simulando il contesto e la situazione. Questa seconda possibilità concerne tutte le situazioni che il ricercatore costruisce intenzionalmente, facendo in modo che si svolgano azioni e interazioni che non è in grado di osservare in ambiente naturale. Nella ricerca sociale, questa seconda modalità, riproduttiva della situazione naturale, è largamente meno usata, per motivi che affondano le loro radici nel complesso mondo della riflessione sui fondamenti di questa disciplina. Riprodurre i contesti sociali in ambiente artificiale può dar luogo a modificazioni tali da generare effetti, di portata anche molto rilevante, che altrimenti non si determinerebbero. Un ulteriore elemento di differenziazione tra i vari tipi di osservazione sta nel rendere o meno palesi le attività dell’osservatore alla popolazione che si sta studiando. Il ricercatore può o meno palesare il suo lavoro di osservatore, può rendere noto o no che la presenza in quel luogo e in quel tempo è dovuta al fatto che desidera condurre una ricerca. Esistono due possibilità: dichiarare apertamente di essere un ricercatore o tenere nascosta la propria identità, spacciandosi per un vero membro del gruppo. Esempi pagine 210-11. L’osservatore: nessun osservatore può essere completamente estraneo all’oggetto della sua ricerca. Un problema di metodo è la possibilità nota come diventare nativo, che considera l’opportunità e il rischio che il ricercatore si identifichi con il mondo che sta osservando. L’inserimento e la familiarizzazione sono due elementi che, nell’osservazione in ambiente naturale, risultano fondamentali rispetto alla possibilità di raccogliere un materiale ricco, articolato e approfondito. Si tratta di riuscire a raggiungere un difficile equilibrio nel quale il ricercatore riesce a far convivere a ugual diritto nel suo lavoro d’osservazione il necessario distacco analitico e la sua inevitabile implicazione personale. Goffman: “se si vuole descrivere fedelmente la situazione del paziente non si può essere obiettivi. Devo premettere che è probabile che il mio giudizio risenta del fatto di essere un borghese(…)”.Il percorso della ricerca osservativa: la necessità di modificare in itinere la direzione delle azioni di ricerca deriva dal carattere eminentemente esplorativo che identifica l’osservazione e permette, in condizioni di conoscenza parziale del campo studiato, di modificare il tiro in modo da meglio cogliere gli aspetti e le dimensioni rilevanti che man mano si scoprono. La flessibilità assume gradi diversi al cambiare delle condizioni della rilevazione e del tipo di osservazione. Quanto più si lavora in ambiente naturale, partecipando nella vita degli osservati, tanto più il livello di flessibilità può essere elevato e viceversa. Le fasi del percorso di ricerca:

• Scelta dell’ambito da studiare: luoghi, tempi, persone che saranno osservate• Definizione di ciò che dovrà essere documentato durante l’osservazione• Strutturazione di eventuali griglie d’osservazione standardizzate• Osservazione generale necessaria a una prima descrizione del campo da osservare• Osservazione selettiva atta a cogliere gli aspetti che sono risultati centrali nella tematica studiata, anche

attraverso la ricerca di ulteriori esempi di tipi, pratiche e processi• Fine dell’osservazione con il raggiungimento della “saturazione teorica”.

Gli oggetti della ricerca osservativa: l’osservazione è in grado di rilevare, nel loro farsi, i modi in cui i fenomeni sociali si producono. Alcuni tipi di osservazione permettono di tenere conto della dia cronicità, della profondità temporale nella quale la socialità si produce. In questo senso sono particolarmente utili per lo studio delle comunità o delle categorie di situazione, delle dinamiche dell’interazione, delle sottoculture. Bertaux distingue tra mondo sociale che si costruisce intorno a un tipo di attività specifica, che questa sia o no remunerata, e categoria di situazione che riunisce persone con caratteristiche specifiche “agli occhi delle istituzioni e/o del senso comune”. Ciò che rende sociali questi oggetti di ricerca è la loro capacità di generare vincoli e logiche d’azione comuni e di essere percepiti attraverso schemi collettivi, essendo eventualmente gestiti da una stessa intuizione.Le dimensioni dell’osservazione: le tecniche dell’osservazione pretendono la focalizzazione su alcuni aspetti specifici che vengono considerati teoricamente ed empiricamente rilevanti ai fini dello studio del fenomeno sociale di interesse del ricercatore. Secondo Spradley le situazioni sociali possono essere descritte in nove dimensioni:

• Spazio• Attore• Atto: singole azioni delle persone coinvolte• Attività: insieme si azioni, tra loro correlate, degli attori sociali• Evento:insieme di attività correlate che gli attori svolgono• Oggetto: oggetti fisici presenti in situazione• Tempo• Fine• Sentimento

Ciascuna di esse dovrà essere articolata e specificata al suo interno, in relazione con il particolare campo d’osservazione, con gli obiettivi della singola ricerca e dunque con le domande di conoscenza alle quali il ricercatore intende rispondere, nell’idea più generale di una progressiva focalizzazione, specificazione e approfondimento delle dimensioni osservative rilevanti nel contesto.

L’accesso al campo: ciascun campo d’osservazione ha canali d’accesso diversi e che devono essere cercati e percorsi con più o meno fatica e impegno. L’unico caso non è un problema da risolvere è quando si intendano studiare situazioni pubbliche e nelle quali è garantito l’accesso proprio dal fatto che l’ambito osservativo non è limitato da regole d’ingresso. La modalità d’accesso a campi di osservazione non liberi che risulta essere la più semplice e diretta è ottenere l’aiuto di un mediatore. Funziona il processo di creazione di una rete di relazioni che gradualmente permette al ricercatore di costruire le condizioni tendenzialmente ideali per portare avanti il suo lavoro.La registrazione e l’analisi delle azioni osservative: si può osservare avendo deciso ex ante quali siano gli elementi da osservare e dopo aver scelto le modalità attraverso le quali questi elementi possono manifestarsi. In tal caso l’osservazione può assimilarsi alla somministrazione di un questionario, con la differenza che non sussistono atti di interrogazione ma è l’osservatore a decidere qual è la risposta. Si può accedere all’osservazione avendo a disposizione solo il quadro concettuale entro il quale operare e lasciare che il campo stesso definisca, orienti e precisi gli elementi specifici a cui fare riferimento. Si dice strutturazione dell’osservazione quando l’osservazione prevede una griglia di rilevazione capace di contare la frequenza con cui avvengono determinati comportamenti (es pag 224). Il lavoro più o meno strutturato, più o meno standardizzato rispetto alle situazioni osservate, consiste nell’isolare le categorie osservative, nell’attribuire significati e cercare relazioni tra le dimensioni di queste categorie, attraverso procedure di classificazione e/o codifica di quelle che diventano le unità di analisi all’intero processo di ricerca.6°CAPITOLO: LE INTERVISTE BIOGRAFICHEL’intervista e le interviste: l’intervista è un termine-concetto non privo di ambiguità semantica e carico i una complessità tipologica interna non sempre esplicita. Intervista è il termine più generale che è in grado di definire l’incontro che si attua tra chi vuole studiare un fenomeno sociale e chi viene ritenuto, dallo studioso, in grado di fornire informazioni utili all’operazione conoscitiva messa in atto. Ne includiamo anche il questionario, operazione non da tutti condivisa ma che può rendere più completa e organica la costruzione di una tipologia degli strumenti di interrogazione. Si definisce l’intervista come un’interazione tra un intervistato e un intervistatore, provocata dall’intervistatore, avente finalità di tipo conoscitivo, guidata dall’intervistatore sulla base di uno schema di interrogazione e rivolta a un numero di soggetti scelti sulla base di un piano di rilevazione. Per traccia si intende lo strumento di interrogazione, cioè la griglia operativa che consente lo svolgimento dell’intervista, l’elenco delle domande o degli stimoli o degli argomenti che si intendono sottoporre all’intervistato. Si distingue tra domande chiuse alle quali l’intervistato è chiamato a fornire una o più risposte all’interno di un ventaglio di possibilità prefissate, già presenti nella traccia e domande aperte che lanciano uno stimolo al quale l’intervistato è libero di rispondere come crede. Consideriamo le dicotomie risposte date/non date, che concerne una caratteristica chiamata direttività, e insieme di domande fisse/non fisse che concerne la standardizzazione, che costituiscono i mattoni fondativi di una possibile tipologia delle interviste utilizzate nella ricerca sociale. Si può definire la direttività come la possibilità, da parte del ricercatore, di stabilire i contenuti dell’intervista o anche, rovesciando il punto d’osservazione, la non-libertà, da parte dell’intervistato, di decidere i contenuti delle sue risposte. La standardizzazione considera l’uniformità degli stimoli offerti, sia per quanto riguarda la loro forma sia per ciò che concerne l’ordine della loro presentazione. Vi è una terza distinzione, quella tra strutturazione e non strutturazione, riferendosi in genere alla forma e al funzionamento della traccia di intervista. Per intervista strutturata si intende un’intervista in cui siano precisate le modalità di interrogazione, secondo una traccia adeguatamente dettagliata e un’articolazione prestabilita. Questa definizione dà luogo a un malinteso: precisare le modalità di interrogazione e costruire una traccia di intervista dettagliata sono due proprietà distinte e separate. Il funzionamento attiene alla direttività e non alla strutturazione, che nell’approccio qui presentato si limita a definire l’articolazione della traccia, dunque la sua forma. La strutturazione è una caratteristica ineliminabile dell’intervista. L’unica forma di intervista priva di strutturazione è il colloquio clinico, strumento non-strutturato, non-direttivo e non-standardizzato ma utilizzato più dalla psicologia e la psicanalisi. Quelle definite due dicotomie si rivelano in realtà due continua. Si ha la possibilità di operare con interviste che prevedono gradi di direttività e di standardizzazione diversi, e ciò consente di costruire una classificazione e poi una tipologia che possono rendere leggibile la complessità dei molteplici strumenti di interrogazione. Si possono evidenziare tre tipi di intervista: il questionario, l’intervista semidiretta e l’intervista biografica. La specificità delle interviste biografiche: essa è rintracciabile in letteratura sotto una molteplicità di etichette comunemente e variamente usate:

• Intervista in profondità: vuole mettere in evidenza come si possano sondare a un livello di maggiore profondità gli argomenti oggetto d’indagine. È contestata da chi sostiene che la “profondità” è qualcosa che non può essere garantita dal ricorso a una tecnica di intervista e che non può essere preclusa a chi preferisce fare altrimenti.

• Intervista motivazionale: usiamo lo stesso ragionamento. Mutuata dal linguaggio psicologico, pone prevalentemente in evidenza l’aspetto di ricerca delle disposizioni soggettive, del mondo interiore del

soggetto intervistato.• Intervista qualitativa: pone l’attenzione sulla tradizionale e contestata dicotomia quantità/qualità• Intervista libera: si evidenziano le componenti di non-standardizzazione, senza precisare altre caratteristiche

peculiari. Sono due etichette altamente generiche.• Intervista ermeneutica: privilegia la chiave epistemologica che la contraddistingue, pone l’accento sul

rapporto tra testo e interpretazione e insiste sui principi del dialogo e dell’ascolto. Qualificazione che intende specificare l’approccio teorico-fondativo dal quale parte.

• Intervista discorsiva: mette in evidenza la presenza di un discorso che intercorre tra le due figure implicate nell’interazione di intervista, il normale fluire conversazionale, dialogico tra due persone. Vengono eliminate le caratteristiche di strutturazione dell’intervista.

• Intervista narrativa: si tratta di un’ intervista pensata per la ricerca sociale, il che comporta una serie di considerazioni che travalicano l’aspetto narrativo dell’intervista stessa.

• Intervista focalizzata: nasce dal lessico mertoniano come focused inerzie, a partire da una ricerca sull’esperienza massmediologica commissionata a Lazarsfeld, nata come intervista di gruppo e poi riconvertita anche in individuale. Negli anni successivi è arrivata a identificare un’intervista centrata su un argomento, che intende indagare su un preciso ambito della vita delle persone, per identificare i meccanismo e i processi sociali che lo regolano. In tal senso si avvicina molto alla concezione di “racconto di vita” di Bertaux.

Sotto l’etichetta “storia di vita” si cela una vasta complessità strumentale; questo tipo ideale trova, nella pratica, innumerevoli contaminazioni. Ci sono due definizioni: la prima è di Olagnero e Saraceno “la storia di vita è un insieme organizzato in forma cronologico-narrativa, spontaneo o pilotato, esclusivo o integrato con altre fonti, di eventi, esperienze, strategie relativi alla vita di un soggetto e da lui trasmesse direttamente, o per via indiretta, a una terza persona”. La seconda è di Atkinson “una storia di vita è la storia che una persona sceglie di raccontare circa la vita che ha vissuto, è costituita da ciò che la persona ricorda della sua vita e dagli aspetti di questa che la persona vuole che gli altri conoscano, come risultato di un’intervista guidata da un’altra persona”. La prima definizione ingloba anche le fonti secondarie, ammette la possibilità di una raccolta indiretta, presuppone un ordine cronologico che sembra mettere in evidenza gli aspetti organizzativi del racconto. Rimanda a quella che Dezin chiamava life history: studi di caso che comprendono il racconto e i documenti che servono a completare il quadro biografico della persona, materiali biografici secondari nel senso che sono stati raccolti attraverso una relazione diretta con il narratore come la corrispondenza o le foto. La seconda definizione fa risaltare maggiormente le caratteristiche di quello che Lejeune chiama il patto biografico: il racconto è quanto più possibile completo e onesto ma anche inevitabilmente parziale e discrezionale. La definizione di Atkinson si avvicina a quella si storia di vita di Catani – in cui il soggetto non solo descrive liberamente tutta la sua vita, ma valuta e compara, in funzione del suo divenire individuale – e a quella di storia di vita partecipata, intesa come storia di vita orale caratterizzata dalla presenza costitutiva di un narratore e di un interlocutore. È per Denzin, la life story. L’intervista biografica è un’intervista condotta non attraverso domande puntuali ma rilanci che portino alla luce il mondo dell’intervistato, nel rispetto cioè del suo universo di senso, a partire da una consegna iniziale, allora standardizzazione e direttività tendono a decrescere, anche se la strutturazione può essere molto forte per quanto riguarda la traccia di intervista, che non funziona però attivamente e dunque non influenza la direttività stessa. L’intervista biografica è un’intervista discorsiva, tende a essere un’intervista in profondità, può essere un racconto o una storia di vita, può essere un’intervista focalizzata, non è un’intervista libera, è un’intervista ermeneutica ed anche motivazionale perché le motivazioni sono tra le dimensioni conoscitive di qualsiasi strumento di rilevazione. Sono di due tipi: il racconto di vita e la storia di vita, che si differenziano tra loro solo per ciò che concerne la direttività. Il grado di questa proprietà è differente perché nelle due forme cambia la domanda fondatrice, lo stimolo iniziale che dà vita all’intervista. Si possono adottare la definizione di Bertaux per quanto concerne i racconti e quella di Atkinson per le storie. Bertaux definisce “il racconto di vita è il racconto fatto da un soggetto a un’altra persona, che questa sia o no un ricercatore, di un episodio qualunque della sua esperienza”. Comparandola con quella di Atkinson vediamo come il verbo “raccontare” sia essenziale in ambedue le definizioni e metta in evidenza come la produzione discorsiva del soggetto prenda una forma narrativa. Descrizione, spiegazione, valutazione, senza essere forme narrative, fanno parte della narrazione e contribuiscono a costituire i significati. Il richiamo alla narratività è uno dei punti di convergenza, il secondo concerne il fatto che sia il racconto sia la storia sono il frutto di un incontro tra due persone e che viene esclusa qualsiasi forma di raccolta indiretta. Oltre alla storia sono importanti le altre dimensioni in quanto descrivono in modo maggiormente efficacie la complessità di ambedue gli strumenti:

• La completezza e l’onesta del racconto• L’intenzionalità della persona• L’importanza della memoria• L’intervista come interazione sociale• La direttività del ricercatore

Le prime rientrano in quello che è stato chiamato “patto biografico”, l’accordo che intercorre tra intervistatore e intervistato e che si instaura nella prima fase della raccolta. Nelle due definizioni risalta che la persona che “provoca” l’intervista non viene definita né come intervistatore né come ricercatore; questa indefinitezza è un indice rivelatore di una precisa e problematica questione riguardante i “raccoglitori di interviste biografiche”, chi raccoglie un’intervista biografica non può essere una persona estranea all’équipe di ricerca. L’apprendimento delle regole di conduzione prevede e necessita di un apprendistato senza il quale la ricchezza del materiale può essere messa in pericolo; le strategie di funzionamento di questo modo di fare ricerca pretendono sia che chi raccoglie le interviste partecipi alla costruzione di un modello interpretativo, sia di conseguenza un continuo, costante aggiornamento e coordinamento interno all’équipe. È necessario che chi raccoglie interviste biografiche da utilizzare come strumento di rilevazione in un disegno di ricerca sociale sia membro dell’équipe, pienamente dentro il disegno sia dal punto di vista teorico sia da quello metodologico. Queste modalità di lavoro in collaborazione si rivelano spesso difficili da attuare. I gruppi di ricercatori che lavorano insieme a un’indagine hanno vincoli che possono impedire la perfetta correttezza metodologica di un percorso e ci si scontra con le asperità della concretezza, con la necessità di adeguare disegni logico-teorici all’imprevedibilità delle situazioni concrete. L’aspetto del controllo intersoggettivo deve essere considerato fondativo, il basso livello di direttività e standardizzazione pretende il massimo di interazione tra i ricercatori. L’intervista biografica è il racconto quanto più onesto e completo possibile, fatto da una persona a un ricercatore che guida l’intervista, di un segmento della sua esperienza o dell’intero percorso della sua vita. È costituita da ciò che la persona sceglie di raccontare, ricorda e vuole che gli altri conoscano. L’intervistato e il suo racconto: ciascun soggetto viene considerato come fonte informativa e come attore sociale in grado di dire il mondo sociale di sui fa esperienza, capace di rendere conto della produzione, riproduzione e regolazione dei meccanismi e dei processi sociali, passando attraverso la cita degli individui concreti, con la sua persona al centro dell’azione. Ciò che suscita l’attenzione del ricercatore è la sua esperienza sociale. Esperienza intesa come attività cognitiva, come modo di costruzione, di verifica e di sperimentazione sociale. L’esperienza viene concepita come un’attività che struttura il carattere fluido della cita attraverso la gestione di logiche d’azione differenziate. Il racconto può venire letto in almeno due modi: il primo, ed è l’impostazione di Bourdieu, è quello di mettere in un ordine artificiale il flusso dell’attività quotidiana, le peripezie disseminate in un percorso biografico, dando un senso a ciò che nella realtà vissuta si presenta frammentato, discordante e imprevedibile. Ne risulta un processo di razionalizzazione ex post e creazione tout court, inefficacie nella ricerca sociale. Nel secondo modo, questa visione viene ribaltata, sia nel senso che la ricerca di unicità e di significato in un passato ricordato nell’oggi viene considerato il necessario superamento del giudizio originario, in quanto la “verità dell’esperienza contiene sempre il riferimento a una nuova esperienza”, nell’espressione di Gadamer, sia nel senso che la riflessione sull’esperienza permette al soggetto di rivivere il giudizio originario incluso nell’esperienza ricordata e di superarlo per sperimentare la validità attraverso il tempo. Il racconto dell’esperienza viene considerata una sostituzione sociale nella quale ha luogo la costruzione, la riproduzione e la comunicazione di forme di socialità. La parola dell’intervistato è allora anche un auto racconto, espressione della intenzionalità riflessiva, in quanto operazione di dare significato a un’esperienza vissuta come ritorno su di Sé a partire dall’esperienza dell’Altro. “mai e poi mai – osserva Weber – una conoscenza concettuale del proprio Erlebnis costituisce una reale ripetizione o una semplice fotografia del suo contenuto; poiché sempre l’Erlebnis, tradotto in oggetto, perviene a prospettive e a connessioni che non sono consapevoli nell’erleben”. Il racconto di un’esperienza è sempre diverso da quella esperienza r il racconto stesso è un’esperienza, attraverso la quale, data anche la natura del linguaggio, l’esperienza raccontata viene in qualche modo distillata. L’intervista biografica è un particolare tipo di racconto, che si fonda e si svolge sulla base di accordi che lo regolano e che sono iscritti in un patto stabilito tra l’intervistato e l’intervistatore. Da parte dell’intervistato ciò comporta l’impegno alla sincerità e alla fedeltà del racconto; il ricercatore si impegna a rispettare, ad es, l’accordo sull’utilizzo del testo che viene prodotto durante l’intervista. Il rispetto di questo patto è la necessaria premessa al raggiungimento di una comune comprensione dell’esperienza raccontata. Si può parlare di oggettività discorsiva in quanto è asseribile che la struttura diacronica delle situazioni e degli avvenimenti accaduti non viene distorta e che ciò che viene restituito fa parte del modo di pensare, sentire, valutare dell’attore sociale inserito nel suo contesto. È un’oggettività sociale, in grado di consegnare al ricercatore un prodotto che disvela il disegno complessivo di un’esperienza vissuta.Gli oggetti di studio e gli obiettivi: i ricercatori sociali che hanno utilizzato l’intervista biografica sono stati legati soprattutto a due filoni di ricerca: il primo, la cui peculiarità consiste nell’importanza attribuita alla dimensione temporale, si dedica, ad esempio, a studi su generazioni; il secondo, legato ai temi della marginalità, dell’esclusione, dell’emarginazione, studia, ad esempio, gli strati sociali disagiati. Un caso a sé sono gli studi di genere. I motivi di questa concentrazione tematica si rifanno alla capacità di questo strumenti di recuperare il tempo trascorso e la sua memoria individuale e sociale, sia alle peculiarità storico-sociali dei periodi nei quali i ricercatori hanno operato, senza scordare che questo tipo di ricerca si rilega alla Scuola di Chicago. Da alcuni decenni la ricerca biografica ha moltiplicato i suoi ambiti di studio sia a fronte di un rinvigorito dibattito sui fondamenti che regolano la conoscenza sociologica, sia in seguito della rinnovata consapevolezza della necessità di adeguare gli

strumenti si rilevazione empirica alla realtà storico-sociale nella quale operano oltreché all’oggetto della loro ricerca. La lettura della società contemporanea mette in risalto alcune linee interpretative che sono ormai consolidate in letterature e che, nella convinzione della circolarità del percorso teoria-ricerca, portano dirette conseguenze nell’impostazione dei percorsi di rilevazione empirica. Lo scopo delle interviste biografiche è la formulazione di un modello interpretativo capace di spiegare e comprendere le logiche d’azione, il funzionamento, i processi di cambiamento, di produzione e di riproduzione del mondo sociale o della categoria di situazione oggetto di studio. L’intenzione è esplorativa ma anche analitica, tesa all’individuazione e allo studio degli elementi costitutivi particolare. Le due intenzioni lavorano contemporaneamente. Il ricercatore inizia partendo da una generica sensibilità teorica, un’impostazione generale che gli consente di formulare un insieme di domande e risposte possibili e aperte da porre al campo di osservazione. Con questo primo abbozzo di modello inizia un viaggio conoscitivo massimamente permeabile alla scoperta. Grande attenzione sarà posta a tutto ciò che sorprende, che procura dissonanza cognitiva. Le ipotesi già formulate possono essere modificate, la temporanea prospettiva di guida può cambiare direzione. I concetti che consentiranno la produzione di un modello interpretativo finale saranno costruiti sul campo. Ciò sarà possibile attraverso un’azione conoscitiva nella quale il racconto e l’ascolto sono finalizzati alla ricostruzione degli universi di senso degli intervistati, mentre si costruiscono e si esplicitano nell’interazione con il ricercatore. La sua formazione attiene allo sviluppo progressivo di una rappresentazione di “ciò che succede” e di “come succede” all’interni dell’oggetto sociale studiato. Il lavoro progredisce con il progredire della raccolta delle interviste, seguendo le piste aperte, sviluppando indici che mano a mano si evidenziano, attraverso quello che i racconti delle esperienze rivelano dei rapporti sociali all’interno dei quali si iscrivono. La raccolta di interviste biografiche è orientata dall’intenzione conoscitiva del ricercatore, con chiara vocazione esplorativa e analitica.La traccia delle interviste biografiche: il racconto di vita parte da una traccia altamente strutturata. Le dimensione che il ricercatore ha pensato come rilevanti rispetto all’oggetto della sua ricerca sono elencate nella loro articolazione. La traccia è indicativa perché funziona soprattutto come promemoria del ricercatore; è aperta e flessibile perché la traccia iniziale pensata per un’intervista biografica pone l’accento solo sulle dimensioni ritenute significative ex ante per la lettura dell’oggetto sociale identificato e che si vuole studiare, in itinere sarà necessario modificare la traccia per adeguarla alle linee di lettura del fenomeno; è una traccia viva che orienta la singola intervista, che resta terreno aperto e negoziabile tra i due soggetti e che cambia ogni volta, modificando il suo andamento e i suoi processi interni a ogni incontro con un nuovo intervistato. In questo tipo di intervista la standardizzazione tocca il suo minimo perché ciascuna intervista ha un suo andamento peculiare e non si pone mai il caso di due conduzioni identiche. Il setpoint iniziale punta il fuoco del racconto di vita su un argomento specifico, su un particolare segmento della vita degli intervistati. Si instaura, tra intervistatore e intervistato, un patto che orienta e precentra il colloqui sottoforma di filtro implicito attraverso il quale l’intervistato seleziona ciò che potrà rispondere alle attese del ricercatore. Il loro livello di direttività tende al minimo, perché lo scopo è quello di mettere in luce l’universo di senso di chi viene intervistato, cercando di non influenzare, per quanto sia possibile, la ricostruzione del modo di vedere il mondo di chi racconta. Vanno fatte tre considerazioni:

• La consegna iniziale orienta e precentra il colloquio, quindi lo dirige. Nel caso del racconto, la consegna indirizza il colloquio verso un tema specifico, ritagliando quindi uno spazio narrativo limitato sin dal principio. Nel caso della storia l’invito è a parlare dell’intero percorso biografico, lasciando libero l’intervistato di scegliere una qualsiasi direzione da dare al discorso.

• L’intervista è orientata dall’intenzione conoscitiva del ricercatore. Ciò comporta che la direzione del racconto viene co-stabilita. L’intervista è per questo un’azione sociale, il risultato finale dipenderà anche dallo scambio relazionale che i due attori hanno costruito in interazione.

• L’intervista è interazione sociale, la relazione che si instaura orienta lo svolgimento dell’intervista. L’intervistatore influisce sull’andamento di un’interazione mai effettivamente neutra.

Ogni intervista è diversa dalle altre, dunque la standardizzazione è minima, sia nel racconto che nella storia di vita. L’unico elemento standardizzato rimane la consegna iniziale, che viene proposta a tutti nello stesso modo. Se nel racconto di precenta il contenuto dell’intervista, nella storia la direttività è in grado inferiore. L’intervistato è cioè lasciato libero di spaziare all’interno della sua memoria; la libertà da vincoli va intesa in maniera assolutamente relativa, intanto alle condizione di ogni situazione sociale e, in più, alle restrizioni che comunque comportano almeno due filtri posti dalla conduzione: il primo riguarda un patto interpersonale che rende conto delle intenzioni degli interlocutori; il secondo un contratto di intervita, il soggetto è comunque sottoposto a un filtro determinato dal contratto. (esempi pag 241)La conduzione: le consegne sono i modi diretti di sollecitare la continuazione del discorso dell’intervistato, chiedendo specificamente approfondimenti o spiegazioni su un argomento appena narrato; i rilanci hanno lo stesso scopo, ma si riferiscono più da vicino e con maggiore incisività al livello intenzionale e valutativo del discorso. Una consegna è spesso un’interrogazione categoriale e può raggiungere due obiettivi: informativo e valutativo. L’obiettivo informativo porta l’intervistato a parlare più diffusamente del sottotema al quale si riferiscono le

domande tipo “come, quando, in che modo” e tende a facilitare la produzione discorsiva nei campi tematici esplorati. L’obiettivo valutativo tende a produrre, nel discorso dell’intervistato, razionalizzazioni estemporanee riguardanti i sottotemi, generando spesso l’esplicitazione di una catena causale e conducendo a razionalizzazioni o a blocchi del discorso se la catena casuale non viene rintracciata, domande tipo “perché, a quale scopo”. I rilanci tendono ugualmente ad approfondire e sviluppare parti del discorso, si riferiscono sempre agli aspetti intenzionali e valutativi del racconto ma tendono a far sì che emergano motivazioni e giudizi non legati a concatenazioni causali prodotte ad hoc. Spesso vengono qualificati come neutri o chiamati sonde. Le consegne e i rilanci vengono utilizzati per stimolare l’approfondimento di segmenti di racconto, quindi di argomenti già introdotti dall’intervistato nel suo discorso, senza mai introdurre elementi estranei. In questo senso, la tecnica di conduzione delle interviste biografiche viene chiamata non-direttiva, perché tende a non modificare il senso e la direzione del racconto, nel tentativo di rispettare il più possibile il progetto di senso dell’intervistato. Ma le consegne e i rilanci non sono mai neutri, perché in ogni caso manipolano il registro dell’incontro e possono essere più o meno congruenti col progetto di senso del narratore, senza mai lasciarlo completamente invariato. La non-direttività è solo una propensione, una tensione concreta verso un obiettivo si per sé irraggiungibile. L’intervista fa uso del linguaggio per esprimere dei contenuti e il suo punto di vista su quei contenuti, e così facendo fornisce informazioni ed espone delle concezioni, senza che questo comporti una asimmetricità con l’interlocutore. Cercherà di costruire un discorso pertinente a qualcosa che rimane nascosto, non comunicato. Questa particolare situazione attiva allora un processo di interpretazione da parte dell’intervistato ed essa induce delle strategie di aggiustamento e di regolazione del discorso. Blanchet propone una tipologia di rilanci e per ciascun tipo evidenzia gli effetti sul discorso degli intervistati. Costruisce la tipologia fondandola sulle caratteristiche di atto linguistico che un rilancio più assumere (reiterazione, dichiarazione e interrogazione) e sul suo possibile registro (referenziale e modale). I due registri rilevano dalle possibili funzioni del discorso secondo le riflessioni dei pragmatisti, secondo cui ciascun discorso può svolgere tre essenziali funzioni: alterare lo stato dell’ascoltatore, tradurre lo stato del locutore, dire come sono le cose. Le tre funzioni sono interdipendenti e gerarchizzate in quest’ordine. La funzione modale si riferisce alla “traduzione dello stato del locutore”, rappresenta dunque l’espressione di una valutazione, mentre la funzione referenziale si riferisce al dire “some stanno le cose” e porta quindi alla descrizione di uno stato del mondo. La reiterazione è un atto assertivo il cui contenuto proposizionale è lo stesso del contenuto proposizionale di un enunciato dell’intervistato; la dichiarazione è un atto assertivo il cui contenuto proposizionale è inferito dall’intervistatore a partire dall’enunciato dell’intervistato; l’interrogazione è un atto direttivo il cui contenuto proposizionale è inferito dall’intervistatore a partire dall’enunciato dell’intervistato. La regola più generale riguarda il quando intervenire. Il racconto dell’intervistato non va mai interrotto, così gli interventi aspettano o il silenzio dell’intervistato o il momento in cui l’intervistato si rivolge al suo interlocutore. Il ricercatore deve adottare strategie che consentano il mantenimento dell’interattività della relazione, senza essere invasive nel racconto, o lasciando sospeso il giudizio o accennando a un consenso generico. Sono rilanci anche gli incitamenti, le sollecitazione a continuare a parlare, che non si esprimono solo con le parole ma anche con altri tipi di linguaggi, un cenno di interesse ad esempio. Il silenzio è l’altra risposta al quando intervenire. Ma esso può assumere significati diversi e il ricercatore deve interpretarli, in modo da adeguare il suo comportamento. Analizzare le interviste biografiche: ci sono tre dimensioni lungo le quali è possibile leggere il raonnto dell’esperienza sociale:

• Il percorso biografico: le dimensioni storico-empirica dell’esperienza vissuta, la strutturazione introna ad una successione temporale di avvenimenti e di situazioni che ne costituiscono la colonna vertebrale

• La totalizzazione soggettiva: intesa come realtà psichica e semantica costituita da ciò che il soggetto valuta retrospettivamente rispetto al suo percorso biografico

• La discorsività del racconto: prodotta nella relazione dialogica dell’intervista, corrispondente a ciò che il soggetto vuole dire di quello che sa, o crede di sapere, della sua esperienza.

L’insieme di queste tre dimensioni restituisce il mondo sociale dall’intervistato che viene costantemente costruito, riprodotto e comunicato. Dal punto di vista del ricercatore, ciò comporta concepire l’insieme degli attori-testimoni come un soggetto collettivo a se stante, di pari dignità sul piano critico in quanto anch’egli ideatore e costruttore sia del mondo sociale indagato sia della conoscenza acquisita attraverso il percorso di ricerca. Quest’ultima è una conoscenza co-costruita in un processo di comune apprendimento. Il ricercatore ha la necessità di farsi carico dei problemi concernenti le relazioni presenti nel campo di ricerca e analizzarne dunque i relativi processi. Comprendere e spiegare significano anche, in questo caso, entrare a far parte del mondo nuovo di significati prodotti dall’interazione, che cambia il campo conoscitivo degli interlocutori. Questo significa tentare di ridurre l’opacità del campo tenendo conto dei processi di negoziazione dei significati e della relativa interscambiabilità dei ruoli. La peculiare possibilità/capacità d’analisi del ricercatore si centra allora sulla sua coscienza modificata. La ricerca può allargare i confini di ciò che è visibile attraverso l’estensionalità della descrizione, il lungo tempo speso, le tante risorse impiegate, la specificità delle affermazioni e lo sforzo di giustificazione dell’operato, giustificazione intesa come operazione che rende leggibili le assunzioni. Un’operazione analitica e poi sintetica, senza rinunciare al

criterio metodologico di individuare interpretazione ragionevolmente considerabili valide, nel senso dell’accuratezza, della coerenza, della semplicità, della redditività, della comunicabilità. L’analisi dei testi prodotti potrà essere un’analisi comprensiva, modalità riflessiva del procedere interpretativo, nell’idea che ciascuna intervista apporta un segmento in più al campo conoscitivo preesistente, che ne risulta così modificato e che tende a escludere premature imposizioni di legature teoriche. All’interno di una concezione delle interviste biografiche come prodotto co-costruito l’analisi comprensiva tiene conto sia delle storie narrate che dell’evento-intervista. I segmenti tematici elementari che compongono il corso di vita, il vissuto e l’interazione d’intervista sono analizzati in modo complementare, prima verticalmente, indagando cioè all’interno della singola storia e poi orizzontalmente, attraverso tutte le storie. La costruzione della rappresentazione finale è un processo circolare, si tratta di un lavoro mai definitivamente compiuto, che richiede un continuo ritorno tra segmenti di storia/e e tra storia e storia.7°CAPITOLO: L’INTERVISTA SEMIDIRETTIVADirettività e controllo della relazione di intervista: l’intervista è il principale metodo di rilevazione utilizzato nella ricerca sociale e consiste nel raccogliere informazioni e opinioni su fenomeni sociali mediante colloqui con persone. L’intervista è una forma di relazione sociale e di comunicazione fra due persone, intervistatore e intervistato, che – pur condividendo molti tratti di una normale conversazione – presenta alcune peculiarità: a) viene sollecitata unilateralmente dal ricercatore, il quale b) la conduce altrettanto unilateralmente, mantenendo il controllo della relazione. È una relazione asimmetrica. Diventa fondamentale la motivazione dell’intervistando a collaborare, a dedicarci il suo tempo e la sua attenzione, e a fornirci le informazioni che ci servono. Possiamo distinguere i diversi tipi di intervista in funzione della strutturazione dello stimo e delle risposte, e più in generale della direttività dello strumento e dell’intervistatore nell’esercizio del controllo delle informazioni rese dall’intervistato. Il grado di direttività può essere rappresentato come un continuum fra strumenti non direttivi e strumenti fortemente direttivi, come il questionario, in cui tanto le domande quanto le risposte sono predefinite e codificate. Le interviste semidirettive (intervista guidata e focalizzata) si collocano alla metà del continuum. Quanto meno direttiva è la modalità di intensità prescelta, tanto più rilevante sarà il ruolo dell’intervistatore nel condurre la conversazione verso gli obiettivi di ricerca. Anche nelle interviste non direttive l’intervistatore deve mantenere il controllo del flusso delle informazioni, affinché esse siano qualitativamente (requisito della pertinenza) e quantitativamente (requisito della completezza) adeguate rispetto agli obiettivi dell’indagine, evitando di trasformare l’intervista in una chiacchierata. Come sottolineano Kahn e Cannell, quanto meno strutturata è l’intervista, e in particolare quanto più l’intervistato dovrà fornire risposte elaborate e dettagliate, tanto maggiore sarà l’impegno cognitivo e temporale richiestogli: gli aspetti relazionali saranno dunque più rilevanti anche nell’attivare la sua motivazione e la sua partecipazione. Per ciò la relazione di intervista ha ricevuto maggiore attenzione in rapporto alle interviste non direttive.L’intervista guidata: si intende un’insieme di tecniche di rilevazione di informazioni su fenomeni sociali, mediante interrogazione di soggetti cui è data facoltà di esprimersi liberamente ma con riferimento a stimoli (domande, vignette, situazioni sperimentali) determinati e controllati dal ricercatore. Essendo le interviste guidate da diversi gradi di direttività si è soliti distinguere tra:

• Intervista strutturata: la formulazione e la sequenza delle domande sono predeterminate e comuni a tutte le interviste; richiede la definizione di un vero e proprio schema di intervista. Il ruolo dell’intervistatore è simile a quello nell’intervista con questionario: limiterà al minimo i chiarimenti e le domande di supporto, e sarà orientato a raccogliere informazioni intorno ai fenomeni sociali oggetto d’indagine. Questa consente di estendere il numero di intervistati, soprattutto se le aree tematiche indagate sono poco numerose, e trova migliore utilizzazione nella raccolta di informazioni su piccoli campioni.

• Intervista semistrutturata: sono indicati i temi comuni da affrontare, ma la sequenza delle domande non è predeterminata e la loro formulazione può essere suggerita e modificata in base all’andamento della conversazione; è frequente l’uso di un temario, in cui sono precisati ed elencati i temi da affrontare nel corso della conversazione, e che può anche prevedere domande specifiche da sottoporre agli intervistati. Essa risulta maggiormente utile quando si vogliano esplorare i temi oggetto di indagine, nella prospettiva degli intervistati, per ciò l’intervistatore dovrà avere maggiori capacità di ascolto e di valutazione dell’informazione raccolta, avrà maggiore autonomia nel controllo della relazione. È meglio utilizzarla per un numero limitato di casi (20-50), per intervistare esperti o testimoni privilegiati.

È consigliabile far precedere o seguire allo schema di intervista o al temario un breve questionario per raccogliere le informazioni di base sugli intervistati (copertina). Con riferimento ai risultati prodotti, queste interviste presentano alcuni importanti vantaggi della standardizzazione, legati al controllo dello stimolo da parte del ricercatore. Le risposte saranno comparabili rispetto agli stimoli stessi, ovvero ai temi o alle domande. Possiamo condurre interviste guidate associando diversi gradi di direttività a diverse fasi dell’intervista ed eventualmente associando a questi tipi di intervista veri e propri strumenti standardizzati. I principali svantaggi delle interviste guidate sono rappresentati dall’assenza di standardizzazione delle risposte: di conseguenza non possono essere utilizzate su campioni numerosi; in secondo luogo, presentano maggiori difficoltà di elaborazione e sintesi delle

informazioni in fase di analisi, poiché le risposte date dai soggetti non sono mai pienamente comparabili.L’intervista focalizzata: tipo di intervista semistrutturata, utilizzata per analizzare in dettaglio una situazione sociale particolare, che ha visto coinvolti in prima persona un certo numero di soggetti. Inizialmente sviluppata da Merton nell’ambito degli studi sulle comunicazioni di massa e in particolare sulla propaganda di guerra, questo strumento doveva servire a coadiuvare l’interpretazione degli effetti dei media rilevati mediante osservazione sperimentale, ricorrendo ad informazioni di tipo soggettivo. Ha trovato particolare applicazione nell’analisi di alcuni aspetti particolari dello studio degli effetti dei media:

• La specificazione dello stimolo• La spiegazione delle differenze fra effetti previsti ed effetti reali • La spiegazione dell’esistenza di gruppi nei quali gli effetti risultano significativamente diversi• La spiegazione dei processi implicati dagli effetti indotti sperimentalmente.

Questa intervista è stata ideata per affiancare e completare i risultati ottenuti mediante indagini campionarie e soprattutto indagini di tipo sperimentale. Nonostante oggi trovi applicazioni anche al di fuori di questi campi di indagine, mantiene alcune caratteristiche legate al contesto di ricerca nel quale nacque. In primo luogo, gli intervistatori devono essere stati tutti coinvolti in una particolare situazione sociale (focus dell’indagine). I ricercatori devono essere in grado di definire ipotesi dettagliate a partire da un’approfondita analisi della situazione. A questo punto, dice Merton, il ricercatore potrà sviluppare una guida di intervista, che indicherà le aree tematiche da indagare e le ipotesi che forniranno i criteri di rilevanza delle informazioni da trarre dalle interviste. Va sottolineato che il ricercatore sarà interessato a indagare l’esperienza personale dei soggetti e la loro definizione della situazione. Per questa ragione la tecnica di conduzione dell’intervista è non direttiva. Allo stesso tempo “la definizione della situazione dei soggetti deve essere espressa in maniera completa e specifica; l’intervista deve massimizzare il gamma degli stimoli e delle risposte riportate dai soggetti; e far emergere le implicazioni affettive e valutative delle risposte dei soggetti, per determinare se l’esperienza ha avuto un significato centrale o periferico. Le risposte devono essere valutate dagli intervistatori in base a queste dimensioni ( spontanee o forzate; generiche o specifiche; rivelatorie o superficiali e così via). Uno dei punti metodologici più sensibili è rappresentato dalla competenza dell’intervistatore.La definizione degli obiettivi e la selezione dei temi: le interviste semidirettive possono rappresentare un valido strumenti di esplorazione di un fenomeno sociale purché le informazioni raccolte siano dettagliate, specifiche e approfondite: di conseguenza uno degli aspetti metodologici principali è la definizione degli obiettivi conoscitivi chiari e circoscritti e di criteri di rilevanza dell’informazione che sostengano l’intervistatore nella conduzione dell’intervista che sostengano l’intervistatore nella conduzione dell’intervista e nella valutazione delle informazioni raccolte. Per la definizione degli obiettivi conoscitivi è consigliabile formulare non più di tre o quattro domande generali cui l’indagine dovrà dare risposta, da articolare successivamente nel temario o nello schema di intervista, e che serviranno da guida anche nell’analisi dei risultati. Ciò significa pertanto ridurre la difficoltà del compito richiesto a intervistatore ed intervistato. (es pag 257). Il corrente uso del temario prevede che l’intervistatore:

• Lasci parlare l’intervistato liberamente, senza interromperlo, consentendogli di soffermarsi sui temo che considera rilevanti

• Indichi nella traccia i temi che vengono affrontati dall’intervistato• Appunti dubbi, osservazioni, possibili rilanci e domande di approfondimento• Rilanci o ponga domande quando l’intervistato si ferma spontaneamente iniziando dall’ultimo argomento• Affronti i temi non emersi spontaneamente alla fine, mediante domande opportunamente formulate in base

all’andamento della conversazione• Compili la cover sheet (copertina) preferibilmente alla fine dell’intervista, a meno che le informazioni base

non servano a condurre correttamente l’intervista stessa.Nell’intervista strutturata, la selezione e la formulazione delle domande segue i criteri che si applicano anche al questionario. Nella guida all’intervista focalizzata si dovranno indicare con grande dettaglio i diversi aspetti della situazione-stimolo che nell’analisi preliminare sono apparsi rilevanti al ricercatore, rispetto agli obiettivi dell’indagine: essi saranno gli stimoli specifici rispetto ai quali costruire le domande,sia come indicazione degli aspetti rilevanti che il ricercatore intende approfondire.L’ordine degli argomenti e delle domande: in generale è bene che l’intervistato affronti un argomento alla volta e ne parli ampiamente, diffusamente e approfonditamente, prima di passare all’argomento successivo. È però difficile per l’intervistato parlare “spontaneamente” di un argomento. Anche per questo è importante che nella fase di presentazione, gli intervistandi ricevano le informazioni necessarie a comprendere gli scopi dell’intervista e i loro “compiti”. Ancora più importante è la formulazione linguistica delle domande, nonché il numero e il ritmo delle domande di approfondimento. Se le domande si avvicendano rapidamente, l’intervistato sarà portato a pensare che l’intervistatore cerchi informazioni precise e a non soffermarsi troppo su ogni singola risposta. Se invece l’intervistatore porrà poche domande e sarà disponibile all’ascolto, egli sarà incoraggiato a parlare più liberamente. Per mettere a proprio agio l’intervistato è preferibile iniziare con domande che facciano direttamente

riferimento all’esperienza diretta e concreta, per poi passare alle valutazioni e opinioni specifiche, e chiudere, se necessario, con le opinioni generali. Le domande che fanno riferimento all’esperienza diretta aiuteranno l’intervistatore a collocare e interpretare le successive risposte dell’intervistato e a scegliere eventualmente le domande di controllo pertinenti; ma aiuteranno anche l’intervistato a riflettere a partire dalla sua esperienza. Non va confusa questa tecnica con la cosiddetta tecnica a imbuto, che consiste nel porre prima le domande di carattere più generale e successivamente quelle di carattere più particolare. Se si decide di partire dalla sfera esperienziale, opinioni e valutazioni andranno più opportunamente esplorate a partire dall’esperienza diretta (es pag 259). Un ulteriore ausilio nella raccolta di opinioni e valutazioni è dato dall’esplorazione diretta della sfera affettiva ed emotiva, per aiutare gli intervistati e gli analisti a distinguere i timori e le preoccupazioni dalle valutazioni in senso proprio. A questo punto, sarà possibile integrare l’intervista con strumenti standardizzati di raccolta di opinioni o atteggiamenti, come scale di atteggiamento e test.Tipi di domande “aperte”: Merton e compagnia hanno proposto una classificazione delle domande da utilizzare nelle interviste semidirettive, in rapporto al grado di strutturazione delle domande e del controllo esercitato sulle risposte dell’intervistato. È possibile nella formulazione della domanda controllare solo lo stimolo, includendolo nella domanda e definendolo con precisione (strutturazione rispetto allo stimolo), controllare la dimensione rispetto alla quale ci si aspetta che l’intervistato risponda, magari includendo nella domanda stessa le alternative di risposta (strutturazione rispetto alla risposta), controllare entrambi o anche nessuno dei due. Con domande strutturare l’intervistatore esercita il controllo tanto sullo stimolo quanto sul tipo di risposta: pur essendo l’intervistato libero di rispondere e di articolare la sua posizione, l’ambito della domanda e il tipo di risposta sono chiaramente circoscritti. Con domande non strutturate l’intervistatore sollecita l’intervistato a indicare tanto lo stimolo quanto le dimensioni della risposta. Con domande semistrutturate l’intervistatore decide di esercitare il suo controllo solo sullo stimolo o di indagare quali elementi possono correttamente applicarsi al tipo di risposta sollecitata dalla domanda. I compiti dell’intervistatore, motivare: secondo Kahn e Cannell l’intervistatore dovrebbe sapere sviluppare e mantenere la motivazione dell’intervistato, tenendo a mente che la disposizione a collaborare sarà tanto maggiore quanto più rilevante gli appariranno gli obiettivi dell’indagine e il ruolo del ricercatore o dell’ente promotore nel determinare un cambiamento o un miglioramento rispetto ai contenuti dell’intervista stessa. La motivazione estrinseca è molto importante per ottenere il consenso all’intervista; la motivazione intrinseca è fondamentale iniziata l’intervista,cioè il grado di soddisfazione personale che l’intervistato ricava dalla conversazione in sé e dalla relazione con l’intervistatore. Affinché siano interessati a parlare, e trovino piacevole il colloqui, gli intervistati devono essere personalmente coinvolti dal tema di ricerca, e avere opinioni da esprimere e informazioni da dare.Ascoltare: l’intervistato sarà tanto più motivato a parlare quanto più viene ascoltato con attenzione, ricevendo domande pertinenti e appropriate rispetto a quanto dice. In ogni tipo di intervista è fondamentale che l’intervistatore accetti – e mostri di rispettare – il punto di vista dell’intervistato, senza esprimere valutazioni o giudizi, nemmeno positivi. L’intervistatore deve insomma ascoltare con attenzione e incoraggiare l’intervistato a parlare, ma non cercare di risultare simpatico esprimendo approvazione o simpatia. Ascoltare significa anche “sopportare” i silenzi e le pause della conversazione e utilizzarli attivamente, per incoraggiare l’approfondimento di un argomento. Può anche essere usato per dare una rapida occhiata agli appunti, per decidere se fare qualche domanda di approfondimento oppure passare alla domanda successiva, o infine per scegliere le parole giuste per formulare una nuova domanda.Chiarire ed approfondire, il probing: nelle interviste semidirettive, gli interventi di chiarimento e le domande di approfondimento vanno utilizzati son una certa cautela, e soprattutto avendo deciso il grado di autonomia degli intervistatori stessi nel condurre l’intervista. Essendo le risposte libere, l’intervistato potrebbe anticipare un argomento, ponendo l’intervistatore di fronte alla necessità di scegliere se ignorare momentaneamente il tema e riproporlo quando previsto dalla traccia, o alterare l’ordine delle domande. Nel primo case, il rischio è quello di innervosire l’intervistato e questo modo porta solitamente a raccogliere meno informazioni, proprio perché l’interazione reale fra i due attori è scarsa e il feed-back assente: quello che dice I (intervistato) ha effetti scarsi o nulli sul comportamento di R (intervistatore) e di conseguenza I è poco incoraggiato ad approfondire. Nello stesso tempo trattandosi di un intervista strutturata, gli interventi dell’intervistatore portano a modificare profondamente tanto l’ordine quanto la formulazione delle domande, il che va valutato attentamente prima dell’inizio della rilevazione. In ogni caso, il probe va adeguato al tipo di inadeguatezza della risposta, alle cause dell’inadeguatezza stessa, nonché ai contenuti emersi nel corso della conversazione. Quando la risposta è inadeguata o non pertinente l’intervistatore dovrà: a) sollecitare ulteriori comunicazioni sul tema indagato; b) migliorare, conservare o anche re instaurare il rapporto con l’intervistato; c) evitare di introdurre distorsioni o modificare il significato della domanda originaria. Parliamo a tal proposito di probing controllato non direttivo, di cui i principali sono:

• L’integrazione della domanda che può consistere anche in un cenno si assenso o di incoraggiamento a proseguire, in una pausa d’attesa. Spesso è necessario ricorrere a frasi neutre di diverso tipo, che costituiscono stimoli a tutti gli effetti e vanno utilizzate con competenza (che vuole dire?può farmi un

esempio?)• La tecnica di riepilogo è di grande utilità in quanto costituisce il sistema privilegiato di validazione di

quanto l’intervistatore ha compreso a partire dalle risposte date dall’intervistato a una o più domande: proponendo una sintesi all’intervistato, egli lo incoraggia a chiarire, precisare e ad approfondire i contenuti espressi sino a quel momento. Il rischio è che il riepilogo distorca significativamente i contenuti espressi dall’intervistato, irritandolo o scoraggiandolo a parlare ulteriormente.

Ancora meno neutre sono le domande suppletive, da utilizzarsi quando l’intervistato non abbia compreso la domanda originale, non abbia risposto o abbia risposto in modo parziale, inesatto o non pertinente, l’obiettivo dell’intervistatore è lasciare inalterato lo stimolo della domanda originaria, l’uso dei sinonimi può diventare problematico. 8°CAPITOLO: IL GERGO DEL QUESTIONING E LA COSTRUZIONE DEL QUESTIONARIO.Cosa è a cosa serve far domande per ottenere informazioni e dati: per questioning si intende il processo di costruzione del dato basato sulla richiesta di informazioni a coloro che le posseggono, con domande strutturate o libere. Esso comprende tutti i modi di fare domande per ottenere informazioni; una parte è costituita dal sondaggio. Si indicano con questo termine tutti i tipi di inchiesta in cui oggetto di studio sono gli individui e le informazioni vengono richieste direttamente a essi. Esiste anche un’accezione ristretta del concetto: Hyman distingue tra sondaggio con questionario strutturato e standardizzato e pseudo sondaggio senza questionario o con questionario non strutturato o non standardizzato. I principali tipo di sondaggio sono due: il sondaggio di comunità, cioè quel sondaggio in cui l’universo è dato da comunità spaziale o una categoria professionale e il sondaggio demoscopico che alla lettera vuol dire sondaggio sulle opinioni della popolazione. La precisazione di demoscopico è diventata non necessaria. Dal punto di vista metodologico, la buona riuscita del questionino dipende anche dalla capacità di sperimentarlo in una qualche forma di interazione con le persone a cui saranno rivolte le domande. Un questionino interattivo si realizza quando le varie fasi di organizzazione di un questionario sono condotte in modo da favorire gli scambi di informazione tra l’oggetto della ricerca e il soggetto della ricerca e da avere continui ritorni negli strumenti di indagine. I vari passaggi di pre-testing costituirebbero i passi essenziali di questo processo interattivo. Capita che questi passaggi non vengano applicati, sicché alcune di queste tecniche non sono nemmeno note a chi lavora. Per ciò spesso ci si limita a controllare che non si presentino domande che si ripetono o che, in forme diverse, trattino gli stessi problemi. Per controlli più accurati esistono vari tipi di procedure:

• Il metodo dello split-half che consiste nel dividere in due un elenco di domande, nel sottoporlo a campioni abbinati e nel controllare se vi è corrispondenza tra la prima parte e la seconda del test. Dal momento che, dallo stesso test, si possono ritagliare tante diverse coppie di metà, si può giocare su questo fatto per isolare le prove o domande che risultano meno omogenee alla maggioranza delle altre prove o domande. È poco usato.

• Metodo del part-whole è un’alternativa possibile per ridurre le domande in eccesso; è analogo nel funzionamento allo split-half, con la differenza che non si divide la batteria a metà, ma si mettono in parallelo un blocco minoritario di items (sospettato di incongruenza) e un blocco maggioritario (considerato più congruente).

• L’indagine pilota è l’inchiesta che si rende necessaria per evitare gli errori di impostazione del questionario che possono derivare da una scarsa attenzione ai problemi metodologici connessi alla costruzione del dato. È un’indagine che si svolge sempre prima di quella principale, il suo scopo è di rendere più efficiente l’indagine vera e propria e di introdurre modifiche nel questionario. È scarsamente praticata. Il più radicale fautore di questa indagine è McKennal che ha sostenuto che questa deve servire a mettere in discussione o sottoporre a verifica il contesto in cui si situa il questionario inteso come universo linguistico. A volte è più complicata della indagine vera; è un tipo di ricerca particolare in cui il modo di arruolare i collaboratori è diverso che nel per-testing e nella vera ricerca. Una ricerca pilota sperimenta nuovi strumenti o nuovi settori di indagine o nuove combinazioni di strumenti di indagine e richiede che gli intervistatori siano persone che sappiano restituire le loro esperienza. Può anche essere realizzata con un elenco di domande molto più lungo di quello necessario, domande che poi vengono analizzate attraverso l’analisi delle componenti al fine di individuare quelle domande che colgono aspetti simili; tra quelle individuate si scelgono sono le migliori onde riportate nella ricerca vera e propria il questionario a un numero di domande adeguato.

Al posto dell’indagine pilota spesso si realizza il più semplice per-testing del questionario. Pre-test è il termine con cui si indica l’operazione di controllo del questionario nella sua visione quasi definitiva. Per essere veramente efficace, dovrebbe essere effettuato su un campione identico a quello definitivo degli intervistati designati. Cosa che non è sempre possibile, se non al prezzo di inquinare il campo di indagine. Il suo obiettivo è l’individuazione delle domande inutili, di quelle ambigue, di quelle troppo lunghe,di quelle multiple, del giusto ordine delle domande ecc. Il vero pre-test è la ricerca stessa rispetto alle ricerche future e ai criteri con cui costruire i futuri

questionari. In tal senso il pre-test finisce col sovrapporsi all’indagine pilota, anche se l’indagine pilota richiede personale completamente diverso da quello temporaneo dei normali intervistatori.Tipi di questionario: il generico termine “metodo delle domande” o questionino è stato sostituito dal più comune termine questionario. Questo perché il principale è più noto metodo delle domande consiste in questionario. Con esso si intende un insieme di domande, eventualmente corredato dall’elenco delle possibili risposte (quando è strutturato), da somministrare all’intervistato o che gli intervistati si autosomministrano. Il questionario è lo strumento che serve da traccia alla raccolta delle informazioni attraverso l’intervista. Il questionario è strutturato quando ogni domanda è già precodificato, nel senso che tutte le alternative di risposta sono state previste. La strutturazione può avvenire ex ante o ex post. Per questionario strutturato e standardizzato si intende lo strumento già precodificato che viene somministrato a tutti gli intervistati in forma perfettamente identica e ponendo le domande sempre nello stesso ordine. Con forma più imprecisa viene anche detto questionario chiuso o rigido. Presenta il notevole vantaggio di favorire l’analisi statistica dei dati, ma viene criticato perché costringe l’intervistato ad accogliere per intero il linguaggio del ricercatore. Il questionario è autosomministrato quando viene compilato dall’intervistato, senza la presenza dell’intervistatore; quello somministrato viene sottoposto all’intervistato direttamente dall’intervistatore, quest’ultimo fa le domande e segna le risposte, in questa forma prende il nome di intervista. Per verbal questioning si intende l’intervista o il questionario di natura interamente verbale; per visual questioning si intende l’intervista con domande che contengono riferimenti a una foto, a una vignetta, o qualsiasi altra cosa che l’intervistato deve osservare. È più corretto parlare di visual questioning per riferirsi a quella parte del questionario di tipo non verbale. Dell’intervista si può dire che si svolge tra un intervistato e un intervistatore, può anche essere un vero colloquio, perché si parla di intervista anche quando l’intervistatore somministra un questionario sognando egli stesso le risposte. Con l’espressione intervista faccia a faccia si intende quel colloquio che si svolge tra un intervistatore e un intervistato l’uno in presenza dell’altro. L’intervista telefonica è il colloquio che si svolge per telefono: si sta diffondendo il metodo CATI, che è un’intervista telefonica gestita attraverso il computer. Il computer assiste l’intervistatore nel senso che questi, nel formulare il questionario, legge le domande come appaiono sul video; premendo il tasto relativo a ogni risposta, l’intervistatore codifica i dati e mette in funzione un programma apposito che seleziona, in base alle risposte precedenti, la corretta sequenza delle domande. L’ultima assistenza consiste nel fatto che il programma controlla immediatamente se ciascuna risposta è logicamente accettabile.Il phrasing e i suoi effetti: con il termine phrasing si indica l’operazione che traduce in domande le questioni da porre e gli items con cui strutturare le risposte. La precisione del phrasing consiste ne porre le domande in modo da evitare ogni ambiguità e non dare luogo a interpretazioni divergenti. Tale precisione è difficile da raggiungere perché spesso i termini tecnici non posso essere tradotti in modo pienamente comprensibile all’intervistato; perché, spesso, nella costruzione della domanda in cui il ricercatore vede solo un problema, l’intervistato vede più di uno o nessun problema; infine perché il significato di un termine può variare variando il contesto. Il phrasing presuppone chiarezza di significato a due livelli: a) di ciascuna parola, ciò presuppone che si utilizzino, nel questionario, solo parole chiare con un significato univoco; b) dell’intera domanda o dell’intero item di risposta, ciò presuppone che anche una frase che sia chiara nei singoli termini possa anche non esserlo nell’insieme. Il phrasing implica anche molta attenzione a quelli che si chiamano:

• Effetto di metodo: è la dipendenza delle risposte dalla forma e dal contesto in cui sono poste le domande del questionario. Ad esempio, il numero delle alternative di risposta presenti in una domanda chiusa ha un rilevante effetto di metodo perché troppe categorie tendono a generare difficoltà nel distinguere le sfumature di significato, mentre un numero troppo limitato può rendere difficile la scelta tra alternative troppo drastiche; la scelta dei vocaboli ecc.

• Effetto strumento o modalità: è la somma delle risposte che sarebbero diverse con strumenti diversi.• Effetto d’ordine: si riscontra quando una domanda, che suscita una prima risposta positiva, tende in

genere a suscitare risposte positive alle domande successive, se queste sono o sono state viste come collegate alla precedente. Questo perché l’intervistato che collabora tende sempre a dare risposte che appiano coerenti all’interlocutore. Può derivare anche dalla stanchezza o dalla noi. L’effetto d’ordine si realizza per due motivo: due domande sono strettamente correlate tra loro o sono relative allo stesso problema od oggetto d’atteggiamento; una generale è posta vicina a una o più specifica formulata in modo simile. (esempio pag 275)

• Effetto rilevatore: è l’influenza che l’intervistatore ha sulla risposta dell’intervistato attraverso il tono di voce o una qualche forma di negligenza.

• Effetto rispondente: è la somma delle risposte che sono diverse da quelle che sarebbero state se l’intervistato avesse capito la domanda o avesse conoscenza del problema o non avesse dato una risposta ufficiale ecc.

Nel prhasing di deve fare attenzione a evitare il paradosso dell’additività delle domande o degli items. Le domande sono additive di senso (e possono quindi essere trasformate come items di risposta collocati su una

scala) solo quando è evidente l’unidimensionalità dello spazio semantico sotteso agli items; altrimenti il loro insieme è costitutivo di senso (nel senso che assume senso diverso se diverso è il numero delle alternative proposte). Esempio pag 276.Il phrasing: rispose inadeguate e successione delle domande: il phrasing deve essere attento anche alle varie forme di risposta inadeguata. Con questa espressione si intende quella risposta di cui si sospetta la non rispondenza al vero. Vari sono i fattori che possono far sorgere tale problema: alcuni possono essere rilevati con un buon pre-testing, in quanto legati alla formulazione del questionario, ma molti altri sono legati all’interazione tra intervistatore e intervistato e l’unico modo di controllarne la presenza può essere solo la segnalazione ai ricercatori da parte degli intervistati. Solo che raramente ciò viene trasmessa, perché raramente viene chiesto agli intervistati di compilare una scheda sulle modalità di colloquio. Le più comuni risposte inadeguate sono:

• La risposta difensiva, quando non vogliono scoprirsi su argomenti ritenuti delicati o personali• La risposta di immagine, non dicono il vero per adeguarsi al modello della propria classe o categoria o

gruppo di riferimento• La risposta ufficiale, quando non vogliono compromettersi o non si fidano dell’anonimato garantito

Fa parte del phrasing anche la cura della successione delle domande, che è particolarmente importante per evitare risposte inadeguate ed effetti distorcenti. Con questa espressione si intende la costruzione dell’ordine ideale di formulazione delle domande stesse. Nell’ideale successione, vanno per prime quelle che servono per stabilire se la persona contattata risponde ai requisiti del campionamento. Le domande che richiedono molta attenzione vanno poste al centro del questionario, perché l’attenzione dell’intervistato cresce dopo le prime domande e diminuisce quando comincia la stanchezza. Le domande di natura polemica vanno poste alla fine. Le domande complesse dovrebbero essere poste alla fine del questionario per evitare che l’intervistato pensi che la parte del questionario che segue sia al di fuori della propria portata intellettuale. Il rispondente è, spesso, consapevolmente o inconsapevolmente condizionato dalle risposte che ha dato in precedenza o da una serie di domande contigue; egli tende a non dimenticare le risposte già fornite e pretende, nei limiti delle sue possibilità di controllo, di rimanere coerente per tutta l’intervista. Niente può impedire che l’intervistato operi in base all’istinto delle combinazioni e si convinca che una domanda sia collegata a una delle precedenti; per questo bisogna fare attenzione a che si eviti ogni tipo di concatenamento non previsto dal ricercatore (es pag 279). Il phrasing non si conclude con la costruzione delle domande del questionario e con l’ordine di successione, ma anche con la sua verifica sul campo e con le istruzioni agli intervistatori (sarebbe bene che il pre-test fosse concepito come uno strumento per addestrare gli intervistatori veri e propri e non fosse, quindi, gestito dai ricercatori stessi). Il phrasing, quindi, si conclude con il pre-test e con il brief. Il brief è il documento che esprime gli obiettivi di una indagine e condensa le relative istruzioni per l’intervistatore. Con il termine briefing si indica la riunione nella quale si illustra e si distribuisce il brief. Più generalmente è la riunione di addestramento nel corso della quale chi ha costruito il questionario o un ricercatore che lo conosce bene spiega agli intervistatori come contattare gli intervistati, come porre le domande ecc. Si parla di briefing anche per indicare l’insieme di istruzioni che ricevono i codificatori dei dati. Il briefing deve essere organizzato in modo da dare istruzioni precise anche per la produzione di documenti per descrivere quello che è successo prima, durante e dopo la somministrazione del questionario.Modalità di rilevazione e cadute di questionario: dopo il breifeing, l’intervistatore è pronto ad andare sul campo e somministrare il questionario. Colui che somministra il questionario è sempre un osservatore e,quasi sempre, finita la somministrazione, interrompe il rapporto con la ricerca. Per ciò, sarebbe bene che alcune cose che egli nota sul campo venissero restituite ai membri stabili del gruppo di ricerca. Questa restituzione dovrebbe avvenire attraverso la produzione, da parte degli intervistatore, di due documenti:

• La modalità del contatto è la descrizione della procedura utilizzata per proporre l’intervista, cioè del modo in cui si avvicina l’intervistato e gli si chiede di collaborare. La corretta procedura di una intervista faccia a faccia è: annunciare il probabile arrivo di un intervistatore; è bene presentarsi e chiedere della persona desiderata; alla presenza di questa, occorre ripetere con il massimo di chiarezza a quale istituto si appartiene, quale studio si sta conducendo, per quale motivo si è selezionata quella persona o famigli e concludere chiedendo di poter fare delle domande. Ci sarà sempre una situazione di disagio che deve essere superata evitando di presentare le domande troppo rapidamente e cercando di attendere che la persona si senta pronta.

• La modalità di colloquio è la descrizione di quello che succede mentre si somministra il questionario o si realizza un’intervista. Anche qui è prevista una procedura con poche regole: nel corso del colloquio, non si deve mai commettere l’errore di approvare o disapprovare le risposte; non ci si deve spazientire se è lento; non si deve reagire ad errori ecc. Le modalità di colloquio sono importanti quando ci sono interruzioni o quando il colloquio è giudicato condizionato dalla presenza di altre persone o quando alcune domande sono state accolte male e l’intervistatore si è accorti che il tono del colloquio è cambiato dopo quelle domande.

Parte delle informazioni sulle modalità di contatto e sulle modalità del colloquio dovrebbero servire a costruire i quadri sinottici della ricerca. Per quadro sinottico si intende il quadro riassuntivo che fornisce una veduta di

insieme della materia. Nel questionario ve ne possono essere almeno tre diversi:• Il quadro sinottico delle interviste fornisce una veduta di insieme della collaborazione effettivamente

fornita dagli intervistati e tiene conto del fatto che non sempre è previsto solo un tipo di questionario, ma a volte è previsto che, a diversi tipi di intervistati, vengano somministrati diversi questionari. Altre volte è previsto che a diversi tipi di intervistati vengano somministrate diverse e alternative sezioni di questionario. Nel quadro vanno inserite le informazioni relative al numero di intervistati per ciascun questionario o sezione di questionario.

• Il quadro sinottico degli intervistati designati fornisce una veduta di insieme della disponibilità a collaborare degli intervistati designati, cioè le informazioni sul complesso della ricerca e può contenere le seguenti informazioni:

• Se si sono avuti più questionari e se si sono seguiti più criteri di campionamento per stesso questionario, quanti intervistati sono stati designati per ciascun questionario e per il relativo o i relativi criteri di campionamento

• Se si è utilizzato un solo questionario e seguito solo un criterio di campionamento, quanti sono stati designati attraverso quell’unico criterio.

• Per il campionamenti che lo richiede, quanti sono stati i designati sostitutivi e il criterio con cui sono stati scelti.

Per ciascun questionario e, all’interno di questo, per quel criterio di campionamento che lo consenta, le seguenti informazioni:

• Quanti sono stati contattati per la prima volta e in quale modo; quanti di essi hanno accettato la collaborazione; quanti sono stati contattati una seconda o terza volta e come;quanti hanno accettato

• Quanti sono stati contatti per la prima volta in sostituzione di chi non ha collaborato e in che modo; quanti hanno accettato di collaborare; quanti contattati una seconda o terza volta, in che modo e quanti hanno accettato

• Il quadro sinottico delle domande fornisce una veduta di insieme della collaborazione prestata a ciascuna domanda. Contiene: numero della domanda; numero degli intervistati; numero delle risposte ottenute; se necessario,la frequenza delle diverse motivazioni per cui alla domanda non si è risposto. Questo quadro è l’inizio dell’analisi monovariata o è quella parte iniziale dell’analisi monovariata che consiste nell’ascoltare il silenzio.

Ascoltare il silenzio significa prestare attenzione al rifiuto dell’intervista e alle motivazioni reali di questo rifiuto, al rifiuto di rispondere a determinate domande, alle forme di collaborazione apparente e agli atteggiamenti di coloro che vengono detti yeasayers, nosayers,othersayers. Il miglior modo di ascoltare il silenzio consiste nello studiarsi le modalità di contatto e riferirne, nel rapporto di ricerca, magari nella forma di diario. Ciò significa dare una valutazione delle informazioni provenienti dagli intervistatori: le difficoltà incontrate per contattare e per arrivare al colloquio con l’intervistato, dove si è svolta l’intervista. Il diario delle modalità di contatto si può ricostruire facilmente se le schede compilate dagli intervistatori forniscono anche il giorno e l’ora dell’intervista e qualsiasi altra informazione che possa essere ritenuta utile. La scheda relativa alle modalità del colloquio sarebbe da allegare al questionario come una specie di rapporto a cura del rilevatore o intervistatore e dovrebbe contenere anche informazioni quali: capacità di parlare in italiano, tipo di abitazione ecc. Tutto ciò dovrebbe far capire quale attendibilità e rappresentatività reale ha la ricerca, perché il problema della caduta di questionario o mancato contatto è un problema che si presenta frequentemente, questa mancanza ha varie cause: 1) mancato contatto tra intervistatore e intervistato; 2) rifiuto di collaborare; 3) l’intervista era impossibile per fatti oggettivi. Le proposte suggerite per sostituire una caduta si scontrano con il fatto che il sostituto si distingue dal sostituito perché accetta di collaborare, mentre il secondo no. Politz e Simons hanno proposto un criterio si sostituzione che consiste nell’aggiungere una ulteriore domanda al questionario, connessa al fatto che le loro interviste venivano fatte di sera: “quante sere della settimana passa in casa?” e nel far pesare sette volte chi rispondeva “una, tre, due” fino a una volta chi rispondeva sette. Poi il campione veniva ponderato in base a pesi inversi rispetto alla risposta a questa domanda: chi aveva risposto “sette o tutte le sere” veniva fatto pesare per uno, chi rispondeva “uno” veniva fatto pesare per sette. Questo criterio non è sempre utilizzabile ed è discutibile sul piano statistico-probabilistico. Con meno rigore la prassi più seguita è quella di designare un nuovo intervistato che abbia le stesse caratteristiche richieste dal piano di campionamento. Tale prassi, tuttavia, nasconde il problema invece di affrontarlo. In presenza di mancate interviste non si può inferire dagli intervistati cosa avrebbero risposto i non intervistati. Questo implica che la prassi di sostituire uno che non ha voluto collaborare con uno che ha voluto farlo serve solo ad aumentare il numero degli intervistati, non a diminuire la distorsione del campione. Le cadute dei questionari nei censimenti possono dipendere da cause sociali che sono connesse alla situazione degli intervistati; da cause sociale che sono connesse alla situazione degli intervistatori; da causa naturali. Pongono apparente e inadeguato rimedio a queste cadute molti rilevatori con la tecnica del rispondente sostitutivo o proxy. Il

proxy è colui che può fornire informazioni attendibili su un altro individuo che conosca bene. Si distingue dal testimone privilegiato perché fornisce informazioni che riguardano un solo caso. Si ricorre al proxy solo nei migliori dei casi perché, nel peggiore, è lo stesso intervistatore che compila da se stesso il questionario, inventando di sana pianta.Processi di adattamenti dell’intervistato: l’intervistatore può aiutare a riconoscere i fenomeni di adattamento dell’intervistato. Per adattamento si intende il processo di adesione passiva che l’intervistato adotta verso i quadri di riferimento del singolo ricercatore o gruppo di ricerca che ha costituito il questionario strutturato. Processo questo che andrebbe sostituito da un diverso o opposto adattamento del ricercatore agli schemi mentali dell’intervistato. Questo secondo tipo è favorito dalle ricerche che cominciano con interviste aperte e il primo tipo è favorito dalle ricerche che cominciano subito con un questionario strutturato. L’adattamento dell’intervistato tende a produrre acquiescent set, cioè la tendenza di alcuni intervistati a rispondere, alle domande su temi sui quali non hanno opinioni precise, secondo quello che credono essere più gradito all’intervistatore o quella che credono essere la risposta tipo della maggioranza. Per controllare l’acquiescent set, si usa la tecnica dell’inversione della polarità della domanda: questa tecnica consiste nel porre le stesse domande al negativo invece che al positivo per verificare se si risponde ugualmente si. Un fenomeno più o meno analogo è quello del response set: in una batteria di domande, soprattutto quelle molto lunghe, la tendenza a scegliere più o meno sempre la stessa risposta può essere molto forte. Per response set si intende la tendenza a rispondere a diverse domande nello stesso modo, indipendentemente dal loro contenuto. Per evitarli, qualche ricercatore inverte, una volta ogni tanto, la polarità della domanda riformulandola, se positiva, al negativo. Una batteria di domande è un insieme di domande ciascuna delle quali è intesa come indicatore di un concetto più generale. In genere ogni batteria prevede più o meno identiche modalità di risposte o items. Quando un concetto ha molte sfaccettature, è probabile che necessiti di altrettanti o più indicatori per essere rilevato nel modo più adeguato e completo possibile. Ciascuno di questi indicatori può dare origine a una o più domande; poiché queste domande servono a rilevare un unico concetto, è bene formularle in modo univoco. Una batteria può misurare un solo concetto generale, ma anche più concetti tra loro più o meno collegati. La batteria di domande è la traduzione in operazione del rapporto di indicazione. Marradi descriveva così il rapporto di indicazione: ipotizzando che un concetto occupi uno spazio semantico e che il suo fulcro sia costituito da un punto, gli indicatori costituiscono una nube di punti che si approssima, più o meno, a quel punto ideale e ne delinea i contorni dello spazio semantico. Qualcuno prende troppo alla lettere questa immagine e sostiene che una completa descrizione del concetto indicato di ha quando gli indicatori sono rappresentabili come punti distribuiti in forma circolare e vicini tra loro. La statistica metodologica presenta tante soluzioni tecniche per testare la rappresentatività della completezza del rapporto di indicazione, una di queste è l’indice proposto da Cronbach, che tanto più dovrebbe dare valori uguali a 1 quanto più il rapporto di indicazione è completo. Questo indice può anche essere usato per decidere se qualche variabile è da eliminare o da aggiungere. Anche questa tecnica presenta notevoli controindicazioni: la più grave è il fatto che i valori più elevati dell’inferenza vengono forniti da domande che contengono termini interscambiabili; una seconda è il fatto che concetti molto complessi occupano spazi semantici talmente ampi da non poter mai dare valori elevati dell’indice e da non avere un numero adeguato di indicatori adatti. La migliore valutazione della rappresentatività del rapporto di indicazione rimane quella di sottoporre quegli indicatori al vaglio critico di studiosi di varia formazione culturale. Nel phrasing va prestata un’adeguata attenzione a che non si verifichino domande che comprendano la doppia negazione o false negazioni. Per falsa negazione si intende quella domanda alla quale un intervistato risponde dicendosi in disaccordo, intendendo, invece, dirsi d’accordo. La soluzione consigliata è quella di formulare le domande in forma positiva. Per doppia negazione si intende quel tipo di domanda che introduce un forte elemento di ambiguità e produce risposte che possono essere interpretate in modo errato (es. pag 287). L’addestramento del rilevatore dovrebbe essere finalizzato anche all’individuazione di:

• Nosayers: rispondenti che propendono a dare risposte sempre negative, cioè sempre lontane da quella che pensano essere l’opinione dell’intervistatore o l’opinione più conformista. Sono frequenti in quelle zone dove sono radicate le sottoculture alternative o controculture. Molti potenziali nosayers tendono a non collaborare o a dare risposte ufficiali per liberarsi quanto prima di un questionario che sentono estraneo ai propri problemi.

• Othersayers: coloro che usano nel questionario la risposta altro. Essi sono più numerosi nelle aree dove è radicata una “sottocultura ortogonale”. In queste aree la tendenza a non riconoscersi negli items tradizionali è sostanzialmente più forte. Tendono a essere sottostimati perché, quando l’ortogonalità è percepita come diversità, essi rifiutano l’intervista

• Yesayers: rispondenti che propendono per dare risposte sempre concordanti o vicine a quella che pensano essere l’opinione dell’intervistatore o l’opinione più diffusa e accettabile. Sono più frequenti in quelle zone dove sono radicate le cosiddette sottoculture rafforzative.

Pedantocrazia e piaggeria nella ricerca con questionario: J.S. Mill ha formulato il concetto di “pedantocrate” cioè del pedante cui, invece di compiti esecutivi, vengono affidati i compiti direttivi con il risultato di umiliare e le

capacità e l’intraprendenza individuale di chi dipende dalle sue decisioni e di premiare la mediocrità e l’immobilismo. La più importante delle caratteristiche è il rifiuto di scegliere e la convinzione conseguente che questa non sia una scelta o che questa lo renda non responsabile delle scelte che ne conseguono, una volta che, con pedantocrazia, ha operato i propri controllo formali. Pedantocrate, nella ricerca con questionario, è colui che lavora con questionario strutturato in un ambito semantico che non conosce alla perfezione ed è colui che, in contesti di ricerca che conosce poco, non si preoccupa di sollecitare o raccogliere le impressione degli intervistatori. Questa pedantocrazia fa perdere di vista, a volte, la rispondenza tra l’informazione e l’obiettivo informatico perseguito dal ricercatore. Possiamo definire pedantocrate anche colui che ha come unico committente chi finanzia la ricerca e si mette nella condizione di subire egli stesso processi di adattamento nei suoi confronti. Anche se è vero che il committente stabilisce se fare ricerca, che dimensioni darle e cosa ricercare e , persino, se rendere pubblici o no i risultati, questi suoi poteri sono relativi quando il ricercatore ha obiettivi di rilevanza teorica o scopre, nel corso dell’indagine, di aver toccato temi che non interessano solo il committente, ma anche chi fa ricerca o altri attori pubblici o privati. (es. pag 289)9°CAPITOLO: L’INTERVISTA CON QUESTIONARIOIntervista e intervista con questionario: presupposti, funzioni, vincoli. Il sondaggio, una tecnica che si basa sulla raccolta diretta delle informazioni tramite domande sottoposte a soggetti intervistati, trae la sua legittimazione da alcuni assunti di fondo:

• Che tutti i cittadini siano in grado di rispondere alle domande, perché hanno un’opinione su tutti gli aspetti rilevanti della vita sociale e politica

• Che siano disposti a manifestare il loro pensiero, riferendosi anche al principio dell’eguale dignità di tutte le opinioni

• Che siano pienamente consapevoli del loro stesso stato; si dà per scontato che il soggetto sappia e voglia fornire informazioni su se stesso e sul mondo che lo circonda, informazioni che non si possono ottenere in altro modo

• Che le affermazioni dei soggetti interrogati siano rilevanti, fonte importante di conoscenza del mondo che ci circonda; assunto che rischia di reificare le risultanze delle ricerche, inducendo il ricercatore a rinunciare alle responsabilità critiche e interpretative che ha il dovere di assumersi. Diamo per scontato che il soggetto abbia uno stato sull’attributo che il ricercatore intende rilevare; e che ciò che ci dice corrisponda al suo stato, a quello che fa o farà in futuro

Secondo Clinard la tendenza a reificare le relazioni tra ciò che si è, ciò che si dice e ciò che si fa risponde all’aspirazione naturale e umana di sondaggisti e sociologi di conquistare riconoscimento e autorevolezza. Bourdieu lamenta che i sondaggi, dissociando lo stato del soggetto che lo detiene, perdono completamente la visione e il peso che lo stesso soggetto attribuisce a ciò che si dice, che non ha niente di fisso e immutabile. Alcuni dei diaframmi sono frapposti coscientemente dal soggetto studiato che non ha alcuna voglia di dirci ciò che pensa o cosa ha fatto o cosa farà. Altri invece rinviano a fattori di cui lo stesso soggetto non è del tutto consapevole, o che non sono sotto il suo controllo immediato. Per Loriaux una delle debolezze principali del sondaggio nasce proprio dal fatto che questi sono costretti a spiegare se stessi in un circolo vizioso. Sormano dice che i dati nella ricerca sociale sono essenzialmente “detti”, spesso frutto di razionalizzazioni a posteriori. Per ciò, secondo alcuni, l’analisi dei fenomeni sociali basta sui resoconti dei soggetti si risolve nello studio di come gli intervistati si mostrino in grado di usare lo speciale gioco linguistico attivato nei questionari. L’intervista può essere definita una conversazione con scopo:

• Terapeutico• Istruttivo• Selettivo• Giornalistico• Sociologico

Nella ricerca sociale l’intervista è una conversazione iniziata dall’intervistatore per ottenere risultati rilevanti per la ricerca, cioè utili a perseguire gli scopi conoscitivi della ricerca. È un tipo particolare di comunicazione, un incontro sociale che impegna i due attori in una serie complessa di compiti cognitivi. L’obiettivo professionale deve essere definito bene dall’intervistatore prima dell’intervista, per creare “working consensus” sulla definizione della situazione. Cominciata si delinea una precisa divisione dei compiti: l’intervistatore pone le domande, l’intervistato risponde. Qui l’intervista si pone come una situazione sterile, in cui il processo di domande e risposte possa essere considerata un’applicazione del modello comportamentista “S-R: il solo obiettivo dell’intervista consiste nell’ottenere reazioni verbali dall’intervistato alle domande che gli vengono poste”. L’intervistato quindi deve limitarsi a rispondere al meglio delle sue capacità. Schwarts e Jacobs analizzano criticamente gli elementi costitutivi dell’intervista, sottolineando lo squilibrio nei rapporti tra intervistatore e intervistato; l’intervista “è un’occasione semiformale con due ruoli conosciuti-in-comune, quelli dell’intervistatore e dell’intervistato. Quello dell’intervistatore garantisce a chi svolge il diritto di determinare l’andamento della conversazione, diritto escluso

da altri tipi di conversazione. L’intervistatore ha il diritto di decidere gli argomenti, di stabilire quando si è detto abbastanza di un certo argomento, quando può passare a un altro punto”. Secondo Sormano l’intervista può essere considerata “un’istituzione governata da un principio di cooperazione applicato unilateralmente. Uno soltanto dei suoi interlocutori domanderà e l’altro sarà tenuto a rispondere. Spazi di meta-comunicazione non saranno istituzionalmente previsti”. Anche Touraine pone l’accento sullo squilibrio di status, accentuato dal fatto che i temi sono scelti senza tenere in alcun conti le esigenze e gli interessi dei soggetti di studio ai quali chiediamo tempo e attenzione: “un intervistatore, personaggio sconosciuto, estraneo nell’ambiente di lavoro o all’habitat, pone delle domande a un uomo che questa conversazione individuale o questa riflessione indotta isolano dal suo ambito e dai suoi problemi attuali”. In queste condizioni non si può escludere che “la ricerca per sondaggio ponga problemi psicologici, che derivano dalla soggettività dell’intervistato e dell’intervistatore”. In particolar modo, l’intervistato può essere disturbato proprio dalla mancanza di controllo della situazione. Secondo Banaka in questo caso l’intervistato può seguire diverse strategie per riequilibrare il rapporto con l’intervistatore:”restando sul vago, dicendo non so ecc. Mettendosi nei panni dell’intervistato Gilli sosteneva che per attenuare lo squilibrio di status tra i due interlocutori bisognasse dare all’intervistato una copia del questionario da leggere in anticipo. Ma l’idea non ha avuto grande presa. Lorenzi-Cioldi ricorda che parte dei ricercatori ritengono che “lo scopo della ricerca deve essere definito in maniera molto imprecisa”. Si fanno quindi presentazioni tanto vaghe che l’intervistato si può fare idee sbagliate o rimanere diffidente sugli scopi del ricercatore. Altri ricercatori pongono l’accento sulle difficoltà di comunicazione dovute al fatto che nell’intervista è assente quella condivisione di significati di base che rende possibile la conversazione ordinaria. Tutte queste considerazioni rinviano al problema di fondo, cioè alla natura internazionale dell’intervista. L’intervista si muove continuamente in bilico tra evento internazionale e strumento neutrale in cui si presume che sia possibile:

• Stabilire a tavolino quali siano le domande rilevanti, che vale la pena sottoporre• Formulare le domande strutturate in modo che tutti gli intervistati le comprendano nel senso intesi dal

ricercatore• Scegliere domande rilevanti anche per l’intervistato

La costruzione del questionario:come osservò Lazarsfeld, la costruzione di un questionario è un’arte, cioè un’opportuna miscela di talento e sapienza che suggerisce al ricercatore come adattare creativamente a ciascuna situazione di ricerca le sue conoscenze pregresse, le tradizioni ed esperienza personali di ricerca. Il problema della costruzione si pone diversamente a seconda del grado di libertà e del livello di profondità della comunicazione tra intervistatore e intervistato: in altri termini del livello di strutturazione dell’intervista. Nell’intervista in profondità, in cui il livello di strutturazione è prossimo allo zero, l’intervistatore non dispone di traccia e si limiterà a introdurre il tema lasciando interamente al soggetto la conduzione dell’intervista. Nel caso dell’intervista semistrutturata l’intervistatore dispone di una lista di temi/argomenti fissati in precedenza che deve sottoporre a tutti gli intervistati, assecondando le loro esigenze e urgenze. Ciò significa che le domande possono essere: a) poste nell’ordine più adeguato a ciascun intervistato; b) formulate con termini diversi, adatte cioè alle esigenze dell’intervistato. Nell’intervista strutturata sono fissate in anticipo le domande e la sequenza in cui devono essere poste. In linea di massima la strutturazione è accompagnata dal vincolo della standardizzazione, cioè all’obbligo di porre le domande esattamente con le stesse parole e nella stessa sequenza a tutti gli intervistati. Mentre la standardizzazione implica la strutturazione, questa può accompagnarsi a gradi diversi di rigidità nella somministrazione. In questa ottica, al questionario è attribuito l’obiettivo di “ottenere punteggi da un numero, generalmente grande, di soggetti su un determinato numero di variabili, con l’obiettivo di rispondere a un particolare problema di ricerca”. Ovviamente vi è un vasto dibattito sulla possibilità concreta che nella conduzione di un’intervista si attinga unicamente a regole e a procedure definite rigidamente in anticipo, come prescrive il dettato comportamentista. Per fare un esempio Lazarsfeld suggeriva che nella fase di raccolta dei dati l’intervistatore deve essere in grado di adattare le domande alle esperienze di vita del singolo intervistato. Nell’intervista strutturata, il questionario si prefigge almeno sue obiettivi: a) tradurre gli interessi cognitivi della ricerca in domande; b) assistere l’intervistatore nel compito di ottenere dall’intervistato l’informazione richiesta. Il nucleo centrale de questionario è quindi costituito dalle domande relative alle caratteristiche che il ricercatore considera più rilevante per i suoi fini. Nel questionario la rilevanza delle domande dovrebbe essere valutata anche dal punto di vista dei soggetti di studio. È da combattere la pessima abitudine di copiare interamente questionari adottati in altre ricerche, possibilmente redatti in culture diverse, o in situazioni diverse. Non si deve inoltre cedere alla facile tentazione di inserire domande solo perché sembrano interessanti. Prima di redigere un questionario bisogna aver cura di delineare una mappa delle caratteristiche che il ricercatore intende operativizzare, mappa che rappresenti la rete di relazioni tra le caratteristiche ritenute utili a raggiungere gli obiettivi cognitivi della ricerca. Nel fare ciò, oltre che sulle conoscenze ed esperienze pregresse, il ricercatore dovrà contare sulla sua conoscenza tacita del contesto in cui opera: come sostiene Schutz le scelte scaturiscono dagli interessi del ricercatore in quanto scienziato sociale e in quanto uomo, membro competente del mondo in cui deve operare. In altri termini, le caratteristiche o attributi individuati, perché interessanti in sé o perché possibili indicatori di altre più complesse

caratteristiche, devono essere adeguati al contesto socioculturale in cui si svolge la ricerca, ma anche capaci di suggerire definizioni operative affidabili. Il vincolo della standardizzazione tende a ridurre eccessivamente la complessità dei problemi. A ciò si accompagna la tendenza a sottovalutare la fase di riflessione concettuale preliminare alla stesura del questionario. Kaplan dice che “non è sorprendente scoprire che lo scienziato formula i problemi in un modo che richiede l’impiego di quelle tecniche nel cui uso è specializzato. La legge dello strumento diventa perniciosa nel momento in cui si nega legittimità ad altri strumenti, a quelli che non si conoscono”. Ma è pure vero che talvolta non siamo in grado di trovare indicatori adeguati di concetti molto complessi. In questo caso è la lettura dei risultati che deve evitare derive riduzionisti che e cioè eccessiva fiducia nei risultati ottenuti; il ricercatore deve quindi avere maggiore umiltà e ridurre le sue pretese cognitive. La scelta dei concetti ritenuti avviene tra un numero potenzialmente infinito di opzioni e deve essere giustificata dal ricercatore. L’opzione esercitata vincola la successiva fase di elaborazione delle relative definizioni operative, e poi i possibili modelli di analisi. Ciò significa che inserirà attributi o caratteristiche e quindi domande che non sa in anticipo se siano utili o no, tenendo comunque presente che un questionario appesantito da tante domande può stancare. Quindi prima di inserire una domanda, bisogna chiedersi:

• Quale concetto contribuisce a operazionalizzare• Se e come la variabile che contribuisce a creare potrà essere combinata con altre variabili• In quale modello d’analisi potrà essere inserita, con quale variabili cioè potrà essere posta in relazione, e

con quali tecniche.La stesura di un questionario standardizzato dovrebbe essere sempre preceduta da uno studio pilota, con forme di indagine non direttive – come interviste in profondità ed eventualmente focus group. Di norma ci si limita a una fase di pre-testing in cui viene esaminati il funzionamento delle domande e dei piani di chiusura delle risposte.L’introduzione: la parte introduttiva del questionario ha tre funzioni importanti. La prima è presentare le persone e/o l’organizzazione che promuovono la ricerca. Si ricordi tuttavia che in qualche caso dire chi è il committente può provocare reazioni indesiderate nell’intervistato. L’altra funzione è indicare gli obiettivi della ricerca. Questi dovrebbero apparire abbastanza importanti a chi è intervistato da meritare il suo tempo e il suo impegno. Se gli obiettivi appaiono privi di conseguenze pratiche, puramente cognitivi, possono non interessare agli intervistandi. Importante è chiarire il valore della sua collaborazione, senza la quale la ricerca non sarebbe realizzabile. Ma ancora di più l’introduzione deve spiegare all’intervistato qual è il suo ruolo, cosa ci si aspetta da lui. Il tono dell’introduzione deve comunque essere tale da trasmettere chiaramente l’idea che l’intervistato non sta sostenendo un esame, che non ci sono risposte giuste o sbagliate. Al di là di ogni retorica, la volontà di accettare l’intervista dipende essenzialmente dal tema della ricerca. È illusorio sperare nella collaborazione dell’intervistato, e nella fedeltà delle sue risposte, se gli argomenti nel questionario sono estranei al suo mondo quotidiano. Le istruzioni all’intervistatore: queste hanno innanzitutto il compito di aiutare gli intervistatori in vario modo durante il lavoro sul campo, che è una parte delicatissimi, fondamentale dell’attività di ricerca. Il primo obiettivo è segnalare le domande più complesse e quindi suggerire i termini, o la formulazione alternativa, cui ricorrere se l’intervistato mostra di non aver capito. Il questionario deve sempre segnalare opportunamente quando si è di fronte a domande filtro che creano percorsi alternativi, a seconda dei diversi stati degli intervistati (es. pag 300). In questo modo l’intervistatore può velocemente passare alle domande pertinenti per ogni diverso soggetto: chi dice di essere occupato riceverà di seguito domande che sono risparmiate ai disoccupati. Nei questionari sottoposti con l’ausilio di sistemi elettronici questo problema è risolto automaticamente dagli appositi softwares. Queste istruzioni rispondono all’obiettivo principale di limitare il più possibile, senza negarla, la variabilità nel comportamento degli intervistatori, allargando così il margine di intersoggettività che le definizioni operative si propongono di creare, al fine di garantire l’omogeneità sostanziale, e non tanto quella formale, delle domande. Le istruzioni servono egregiamente anche per ottenere informazioni sull’intervistato, informazioni che non si ritiene opportuno o possibile chiedergli direttamente. In questo caso l’intervistatore deve rispondere a delle vere e proprie domande sul’intervistato. Gli potrà essere chiesto, ad esempio di valutare il quartiere, l’abitazione. Queste stime potranno essere messe a confronto con gli indicatori di status ricavati da opportune domande rivolte direttamente all’intervistato come sul reddito. Per alcune caratteristiche, la relativa definizione operativa talvolta richiede all’intervistatore di segnalare eventuali incongruenze o infedeltà evidenti. L’idea di massima è che l’intervistatore può dare informazioni riguardo aspetti delicati, su cui si temono reazioni insincere da parte dell’intervistato (es. pag 301). È del tutto infondato presumere, come pretende la tradizione comportamentista, che sui risultati non abbia alcuna influenza la situazione di intervista, intesa nel senso più ampio, cioè l’ora, il luogo dell’intervista, il rapporto tra i due interlocutori, la presenza di altri, il passo stesso dell’intervista (es. pag 302). Se il soggetto prescelto non è stato trovato in casa, si può chiedere all’intervistatore di annotare informazioni sul tipo di abitazione, sulle sue abitudini di vita desunte da domande poste a eventuali vicini. Queste informazioni aiuterebbero il ricercatore a farsi un’idea delle caratteristiche di chi non è raggiunto dalle interviste. Far domande all’intervistato: quali domande si rivolgeranno agli intervistati sarà deciso nella fase preliminare della ricerca quando si traccia la mappa dei concetti, attributi e caratteristiche, che definisce gli interessi cognitivi

della ricerca. Al momenti in cui si prepara il questionario il ricercatore farà bene a tenere presenti almeno alcune delle regole che governano la conversazione ordinaria, in particolare:

• La regola della massima quantità, secondo la quale gli interlocutori si aspettano di scambiare informazioni pertinenti senza inutili ridondanze. Se violiamo questa regola con domande troppo simili, l’intervistato si domanderà perché il ricercatore incorre in una ripetizione, e risolverà il suo dubbio decidendo che l’intervistatore non ha capito la sua risposta alla domanda precedente; oppure crederà che le risposte che ha dato non corrispondano alle aspettative dell’intervistatore. In questo caso sarà indotto a pensare che si stia parlando completamente d’altro:tenderà a dare alla seconda domanda risposte apparentemente incoerenti con quelle precedenti.

• La regola delle modalità, secondo cui la comunicazione deve evitare ogni ambiguità, deve essere comprensibile, adeguata al livello di conoscenze del soggetto.

Le domande chiuse: si definiranno “chiuse” le domande accompagnate da un elenco di alternative, spesso precodificate, tra le quali l’intervistato deve scegliere quella più vicina alla sua condizione. Il ricercatore deve dedicare massima cura alla preparazione dell’elenco delle risposte, cioè alla classificazione che articola la dimensione concettuale cui la domanda si riferisce. Ciò significa che della classificazione deve rispettare i requisiti: mutua esclusività delle categorie, esaustività dell’elenco e unicità del fundamentum division. Quando necessario, si risolve il problema dell’esaustività dell’elenco aggiungendo la categoria “altro”. Più complesso è soddisfare gli altri due requisiti: si immagini una classificazione degli immigrati in extracomunitari, cristiani, musulmani, altro. L’esempio dà immediata idea della violazione del principio dell’unicità del criterio: l’elenco infatti articola due aspetti: la religione e la provenienza territoriale. Questa violazione coinvolge anche la mutua esclusività delle categorie, poiché manifestamente un immigrato può essere extracomunitario e cristiano o musulmano. La difficoltà maggiore consiste nel compito di scegliere tra le molteplici manifestazioni che la caratteristica può assumere nei potenziali soggetti di studio quelle più adeguate allo specifico contesto di studio. Il ricercatore dovrà contare sulla sua esperienza e sulla conoscenza esplicita e tacita di questo contesto. Il ricercatore dovrà assumersi la responsabilità delle scelte che fa, scelte che esporrà alla critica dei lettori preoccupandosi di dare la massima pubblicità alle sue definizioni operative. Anche le cosiddette domande “semichiuse” sono accompagnate da un preciso elenco di risposte alternative. Si differenziano dalle prime perché offrono la categoria “altro”, con cui si lascia la possibilità di dare una risposta personale a chi non si riconosce in alcuna di quelle previste. In una concezione più flessibile dell’intervista strutturata si può prevedere che il soggetto argomenti anche la scelta operata tra le alternative offertegli. In entrambi i casi, nelle domande chiuse e semichiuse l’elenco delle categorie orienta l’intervistato nella scelta, con tutti i vantaggi e i limiti che ne derivano. Iniziamo con i vantaggi. La tradizione comportamentista rivendica alla domanda chiusa il massimo grado di comparabilità poiché, fissando le alternative, il ricercatore articola, nelle forme volute, l’aspetto che lo interessa. Ricorriamo a domande chiuse quando le possibili alternative sono note in precedenza senza ragionevoli dubbi, ma anche quando l’obiettivo prevalente è quello ricognitivo di scelte fattuali. Altrettanto utile è la scelta di strutture chiuse quando vogliamo conoscere l’importanza relativa di un insieme di problemi, aspetti, temi: in questo caso, è indispensabile che essi siano resi ugualmente accessibili a tutti gli intervistati. In linea di massima si ricordi che la domanda interamente strutturata non crea problemi quando tratta un argomento su cui si ritiene ci sia ampia comunanza di significati, che restringe al massimo la possibilità di fraintendimenti. Il buon funzionamento della domanda strutturata chiusa dipende pure da caratteristiche dell’intervistato: è importante che egli sia in grado di rispondere perché effettivamente ha uno stato sulla caratteristica che la domanda contribuisce a rilevare, ad esempio un’opinione ben strutturata e radicata che assume forme prevedibili. Alcuni ricercatori ritengono che la forma strutturata sia più adatta per indagare l’occorrenza di azioni, ma anche di opinioni in qualche modo sanzionabili. Gli intervistati tendono a considerare il ventaglio delle alternative come espressioni della norma e dello scostamento accettabile intorno a essa; un comportamento deviante inserito in un elenco può quindi incoraggiare l’intervistato a sceglierlo. Secondo altri le risposte prestabilite attirano verso le norme, gli stereotipi, cioè mostrano quanto le persone riconoscano e accettino, anche se in realtà non le seguono, le norme. I limiti sono speculari ai vantaggi: la lista si risposte, che aiuta l’intervistato a capire meglio l’aspetto che ha in mente il ricercatore, suggerisce la risposta a chi non sa, non ha l’informazione richiesta nella domanda. Alcuni ricercatori hanno osservato che i campioni cui viene sottoposta una domanda strutturata mostrano un livello di conoscenza superiore a quello dei campioni equivalenti a cui sia stata sottoposta la stessa domanda in forma aperta. L’intervistato sceglie una risposta anche se non ha opinione sull’argomento perché tende a percepire l’assenza di opinione come una sua deficienza. L’intervistato si percepisce come “rispondente”; lo stesso intervistatore spesso lo forza in questo ruolo ripetendogli, come da istruzione, la domanda se egli tentenna: l’intervistato apprende presto che ci si aspetta da lui una risposta, qualunque essa sia. La pressione a rispondere che di crea nella situazione di intervista diventa un problema perché tende a esagerare il livello di partecipazione e di interesse dei campioni intervistati anche ai temi più complessi e lontani dal quotidiano. La domanda strutturata fissa inoltre il significato alla domanda al di là delle stesse intenzioni del ricercatore, che ammette la risposta “altro, specificare”, destinata a chi non trova il suo stato nell’elenco

proposto. L’intervistato pensa che la lista includa tutte le alternative da considerare, inferendo che ciò che non c’è nella lista è irrilevante per il ricercatore. In generale, l’intervistato si adatta a restringere la sua scelta a una delle categorie, anche se parecchio lontana dal suo stato, e anche se invitato esplicitamente a proporre una sua risposta originale. In linea di massima, che nelle domande chiuse l’intervistato risponda senza approfittare della categoria “altro” non è necessariamente un difetto della domanda. Lo scopo della domanda strutturata è proprio quello di raccogliere opinioni nelle forme tematizzate dal ricercatore, sulla base dei suoi interessi e della sua competenza. Sarà sufficiente che il ricercatore non finisca per dimenticare che il dato che ottiene è in parte costruito dalle scelte che ha fatto al momento in cui ha creato le sue definizioni operazionali. Un’altra accusa che si muove alla domanda chiusa è quella di impedire a chi sa molto sul tema di dire la sua. Drasticamente Capecchi sostiene che le domande formulate in modo eguale e non modificabile durante l’intervista oscurano differenza qualificanti tra gli intervistati. (es. pag. 303/306)Le domande aperte: un questionario può prevedere domande aperte, in cui non è stato predisposto per l’intervistatore né è offerto all’intervistato alcun elenco di risposte prestabilite. In questo caso, l’intervistato parla liberamente, con parole sue. La risposta sarà registrata o trascritta sinteticamente dall’intervistatore; successivamente i questionari saranno esaminati per classificare le diverse risposte. Alle varie categorie così stabilite saranno attribuiti numeri di codice per la collocazione dell’informazione nella matrice dei dati. L’intervistato risponde liberamente manifestando gli aspetti della questione per lui più preganti. L’intervistatore ha uno specchietto per classificare la risposta (tabella 9 pag 308). Consultando lo schema l’intervistatore può codificare immediatamente la risposta, o lasciare il compito al codificatore che ne valuterà con attenzione tutti gli aspetti. Le diverse strategie dipendono dalla comprensibilità della risposta del soggetto; in ogni caso l’intervistatore avrà cura di registrare negli appositi spazi la risposta per esteso, per controllare con calma l’attribuzione che ha fatto sul campo, o per fornire le informazioni a chi farà in seguito il lavoro. La domanda sulla professione è un esempio tipico dei casi in cui è necessario ricorrere a domande aperte. Le informazioni raccolte sul campo con domande ad hoc saranno codificate a posteriori, con tutta l’attenzione necessaria. Si preferiscono domande aperte anche quando richiediamo all’intervistato un free-recall task: vogliamo sapere qual è il problema più importante, quello più grave, l’istituzioni in cui si ha più fiducia, con l’intento di valutarne la rilevanze attraverso la spontaneità della risposta. Roll e Cantril suggerivano la domanda aperta anche quando si vuole ricostruire l’immagine pubblica di un candidato: in questo caso “è opportuno apprendere quali parole o frasi usano spontaneamente le persone”. Si ritiene utile la domanda aperta quando si affronta un tema nuovo, di cui non siamo in grado di prevedere il ventaglio delle possibili alternative di risposta. La domanda che lascia all’intervistato la libertà di esprimere il suo pensiero darà informazioni proprio sul ritaglio concettuale dell’intervistato. Useremo domande aperte alla maniera di Schuman, chiedendo cioè a un sub campione di argomentare la scelta operata, tra le alternative offerte dalla domanda, per capire come gli intervistati abbiano interpretato alcune domande, importanti e complesse. Oltre a ottenere eventuali valutazioni originali, le domande aperte di approfondimento fanno capire quanto l’intervistato è veramente informato sul tema, se ha maturato una sua convinzione o ne sta apportando una sulla base degli elementi che lo stesso questionario gli offre. In ogni caso permetterà di ricostruire i motivi per cui si adotta un determinato comportamenti, si manifesta una certa opinione, si preferisce un prodotto a un altro. Secondo il manuale di istruzioni agli intervistati redatto dall’Abacus, la domanda aperta mette in luce le associazioni emotive, simboliche di un prodotto, che inducono a reazioni di accettazione o rifiuto. Questo accorgimento ci permetterà di valutare i risultati attuali; darà informazioni sull’affidabilità della definizione operativa, utili per le ricerche future: come osservano Schuman e Presser , in generale, tutte le “domande aperte sono importanti perché permettono ai ricercatori futuri di creare le categorie da sottoporre in forma chiusa, i ricercatori lungimiranti dovrebbero preoccuparsi di trasmettere qualcosa di più che codici numerici ai ricercatori sociali del prossimo decennio, secolo, millennio”. È un invito a muoversi con una concezione cumulativa delle conoscenze, che abbia l’obiettivo di allargare la sfera di intersoggettività degli strumenti che adottiamo. La domanda aperta è insostituibile quando si vogliono rilevare le conoscenze dell’intervistato, e diventa indispensabile evitare l’effetto suggerimento che la lista di alternative produce. Anche se il dibattito è aperto, qualcuno sostiene che le domande aperte ottengano risposte più sincere su temi imbarazzanti, e in tutte le occasioni in cui gli intervistati dovrebbero rilevare opinioni, o comportamenti in qualche modo sanzionati. Si può infatti pensare che lasciando al soggetto la possibilità di impostare liberamente il tema, di fare riferimento alle condizioni, ai motivi, ai termini stessi in cui il comportamento occorre o l’opinione si forma, l’intervistato possa essere più sincero. In ogni caso, in una forma standard di ricerca, in cui le informazioni sono raccolte per essere organizzate in matrice, le domande aperte devono essere previste in numero limitato e progettate con grande attenzione: tendenzialmente si sottoporranno quindi in forma aperta, senza problemi, quelle domande che, pur difficili da somministrare in forma strutturata, sono suscettibili poi di essere ridotte in modalità senza grossa perdita di informazione. Per tutte, la codifica non dovrà mai inseguire le differenze formali, lessicali tra una risposta e l’altra, ma cercherà di dar conto delle articolazioni del concetto a un livello di generalità elevato. Se la domanda dovesse produrre, com’è prevedibile, un materiale ricco e interessante, sarà opportuno accompagnare alla riduzione in categorie, che necessariamente comporterà una grave perdita di

informazione, un’analisi interpretativa separata.La formulazione della domanda: sottodeterminazione, sovra determinazione, “obtrusività”: non bisogna trascurare il problema della formulazione della domanda. Occorre precisare che il mito della standardizzazione – l’illusione di somministrare lo stesso strumento solo perché sottoponiamo la stessa domanda negli stessi identici termini a tutti gli intervistatori – si infrange a livello teorico con la semplice considerazione che le stesse parole non significano la stessa cosa per tutti; a livello empirico con la constatazione che il più delle volte l’intervistatore negozia i significati con gli intervistati. L’intervistato spesso interrompe l’intervistatore, si fa ripetere la domanda: la standardizzazione spesso rimane sulla carta. Legato strettamente all’idea stessa di standardizzazione qualcuno coltiva il mito della domanda perfetta, l’idea cioè che il bravo ricercatore sia in grado di formulare una domanda che sarà compresa da tutti gli intervistati senza fraintendimenti. A sfatare l’illusione basterebbe l’osservazione di Legerenzi che il testo delle domande interagisce inevitabilmente con la struttura di conoscenza, le capacità intellettuali, gli schemi interpretativi di ciascun intervistato. Si dice sotto determinata una domanda che non offre all’intervistato elementi sufficienti per formulare una risposte che rispecchi fedelmente il suo stato. Ciò può avvenire perché la domanda è ambigua o vaga, per i termini che usa o anche per la struttura sintattica complessiva. Una forma tipica di sottodeterminazione è quella di includere due oggetti nella stessa domanda, di modo che non sappiamo se l’intervistato li sta considerando globalmente o prendendone in considerazione solo uno per risolvere la contraddizione che la domanda gli pone. Sono sotto determinate anche le domande double-barelled. L’assenza di una categoria centrale o dell’alternativa “non so/non voglio rispondere” può indurre variazioni fino al 30% nella distribuzione delle relative variabili, a seconda che la domanda comprenda o no questa alternativa di risposta. Spesso il ricercatore omette consapevolmente queste risposte temendo che gli intervistati vi si rifugino. Si preferisce cioè costringere l’intervistato a scegliere una delle alternative previste dalla domanda. D’altra parte però, alte percentuali di “non so/non voglio rispondere” creano problemi in sede di analisi bi/multivariate; a monte evidenziano problemi di costruzione della domanda: se molti intervistati dicono di non sapere o di non voler rispondere significa che la domanda è formulata male; o poco interessante perché lontana dai loro interessi; o imbarazzante, percepita come minacciosa; in altri termini “obtrusive”. Il ricercatore animato da sano spirito scientifico dovrebbe preferire questa reazione a risposte infedeli, solo apparentemente adeguate. Inoltre, ottiene così un’informazione preziosa sull’affidabilità a priori della definizione operativa, facendo un servizio a sé e agli altri ricercatori che, conoscendone i limiti, possono evitare di adottarla. Si considera sovra determinata una domanda che, più o meno velatamente, indirizza l’intervistato verso una o più delle alternative di risposta. Ciò può avvenire in vari modi, e innanzitutto esplicitando nel testo della domanda solo una delle possibilità di risposta, in genere il consenso, o mettendo un luce solo gli aspetti positivi. Tra gli altri, Schuman e Press sostengono a tal proposito che non basta il bilanciamento formale del tipo “lei è favorevole o contrario” per evitare di incoraggiare la risposta favorevole. Il bilanciamento deve essere sostanziale: la domanda deve prevedere già nel testo due alternative opposte a cui è offerto lo stesso spazio e la stessa importanza. Pur consapevoli che il contesto decide quali termini ed espressioni sono caricati emotivamente, si deve prestare molta attenzione all’impiego di parole come “libertà, terrorismo, dittatura”. Ovviamente si spinge velatamente verso una risposta specifica anche quando le alternative non sono tutte “socialmente accettabili”, poiché alcune possono essere percepite dall’intervistato come una minaccia al suo prestigio o all’immagine che egli ha, o vuole dare di sé. Si configurano come “obtrusive” tutte le domande che riguardano aspetti della sfera intima, privatissima del soggetto, di cui in genere non si ama parlare in pubblico. Billiet e Loosveldt ricordano che si registrano alte percentuali di mancate risposte con domande sull’ammontare dei risparmi, del reddito, le preferenze politiche, malattie e ricoveri; ovviamente il rischio di reazioni negative aumenta quando l’intervistato dovrebbe ammettere malattie su cui c’è una censura sociale. Non ci sono modi sicuri per aggirare il problema; qualcuno suggerisce l’uso di tecniche proiettive – vignette, figure e test in cui si lascia all’intervistato la possibilità di proiettare su terzi idee e comportamenti indesiderabili. Ma, trattandosi di strumenti tipici della ricerca in ambito psicologico, non sono facilmente adattabili a questionari standardizzati e più in generale alle interviste sociologiche. Un accorgimento che riguarda il grado di strutturazione della domanda è la scelta tra domanda aperta e chiusa: alcuni sostengono che una domanda aperta incoraggi l’intervistato a essere più sincero; ma abbiamo detto pure che non ci sono risultanze chiare sul tema. La via maestra appare quella di spiegare adeguatamente all’intervistato gli scopi, esclusivamente cognitivi, della ricerca, garantendo il totale anonimato. (es. pag 314/318).La sequenza delle domande: è parte integrante del concetto di “standardizzazione” che le domande siano poste nello stesso identico ordine a tutti gli intervistati. Si ritiene quindi che l’ordine delle domande debba essere studiato con molta cura perché può avere un effetto distorcente sulle risposte degli intervistati. La sequenza è ben costruita innanzitutto quando rispecchia quella considerata ragionevole dagli intervistati: il passaggio da un argomento all’altro deve quindi avvenire senza che l’intervistato percepisca salti bruschi che lo disorientino o lo distraggano. L’inizio dell’intervista è una fase delicata che stabilisce anche il tono del rapporto che si può instaurare tra l’intervistatore e l’intervistato. Si consiglia di cominciare con domande generiche, che si presume non mettano in difficoltà l’intervistato e lo aiutino a focalizzarsi pian piano sul tema centrale. L’interesse e l’attenzione crescono

inizialmente per raggiungere un picco sul quale si stabilizzano per un certo tempo; decrescono poi rapidamente subentrando la stanchezza. Da ciò deriva che le domande più importanti per il ricercatore, che richiedendo il massimo della concentrazione per l’intervistato, occuperanno la parte centrale. È anche per questo che qualcuno preferisce porre le domande strutturali (età,professione, titolo di studio ecc.) nella parte finale del questionario. Si occupa l’ultima parte dell’intervista, in cui la concentrazione dei soggetti intervistati diminuisce, con domande importanti cui tuttavia è facile rispondere. Nel campionamento a quote (campionamento a scelta ragionata, in cui i soggetti sono selezionati dall’intervistatore sulla base del possesso di determinati requisiti fissati in anticipo: ad es. maschio celibe di età inferiore ai trenta anni) si porranno necessariamente all’inizio quelle domande che permettono di appurare se la persona contatta risponde ai requisiti del piano di campionamento. Si tiene conto inoltre della presenza nel questionario di domande più delicate, imbarazzanti, sicché si preferirà porle nella parte finale del questionario. L’altra regola aurea indicata in letteratura è quella di allontanare domande che si possono contaminare a vicenda, inducendo l’intervistato a ricavare la risposta alla seconda domanda dalla risposta già data alla precedente. In tempi più recenti all’order effect si è sotituito il concetto del context effect , secondo cui alcune domande evocano schemi interpretativi, creano uno specifico contesto semantico alla luce del quale sono interpretate tutte le domande collegate/bili. Di conseguenza, non basta distanziare le domande contaminabili, come si consiglia di fare per evitare l’effetto sequenza. Secondo Shwarz e Strack le domande precedenti servono all’intervistato per interpretare la domanda a cui è chiamato a rispondere. Si tratta del problema più generale dell’accessibilità, sottolineato dai contributi della psicologia cognitiva: è il questionario nel complesso, e quindi anche la sequenza delle domande, che rendono accessibili, portano at the top of head, pronti all’uso nelle domande successive, elementi cui l’intervistato non avrebbe altrimenti pensato. Si tratta di un rischio generale di cui il ricercatore può solo prendere consapevolezza. Questi effetti sono maggiori per tutto gli argomenti su cui l’intervistato non ha un orientamento definito,radicato, preesistente alla particolare situazione innescata dall’intervista.Studiare l’intervista per imparare a strutturarla: è importante ricordare che la fase della raccolta delle informazioni resta il più delle volte opaca al ricercatore, il quale si tiene in genere ben lontano da questo lavoro. Solo recentemente diversi ricercatori si sono mostrati sensibili ai problemi legati alla situazione di intervista e alla sua definizione da parte dei protagonisti. Due gli approcci principali nello studio empirico di questi problemi: alcuni ricercatori usano le tecniche dell’analisi della conservazione; altri puntano sull’osservazione dei comportamenti dell’intervistato e dell’intervistatore durante un’intervista, che viene registrata integralmente. L’attenzione allo svolgimento dell’intervista ha prodotto piccoli suggerimenti per la costruzione del questionario e la conduzione dell’intervista. Un primo suggerimento viene dall’osservazione che nelle conversazioni ordinarie gli interlocutori possono avere tipi di risposta a seconda delle circostanze. In un’intervista l’evolversi dello scambio comunicativo permetterà all’intervistato di decidere quale risposta sia più utile ai fini della ricerca. Tecniche di intervista che lasciano parlare diffusamente e liberamente l’intervistato su un argomento prima di presentargli una domanda interamente standardizzata aiutano l’intervistato che ha diverse risposte a risolvere i suoi dubbi. Sacks invita a porre la domanda che il ricercatore considera cruciale solo dopo che l’attenzione dell’intervistato sia stata gradualmente focalizzata sul tema con una serie di domande introduttive. Analisti del discorso e psicologi cognitivi raccomandano di sfruttare le interviste in modo che assomiglino il più possibile a conversazione, e più in generale al modo in cui è organizzata l’esperienza nella memoria. Mishler si tratta di risposte tecniche di valore limitato, perché ignorano l’aspetto internazionale della comunicazione, anche quella che si sviluppa durante l’intervista. I contributi degli psicologi cognitivi non escono del tutto dal solco della tradizione comportamentista, mostrando una preferenza per la forma strutturata. Allo stesso tempo questi contributi prendono atto dei processi cognitivi di interpretazione della domanda esaltando la mediazione creativa della mente. La via maestra per la conduzione dell’intervista resta quella di istruire l’intervistato sul suo ruolo; nel progettare il questionario il ricercatore deve rispondere alle domande che l’intervistato inevitabilmente si pone fra sé e sé. Si deve cioè mettere l’intervistato in grado di capire cosa ci si aspetta da lui e con quale grado di precisazione. Per raggiungere questo scopi:

• L’intervista/il questionario deve essere formulato in maniera narrativa, che espliciti al massimo il compito richiesto

• Devono esserci collegamenti chiari fra una parte e l’altra dei blocchi di domande, e una successione che metta l’intervistato in grado di ricostruire il discorso complessivo

• Quando necessario e richiesto dallo scopo della domanda, l’intervistatore deve invitare l’intervistato a prendersi tutto il tempo che vuole per formulare una risposta meditata

• L’intervistatore deve ripetere le domande, spiegarle se si rende conto che l’intervistato ha difficoltà; deve applicare in altri termini il principio di differenziazione di Lazarsfeld

Sottoporrà le domande sistematicamente a tutti gli intervistati nelle forme stabilite, ma non rinunciando al contributo creativo dell’intervistatore che inevitabilmente sarà costretto a negoziare i significati scambiati e mediati dal questionario. Per mantenere il controllo sul processo di raccolta dei dati il ricercatore tenterà continui e regolari rapporti con l’intervistatore e, se possibile, chiederà di registrare le interviste per poterle ascoltare in seguito e

valutare le risposte. L’intervista flessibile presuppone un alto livello di qualità e preparazione nell’intervistatore, che diventa figura chiara dell’intervista; ma più in generale il lavoro di ricerca non può seguire un “disegno che vede un architetto che progetta, e gli operai che eseguono perché destinato a fallire. A tutti gli stadi del lavoro sul campo devono essere prese delle decisioni di vitale importanza, tenendo sempre in conto lo scopo ultimo della raccolta dati”. Galtung osserva che i ricercatori devono avere talento ma anche fantasia nell’immaginare forme di ricerca; in particolare l’autore fa riferimento a studi dove sono stati usati persino giochi di ruolo”.10° CAPITOLO: LA VALUTAZIONE SCALARE DEGLI ATTEGIAMENTI E DELLE OPINIONI.Concetti di atteggiamento: i principali approcci: presteremo particolare attenzione al concetto di atteggiamento ricordando due grandi approcci: i comportamentisti considerano l’atteggiamento un complesso di risposte attraverso rinforzo, cioè un meccanismo che interviene tra S e R. i cognitivisti vedono l’atteggiamento come un costrutto psicologico, una struttura cognitiva stabile che elabora gli inputs esterni e contribuisce a determinare le scelte di azioni. Pur sottolineando la funzione creativa della mente, il secondo approccio condivide con il primo l’idea di stabilità nel tempo. La tendenza prevalente è quella di considerare l’atteggiamento un orientamento, una disposizione ad agire, sulla base di “tendenze, sentimenti, pregiudizi e nozioni preconcette. Apprensioni verso un determinato oggetto. L’atteggiamento è affetto a favore o a sfavore di un oggetto psicologico” (Thurstone). Nel tempo i ricercatori hanno ripreso l’enfasi posta da Thurstone sull’aspetto affettivo dell’atteggiamento, che non a caso appare quello più facile da operazionalizzare attraverso gli strumenti di rilevazione di cui disponiamo: l’atteggiamento si riduce quindi a “un vago complesso di sentimenti a favore o a sfavore di un determinato problema, persona, evento”. La sua vaghezza ha aiutato il concetto a imporsi in vari ambiti e discipline umane, ma ha anche facilitato una certa confusione nella teoria e nella pratica di ricerca con i concetti di opinione, credenza, valore e sistema di valori. Gasperoni dice che il concetto di atteggiamento viene ritenuto importante nelle scienze umane perché è un prodotto dell’ambiente sociale, collegato alla condotta sociale, e si riferisce a oggetti che possono avere rilevanza sociale.Atteggiamenti e opinioni: la distinzione tra atteggiamento e opinione sembrerebbe semplice, e sintetizzabile nell’opposizione fra atteggiamento come stato interiore e opinione come sua manifestazione pubblica. L’esigenza di mantenere viva la consapevolezza della differenza tra i due concetti nasce almeno da due elementi tra i quali vi è un rapporto d’implicazione: il problema della corrispondenza tra stato interiore ed espressione verbale e, a monte, la capacità di ciascuno di attingere al proprio stato interiore. È opportuno chiedersi se lo stato interiore che chiamiamo “atteggiamento” sia verbalizzato in forma fedele e, prima, se il soggetto sia consapevole del suo stesso stato sull’atteggiamento. Consapevole di ciò, Thurstone riteneva l’atteggiamento “un punto di vista personale, personale”, e non sempre verbalizzabile. Jarvis sostiene che “il soggetto può essere reso o meno consapevole di questo suo stato psico-fisiologico attraverso l’introspezione, o anche attraverso la mediazione di razionalizzazioni autodescrittive, o mediante l’uso di informazioni retroattive provenienti dall’ambito esterno”. Alcuni sottolineano il fatto che proprio la manifestazione esterna, in pubblico, rende l’atteggiamento “un punto di vista personale privato”, e non sempre verbalizzabile. Javrvis sostiene che il soggetto può essere reso o meno consapevole di questo suo stato psico-fisiologico attraverso l’introspezione, o anche attraverso la mediazione di razionalizzazioni auto descrittive, o mediante l’uso di informazioni retroattive provenienti dall’ambiente esterno. Alcuni sottolineano il fatto che proprio la manifestazione esterna, in pubblico, rende l’atteggiamento socialmente rilevante: la verbalizzazione diventa elemento costitutivo dello stesso atteggiamento. Forse per questo motivo molti non sentono l’esigenza di distinguere tra “opinione” e “atteggiamento”. La definizione che Allport dà di opinione si differenzia ben poco da quello di atteggiamento, essendo questa una forma di “prontezza all’azione riguardo a una data tematica da parte dei membri di un pubblico che stiano reagendo nell’attesa che altri nel pubblico si orientino similmente verso la medesima tematica”. Il discriminante fondamentale è il riferimento al pubblico, e alle reazioni del singolo in questo contesto. L’uso interscambiabile dei termini si è largamente affermato, forse anche per esigenza di economia del linguaggio. Wilson e Hodges introducono una differenza più sottile sostenendo che l’opinione è il simbolo verbale di un atteggiamento. Per Osborne e Rose le opinioni sono tali perché le persone, manifestandole, le proiettano in un’arena pubblica, “nel contesto di un campo totale di opinione pubblica alla quale loro collegano le loro idee, qualunque siano i loro personali atteggiamenti”. L’opinione è ciò che si è disposti ad ammettere in pubblico; ne consegue che è un simbolo verbale. La differenza, elegante e chiara a livello analitico, perde la sua nitidezza a livello empirico, come egregiamente ha messo in rilievo Deutscher. Raramente siamo in grado di accertare se durante l’intervista sollecitiamo resoconti fedeli dello stato interiore del soggetto o piuttosto le ricostruzioni razionali che egli è disposto a sostenere in pubblico; non sappiamo se gli aspetti psicologici e quelli sociali che guidano il modo in cui egli agisce siano più comprensibili ricostruendo i suoi stati interiori o le opinioni che è disposto a formulare pubblicamente. Deutscher ha preso posizione netta, ritenendo che la natura riservata della comunicazione tra intervistatore e intervistato può anche favorire resoconti fedeli dello stato interiore del soggetto; ma tale sincerità rischia di rendere le opinioni manifestate all’intervistatore molto diverse dalle dichiarazioni pubbliche dello stesso soggetto, le sole che concorrono a formare l’opinione pubblica, ma anche a dirigere le scelte di comportamento pubblico di ciascuno. In ogni caso si tenga ben presente che nella pratica di

porre domande agli intervistati c’è di fondo l’idea che i soggetti siano detentori di stati che gli strumenti di indagine si limitano a rilevare in forma più o meno fedele. Contestano quest’idea i costruttivisti, secondo i quali l’uso di rilevare solo la componente affettiva dell’atteggiamento lo riduce a giudizio, una valutazione superficiale costruita al momento, con il concorso degli stessi strumenti di rilevazione e di tutta la situazione di intervista. Al file drawer model – secondo cui i soggetti hanno in memoria un deposito di atteggiamenti già formati cui attingono quando devono rispondere alle domande relative – viene contrapposto il construal model of attitudes: “l’atteggiamento in un dato momento è il risultato di un processo di costruzione, non c’è un singolo atteggiamento verso un oggetto ma un certo numero di atteggiamenti dipendenti dal numero di schemi disponibili per pensare gli oggetti”. Il construal model afferma che ciascuno di noi forma al momento i suoi giudizi basandosi sugli elementi di volta in volta resi accessibili dalla situazione di intervista. Ciò può significare che il contesto stabilito dalle domande precedenti fornisce gli elementi per interpretare la domanda specifica, sia nel caso in cui l’intervistato abbia già un atteggiamento, sia nel caso in cui “la questione gli sia del tutto estranea. Il construal model of attitudes scardina l’idea che l’intervista sia un’attività neutra in grado di rilevare stati preesistenti, indipendenti dall’attività stessa di rilevazione. Al contrario, le persone dispongono nella loro memoria di una sorta di banca-dati generale cui attingere per la formazione delle risposte; l’atteggiamento che hanno o manifestano in un determinato momento dipende da quali informazioni usano. In alcune ricerche di laboratorio apparve evidente che le persone cambiano idea, ad esempio sui loro parteners. In definitiva, secondo questi ricercatori non ci sono atteggiamenti nel senso tradizionale del termine, ma solo valutazioni contingenti.L’unidimensionalità dell’atteggiamento: pur essendo l’atteggiamento concepito come un continuum “non vi sono prove che questo modello di continuum lineare corrisponda al vero, anche se ci rende le cose più facili”. Questa forma di rappresentazione deve la sua fortuna al fatto che assimila gli atteggiamenti a quelle caratteristiche felicemente concettualizzate nelle scienze fisiche come continua, frazionabili in porzioni di qualunque ampiezza, grazie alla possibilità di trovare un accordo sulla porzione di continuum che assumiamo come unità di misura. Applicando la metafora spaziale al concetto di “atteggiamento” attribuiamo punteggi agli stati dei soggetti; tali punteggi sono suscettibili di varie forme di analisi statistiche. Tale concezione trova un punto di debolezza nel fatto che deve assumere che tutti gli individui abbiano un’eguale rappresentazione cognitiva dello stimolo e delle relative risposte, che cioè condividano l’interpretazione unidimensionale dell’atteggiamento come un continuum di posizioni in cui sono collocabili stimoli e individui. D’altra parte, in assenza di esperienze consolidate di ricerca era più facile coltivare la confortante convinzione che un individuo potesse assumere una posizione precisa lungo un continuum, sintetizzabile da un punteggio complessivo ottenuto come media dei punteggi sui vari indicatori. Diverse ricerche sottolineano la forte ambivalenza nel valori, e di conseguenza anche negli atteggiamenti. Con domande standardizzate ci si limita a rilevare un’incoerenza che facilmente è considerata assenza di opinioni radicate. Le ricerche di Feldman e Zaller, che utilizzano domande aperte, mostrano invece che le persone hanno principi spesso in contraddizione tra loro, e su questi basano di volta in colta le loro preferenze politiche. Oltre che da effettiva ambivalenza, le incoerenze, che mirano all’assunto di unidimensionalità , potrebbero scaturire da una tendenza all’acquiescenza, più frequente quando si trattano argomenti che non costa niente approvare. Tutto ciò mette in questione l’adeguatezza della metafora spaziale del continuum. I vantaggi tecnici connessi a strumenti di rilevazione che producano variabili quasi-cardinali ci fanno dimenticare che forse sarebbe più utile studiare come siamo piuttosto che cercare di stabilire quanto siamo autoritari o progressisti o religiosi. La nostra struttura di personalità può comprendere aspetti che un’ottica unidimensionale confiderebbe contraddittori. Le forme che i nostri modi d’essere assumono rassomigliano di più, probabilmente, a prismi immersi in uno spazio a n dimensioni; prismi in cui ogni faccia è data una scelta operata tra alternative dense di significato. Le principali tecniche di scaling: lo scaling è una delle tecniche, assieme alla classificazione, alla misurazione e al conteggio, attraverso cui la definizione operativa attribuisce valori agli stati dei soggetti su determinate proprietà che percepiamo come continue. Le diverse scale possono ordinare per grado decrescente di autonomia semantica delle categorie di risposta, dal massimo delle scale Thurstone, costituite da frasi, al minimo delle scale auto ancoranti, nelle quali i soggetti devono scegliere come risposta un numero. Questo ordine implica in parte un grado decrescente di variabilità prevedibile nell’interpretazione delle modalità previste di risposta da parte dei soggetti intervistati, quindi del loro intervento nella determinazione dei punteggi finali. In tutte è massimo l’intervento del singolo ricercatore. A differenza di quelle caratteristiche che hanno un’estensione semantica ragionevolmente definita e accettata intersoggettivamente (età), gli atteggiamenti si presentano come concetti molto complessi, al alto livello di generalità. Per rilevarli, il ricercatore deve innanzitutto definire degli indicatori, concetti più specifici che gli suggeriscano una definizione operativa e che egli possa mettere in rapporto di rappresentanza semantica con il concetto-atteggiamento che gli interessa. L’estensione semantica dei concetti (di atteggiamento e altri) è mutevole, dipendente al contesto, in altri termini è localmente situata. È per questo che Cannavò parla correttamente di “localismo” degli indicatori. A proposito della rilevazione degli atteggiamenti eviteremo di usare il termine “misurazione”, anche nei suoi significati più estesi, perché può indurre lettori e ricercatori meno attenti a un falso senso di sicurezza negli strumenti approntati e nei risultati ottenuti. Premesse queste considerazioni che investono

il problema della validità, cioè della capacità di un indicatore di coprire parti dell’estensione semantica del relativo concetto generale, esamineremo le principali scale adottate nei sondaggi. In generale, esse nascono e si sviluppano negli USA durante tutto il XX secolo. Lo scaling si assume quindi il compito di attribuire un valore agli stati degli individui su tratti disposizionali come la religiosità,il progressismo, l’ottimismo. Corbetta sottolinea che non ha molto senso parlare di dimensionalità della scala, poiché ciò che fa la differenza è il modo in cui sono successivamente trattati statisticamente i dati raccolti con ogni singola scala. Qualunque indicatore che la scala operazionalizza può riferirsi a diversi concetti o atteggiamenti. I ricercatori oggi evitano assunti rigidi di unidimensionalità dei loro indicatori; preferiscono preparare un numero consistente di domande da sottoporre poi a tecniche di analisi multidimensionale che hanno lo scopo proprio di porre aggregati di variabili (componenti) determinati sulla base di complesse reti di relazioni reciproche. Le possibilità offerte dalla tecnica non esimono il ricercatore sa una riflessione attenta al momento dell’ideazione della ricerca: inserirà quindi determinati items relativi a certi attributi o caratteristiche perché la sua esperienza di studio gliene suggerisce l’opportunità, ben sapendo che batterie troppo lunghe inducono gli intervistati a risposte meccaniche, distorte rispetto a quelli che si presume siano i loro stati sulle “proprietà” analizzate. Il contributo di Thurstone: la Equal Appearing Intervals, o scala a intervalli giudicati uguali, è composta da un insieme di frasi, con piena autonomia semantica, creata attraverso la collaborazione di un campione di soggetti, detti “giudici”, scelti dalla popolazione a cui la scala definitiva è destinata. Nel momento della sua costruzione, la scala presuppone un continuum diviso in 11 posizioni, da un minimo a un massimo dell’atteggiamento in questione; ai “giudici” è affidato il compito di collocare ciascuna frase su una delle 11 posizioni, a seconda della distanza percepita dal minimo o dal massimo del continuum. Si ricorre a un consistente numero di giudici proprio perché si ha consapevolezza che i concetti più rilevanti per le scienze umane sono soggetti a ritagli diversi da individuo a individuo, pur mantenendo una certa estensione semantica condivisa, ma di ampiezza ignota. Alle varie frasi è attribuita la posizione assegnata dalla maggioranza relativa dei giudici. Frasi collocate da un numero molto elevato (ben al di là della maggioranza) di giudici nella stessa posizione esibiscono un nocciolo intersoggettivo più consistente. Vengono scartate le frasi collocate in posizioni molto discordanti (es. pag 336). Nel sottoporre la scala si chiede all’intervistato di scegliere la frase che condivide maggiormente. Si può anche chiedere un giudizio su ciascuna frase collocando poi la media dei punteggi attribuiti. Ma questa procedura incoraggia i response set – la tendenza a dare sempre la stessa risposta meccanicamente. Le frasi vengono somministrate agli intervistati in sequenza casuale e senza alcuna etichetta numerica. Il problema fondamentale della scala è che la totale autonomia semantica delle modalità-affermazioni rende del tutto dubbia e contingente la loro collocazione lungo il sotteso continuum: altri “giudici”, o gli stessi in momenti diversi, avrebbero potuto collocare le stesse frasi in una sequenza diversa. A ciò si aggiunga la considerazione che non abbiamo alcuna garanzia che la distanza tra le affermazioni sia nota e costante, nonostante il pregevole tentativo di stabilirla attraverso un accordo interoggettivo che rende degna di riflessione la scala.La scala Likert: scala che gradua il favore a determinate affermazioni in cinque o sette posizioni con le etichette verbali da “completamente d’accordo” a “completamente in disaccordo” (tabella pag 337). Questa scala non si preoccupa di determinare la posizione delle affermazioni lungo il continuum. La posizione dei soggetti è determinata dal loro grado di favore medio a tutte le frasi relative allo stesso atteggiamento. La scala Likert produce variabili ordinali. Al momento dell’elaborazione le variabili prodotte spesso vengono tratte alla stregua di variabili cardinali, applicando per esempio l’analisi in componenti principali per determinare il peso differenziato di ciascun indicatore nella formazione dell’indice complessivo. Massima attenzione deve essere posta alla scelta delle frasi da sottoporre all’intervistato. La pratica oggi consueta di somministrare molte affermazioni, lasciando poi alle tecniche di analisi multidimensionale il compito di selezionarle, incoraggia fenomeni di response set, cioè risposte meccaniche, insignificanti, con cui l’intervistato reagisce quando il questionario lo stanca e lo annoia. Nella fase di progettazione della ricerca, Likert consigliava di preparare frasi a polarità invertita rispetto all’atteggiamento: si ritiene infatti che l’inversione della polarità rispetto all’atteggiamento aiuti a) in sede di raccolta dei dati a tenere desta l’attenzione dell’intervistato; e b) in sede di analisi dei dati a individuare i casi di risposte meccaniche o acquiescenti. Il ricercatore predisporrà le diverse frasi che assume come indicatori dell’atteggiamento organizzandole in batterie. L’intervistato dovrà indicare quanto condivide ciascuna frase usando la scala a cinque o sette posizioni; la somma (ovvero la media) dei punteggi attribuiti a ciascuna frase individuerà la posizione del soggetto lungo il continuum (atteggiamento). Se una ricerca si prefigge la rilevazione di diversi atteggiamenti, si predispongono diversi blocchi di batterie in cui si mescolano casualmente le affermazioni relative ad atteggiamenti diversi. Sono documentati alcuni problemi e difetti della scala:

• Come per altre scale, le cui categorie di risposta hanno un qualche grado di autonomia semantica, non è affatto detto che queste categorie siano concepite dagli intervistati come posizioni lungo un continuum

• Non è neanche detto che tutti i soggetti siano in grado di proiettare il loro punto di vista sul continuum di accorso/disaccordo proposto dal ricercatore. Alcuni intervistati rispondono in maniera dicotomica, limitandosi a dire si/no; oppure hanno in mente dimensioni diverse del favore, e parlano di giusto/sbagliato,

vero/falso.• Nell’attribuire i valori da 1 a 5 (o da 1 a 7) assumiamo che i soggetti percepiscano come uguale distanza tra

le varie categorie. Applicando l’analisi delle corrispondenze, Amisano et al. hanno mostrato che gli intervistati percepiscono come vicinissime le due graduazioni di favore e molto più distante invece la posizione centrale, di incertezza.

• Si parla di curvi linearità quando un’affermazione è respinta da persone che si collocano sui poli opposti del continuum di riferimento. In genere ciò si produce con domande ambigue, nel significato e/o nella forma.

• Il response set consiste nella tendenza dei soggetti a rispondere in maniera meccanica, indicando sempre la stessa alternativa senza alcuna attenzione per il significato delle singole frasi.

• Concettualmente sovrapposta in parte al response set è l’acquiescenza, cioè la tendenza degli intervistati a dirsi d’accordo con tutte le affermazioni. È sovrapposizione perché si può considerare questa distorsione una forma specifica di respone set: non badando minimamente al significato delle frasi, il soggetto le accetta meccanicamente per semplice compiacenza nei confronti dell’intervistatore, o comunque della persona autorevole che ha preparato la batteria di affermazioni. Molti ricercatori hanno notato una maggiore predisposizione a questa distorsione nei soggetti in qualche modo marginali, perché poco istruiti o anziani. Altri sottolineano che la tendenza all’acquiescenza può riguardare tutti gli intervistati nel momento in cui mutuano dalle regole della conversazione la tendenza a non creare polemiche, ad evitare di antagonizzarsi con l’interlocutore rifiutando una sua affermazione.

• Si deve a Marradi l’individuazione della reazione all’oggetto, in cui appunto l’intervistato reagisce non al significato complessivo della domanda, ma a un singolo oggetto cognitivo che può essere in relazione negativa con la frase.

(esempi pagg. 337/341). Nonostante ciò la scala di Lickert continua a essere adottata da psicologi, sociologi e ricercatori di mercato per il suo carattere amichevole: si ritiene cioè facile da somministrare e veloce da codificare. D’altra parte la scala a cinque o sette posizioni di favore/sfavore permette all’intervistato un minimo di articolazione del suo punto di vista, rispetto alle scale che prevedono la reazione semplicemente dicotomica “favorevole/sfavorevole”. Si può concordare sul fatto che, proprio per la loro scarsa autonomia semantica, le categorie di risposta siano inequivocabilmente ordinabili lungo il continuum di sfavore/favore. Anche gli individui che rispondono alle batterie di scale Likert sono più facilmente ordinabili lungo il continuum dell’atteggiamento in questione. La scala TLL ( Thurstone Likert-Like): ideata da Cannavò unisce aspetti significativi e meritevoli della scala EAI di Thurstone e dello scalogramma di Lickert. Nella fase finale di somministrazione, agli intervistati la scala si presenta come una normale batteria di scale Likert, con un gradiente a sette posizioni interpretate semanticamente: del tutto in disaccordo, prevalentemente d’accordo, moderatamente d’accordo, i motivi di accordo e di disaccordo si equivalgono, moderatamente d’accordo, prevalentemente d’accordo, del tutto d’accordo. L’aspetto più pregevole è nella fase preparatoria: le affermazioni sono congegnate “secondo una metodica deduttiva, nel quadro di un corpus esplicitato di conoscenze teoriche, di modelli di definizioni delle grandezze o attributi”. Le frasi, in numero notevole (da 50 a 60) vengono poi sottoposte al giudizio di panels di giudici, composti da esperti e da un sottoinsieme della popolazione da cui verrà estratto il campione. Il pregio maggiore della TLL è aver recuperato una procedura di formazione della scala attraverso l’intervento attivo dei panels di giudici permette al ricercatore di evadere almeno in parte dalla soggettività-discrezionalità che inevitabilmente accompagna la definizione degli indicatori, e in ultima analisi delle affermazioni. In altri termini, il ricercatore riduce la sua responsabilità e solitudine nel processo di definizione degli indicatori, che è inevitabilmente anche un processo di costruzione. La scala proposta all’intervistato avrà perciò un margine di intersoggettività che riduce la sua distanza dall’idealtipo di strumento di indagine scientifica. Sottoponendo poi le frasi accompagnate da scale Likert, la TTL rimedia a un altro limite grave della scala di Thurstone, che pretende di stabilire la posizione di ciascuna frase sul continuum, oltre ad assumerne l’equidistanza. In ogni caso, niente assicura che le scelte dei giudici riflettano correttamente i ritagli concettuali che opererebbero gli intervistati. Rispetto alla Thurstone, la TTL permette una maggiore articolazione del pensiero dell’intervistato offrendogli sette possibilità di risposta invece di una scelta dicotomica di accettazione/rifiuto, come proposto dalla scala EAI di Thurstone. Il risvolto negativo è costituito dal fatto che la TTL resta esposta ai pericoli della scala Likert (acquiescenza, response set, curvi linearità, reazione all’oggetto). Successivi test hanno mostrato di poter ovviare a questi limiti in sede di data analysis, mediante l’uso diagnostico dell’analisi in componenti principali.Le scale auto ancoranti: la metrica delle scale auto ancoranti: queste chiedono all’intervistato di attribuire a determinati oggetti cognitivi un punteggio entro un arco di posizioni semanticamente ancorate a un valore minimo e a un valore massimo. Le scale si distinguono per la loro estensione; il numero delle alternative di risposta accorcia la distanza tra la posizione di ciascun soggetto a l’alternativa più vicina: più è ampia la scala, cioè il numero di alternative di risposta possibili tra i due estremi, maggiore è la sua sensibilità, quindi la sua capacità di

rappresentare la complessità del mondo reale. Tra i due ancoraggi le posizioni degli individui sono identificate con i numeri naturali. Nello stabilire la sua posizione attraverso la serie di cifre indicata, il soggetto è invitato a farsi un’immagine mentale del peggiore e del migliore stato possibile sulla “proprietà” sottoposta a valutazione. Quindi sono i soggetti stessi che assegnano “una posizione al loro grado di favore/sfavore per ciascun oggetto” che devono valutare, e stabiliscono quindi !l’unità di misura”. Per la scarsissima autonomia semantica delle modalità di risposta si ritiene che le variabili prodotte da queste scale possano, senza eccessivo azzardo, essere trattate statisticamente come variabili cardinali. A totale vantaggio delle scale auto ancoranti, non c’è motivo di ritenere che la distanza tra due numeri contigui (1 e 2; 40 e 41) possa essere percepita dai soggetti come diversa dalla distanza tra altre due serie qualsiasi (2 e 3; 41e 42). In altri termini, possiamo presumere che i numeri abbiano lo stesso significato per tutti i soggetti. È questo che autorizza il ricorso a tecniche statistiche adatte alle scale cardinali e in primo luogo alla formazione di indici additivi.La scala di Centril: questa scala chiede all’intervistato di attribuire punteggi a oggetti cognitivi (o fasi) scegliendo un numero da 1 a 10. Come a scuola, l’intervistato è invitato a esprimere con 1 un giudizio completamente negativo e con 10 uno del tutto positivo. Nella somministrazione della scala, in genere sono interpretati solo gli estremi; solo in alcuni casi anche la categoria centrale. Questa scala è somministrata in domande come “ le chiediamo di dare dei voti ad alcuni esponenti politici del momento; con riferimento all’ultimo mese, dia il voto a ciascuno di essi utilizzando una scala da 1 a 10”. Possono essere sottoposte a valutazione tramite scala di Cantril anche frasi, non solo oggetti cognitivi indicati da singoli termini o espressioni. Come per tutte le scale auto ancoranti, e quindi con maggiore fondamento scientifico che per le scale ordinali, l’indice è semplicemente sommatorio: a ogni soggetto viene cioè attribuita la media dei punteggi che ha attribuito a ciascun oggetto dopo aver ponderato i diversi indicatori con le opportune procedure statistiche, come le varie tecniche di analisi fattoriale. Come segnalato a proposito della scala Likert, si terrà opportuno conto della relazione semantica dell’oggetto con il relativo atteggiamento. Proprio perché richiama il sistema di valutazione scolastico, la scala Centril appare familiare agli intervistati, che tendono ad accettarla di buon grado. A livello di raccolta dei dati presenta problemi comuni alle altre scale, come la tendenza al response set, che si manifesta in questo caso con la propensione a dare sempre lo stesso punteggio. In particolare, poiché spesso la scala viene adottata per valutare oggetti cognitivi riferibili a valori o istituzioni sociali importanti si nota una prevalenza di punteggi positivi, che possono far sospettare forme di acquiescenza e desiderabilità sociale. Il problema principale, comune a tutte le scale auto ancoranti, è la difficoltà per gli intervistati di valutare comparativamente i diversi oggetti, in ciò ostacolati dal fatto che questi vengono loro presentati, e devono essere valutati, uno alla volta. Alcune esperienze di ricerca segnalano che le persone talvolta esprimono con il punteggio scelto la forza del loro sentimenti, indipendentemente dalla direzione; ciò significa che 10 può indicare un intenso sentimento di rifiuto e non un intenso sentimento di favore come atteso. Questa distorsione può essere svelata solo lasciando spazio ai commenti e corretta da un intervistatore attento che istruisca l’intervistato a un uso appropriato della scala.Il termometro dei sentimenti: introdotto nei sondaggi preelettorali condotti negli USA dagli anni ’60 in poi. Si chiama così perché si basa sulla metafora del termometro della temperatura. Il suo obiettivo è rilevare i sentimenti, cioè il grado di simpatia, favore, approvazione che gli individui provano nei confronti di un determinato oggetto, lungo una scala da 0 a 100. Per fare questo si usa disegnare su un cartoncino da porgere all’intervistato proprio la sagoma del termometro della temperatura. Come per la scala di Cantril, la mancanza di autonomia semantica delle risposte, cioè dei numeri che formano la scala, autorizza i ricercatori a trattare le variabili che produce con le tecniche di analisi tipiche delle variabili cardinali. Il termometro dei sentimenti gode della familiarità che i soggetti hanno come strumento di misura – della temperatura – che è parte dell’esperienza quotidiana di tutti. Ciò dovrebbe aiutare il soggetto intervistato a posizionarsi sul continuum proposto. Il termometro dei sentimenti gode di un’altra caratteristica specifica, che è la maggiore sensibilità (estensione) della scala proposta: volendo rilevare caratteristiche o attributi percepiti come continui, che variano cioè per incrementi infinitesimali, una scala così estesa dovrebbe dare all’intervistato la possibilità di indicare con più precisione la sua posizione sul continuum. Esso soffre di tutti i problemi segnalati a proposito della scala Cantril:

• Fenomeno response set• Difficoltà di valutare comparativamente gli oggetti• Una sorta di reazione all’oggetto che può scattare quando si chiede di valutare il sentimento ma qualche

altra caratteristica come la gravità, l’importanza, l’urgenza degli oggetti propositi• Uso parziale della scala

Il termometro rende evidente che alcuni intervistati non usano tutta la scala ma solo una parte di essa per tutti gli oggetti proposti: alcuni solo la parte più bassa, altri solo la parte centrale o solo quella più alta. È difficile prevenire i fenomeni di respose set, perché ciò implicherebbe un forte intervento dell’intervistatore, che dovrebbe richiamare l’attenzione dell’intervistato sulla ripetitività delle sue risposte. Al ricercatore attento non resta che intervenire in sede di analisi, eliminando quei casi che hanno prodotto response set. La difficoltà di valutare comparativamente gli oggetti può essere in parte superata con opportuni accorgimenti durante la somministrazione della scala.

Marradi ha adottato con successo il “termometro con il gadget”, un foglio rigido di grandi dimensioni su cui gli intervistati devono disporre gli oggetti da valutare, stampati in piccoli cartoncini, collocabili sulle tacche del termometro. “La grandezza del foglio fa sì che sia possibile collocare materialmente, su ciascuna delle righe che si estendono ai due lati di ciascuna tacca, fino a sei cartellini con su scritti i nomi degli oggetti da valutare. Tali nomi vengono pertanto scritti su un certo numero di cartellini di colore bianco, in modo che risultino sul fondo colorato del foglio”. All’intervistato viene suggerito di leggere tutti gli oggetti (o frasi) prima di valutarli; considerare con figurativamente collocazioni alternative di tutti gli oggetti sulle diverse tacche del termometro, prima di decidere il punteggio definitivo. Si può raffinare questa procedura imponendo un altro vincolo all’intervistato: quello di non collocare più oggetti nella stessa posizione, allo scopo di scoraggiare quella forma di desiderabilità sociale che induce a dare punteggi ugualmente alti a tutti gli oggetti-valori. L’intera procedura esige il ricorso a intervistatori estremamente attenti, molto preparati e motivati, e richiede un alto investimento di tempo e denaro. L’intervistato non deve avere fretta e deve disporre di un piano di appoggio su cui distendere il gadget, cioè il cartoncino che raffigura il termometro e i vari cartellini-oggetti da disporvi sopra. Una soluzione più semplice è quella di dare all’intervistato un cartoncino con l’elenco degli oggetti da valutare, invitandolo a leggerli e considerarli tutti con attenzione prima di cominciare ad attribuire i punteggi. Così l’intervistato può continuare a tenerli presenti tutti mentre attribuisce un punteggio a ciascun oggetto/frase. In ogni caso, quando valutiamo il costo delle procedure, vale la pena chiedersi se la razionalità economica debba sempre trionfare sulle esigenze scientifiche. Per correggere l’uso idiosincratico della scala – la tendenza cioè a usare solo una parte della scala – vengono proposti correttivi da applicare al momento dell’analisi dei dati. Se gli oggetti da valutare sono in numero consistente e si riferiscono a dimensioni diverse, il ricercatore può trasformare i singoli punteggi in scarti da un valore medio calcolato sul totale dei punteggi che ciascun soggetto ha attribuito a tutti gli oggetti che doveva valutare.Le scale auto ancoranti producono variabili che possiamo trattare con le tecniche statistiche che adeguate al livello cardinale, e ciò perché la scarsissima autonomia semantica delle categorie di risposta produce l’approssimazione migliore possibile all’idea di misurazione nelle scienze umane. Marradi ha proposto la definizione variabili “quasi-cardinali”, in cui il prefisso intende richiamare l’attenzione sulla distanza delle loro definizioni operative dei procedimenti di misurazione e conteggio che legittimamente producono variabili cardinali vere e proprie. Vediamo le peculiarità strutturali e conoscitive delle scale auto ancoranti:L’autonomia semantica delle risposte, in numeri, non è nulla come nel caso della misurazione e del conteggio. Nelle scale auto ancoranti essendo fissati gli estremi, i punteggi 1/10 e 10/100 hanno una carica di significato maggiore di quella che hanno gli esiti di processi di misurazione o conteggio veri e propri. In questi casi, essendo definito solo il minimo, tutte le altre cifre acquistano significato esclusivamente alla luce della caratteristica o attributo considerata e soprattutto della natura degli oggetti esaminati. Le differenze maggiori sono quelle gnoseologiche, imputabili al decisivo intervento dell’intervistato nella determinazione della stessa unità di misura; nel caso della misurazione l’operatore deve applicare unità di misura già convenzionalmente definite a oggetti inanimati o che devono collaborare solo in minima parte al processo di misurazione. Nel caso del conteggio, le unità di conto sono naturali, costituite cioè senza collaborazione da parte del soggetto osservato e dell’osservatore. Nelle scale auto ancoranti è lo stesso soggetto intervistato che dà un giudizio sul suo stato, ma anche sul relativo attributo, e lo esprime con procedure che gli sono poco familiari. Riprendendo Marradi sottolineiamo:

• Nemmeno le caratteristiche che stiamo rilevando è definita univocamente, essendo possibile che ricercatore e soggetti studiati operino ritagli concettuali diversi, concepiscano cioè le caratteristica in questione in maniera completamente diversa. Per effetto di ciò, due soggetti con posizioni e idee molto diverse possono collocarsi alla stessa posizione

• Ogni soggetto deve ancorarsi immaginando il migliore e il peggiore stato possibile sulla caratteristica sottoposta a valutazione. Palesemente questi ancoraggi possono essere diversi da soggetto a soggetto e nello stesso soggetto in tempi e contesti diversi

• L’intervistato può non avere una percezione chiara del suo stato• Il soggetto può volere ingannare il ricercatore: per dare un’immagine socialmente accettabile potrebbe dare

punteggi alti a oggetti che rappresentano valori riconosciuti come positivi o importanti dalle norme prevalenti

• Può avere serie difficoltà a usare la tecnica che il ricercatore gli propone; non possiamo assumere che attribuire punteggi sia una procedura familiare a tutti gli intervistati.

Il compito che si richiede all’intervistato è complesso: deve concepire la caratteristica così come la intende il ricercatore; deve avere una percezione precisa del suo stesso stato; deve avere voglia di rispondere con sincerità; deve essere capace di proiettare il suo stato lungo il continuum attraverso la scala che il ricercatore gli sottopone. Inoltre va aggiunta una perplessità relativa alla posizione centrale, cui è estranea solo la scala Lickert, ove le posizioni sono interpretate semanticamente e quella centrale è indicata con l’etichetta “indifferente”.

11° CAPITOLO: DALL’ORGANIZZAZIONE DELLE INFORMAZIONI ALLA MATRICE DEI DATI. L’organizzazione delle informazioni costituisce la conclusione della fase di rilevazione e insieme l’inizio dell’analisi dei dati. Nelle ricerche quantitative, le informazioni devono essere trasformate in variabili e organizzate in matrici-dati; nelle ricerche qualitative, i materiali raccolti verranno prima organizzati e classificati, laddove necessario trascritti, ed elaborati in diversi modi per trarne le necessarie informazioni. Si può parlare di codifica in entrambi i casi, in quanto si tratta della trasformazione del materiale raccolto in fase di rilevazione in informazioni significative, il “dato”. Mentre nella ricerca qualitative il processo di codifica avviene di solito congiuntamente al processo di analisi, e rappresenta un importante prodotto dell’analisi stessa, nella ricerca quantitativa la codifica delle variabili viene in larga parte stabilita prima della rilevazione. Unità di analisi, casi e variabili: lo strumento fondamentale di organizzazione delle informazioni per l’analisi statistica è rappresentato dalla matrice dei dati o casi per variabili (C x V), ovvero il quadro degli CV elementi disposti su C righe (C= numero dei casi) e V colonne (V= numero delle variabili). Tali elementi sono i dati, unità informative codificate relative a ciascuna variabile, per ciascun caso. La matrice è una tabella in cui vengo trascritte tutte le informazioni raccolte per tutti i casi studiati. Una variabile è una caratteristica (carattere) che può presentarsi in forme diverse e assumere stati diversi (modalità). Il portatore in astratto del carattere in oggetto si chiama unità di analisi: l’appartenenza religiosa è una caratteristica delle persone ma è una caratteristica che può essere riferita in termini generali e astratti a tutti gli esseri umani. Sarà possibile rilevare il carattere solo negli abitanti di un certo territorio e in un dato momento di tempo: la nostra popolazione di riferimento, l’insieme dei portatori potenziali ma concreti del carattere che ci interessa. I casi sono i portatori dei caratteri effettivamente inclusi nell’indagine e per i quali abbiamo rilevato le modalità delle nostre variabili.

La matrice non deve presentare celle vuote. Di conseguenza:• Dobbiamo usare le stesse variabili per studiare ogni caso• I casi della matrice devono essere tutti dello stesso tipo

Se per la nostra indagine è necessario studiare unità di analisi diverse, si dovranno costruire matrici diverse; se capita che alcune informazioni non siano disponibili, si dovrà pensare ad una codifica per i cosiddetti valori mancanti.Tipi di variabili: a secondo di come sono costruite e codificate, le variabili hanno proprietà logico-formali diverse, prestandosi a operazioni matematico-statistiche diverse. Stevens distingue quattro livelli di “misurazione”, ordinati in senso crescente in base alle loro proprietà formali: nominale, ordinale, intervallare e di rapporti. Ognuno di queste gode anche delle proprietà di quelle precedenti: una variabile intervallare può essere trattata anche come ordinale, ma non il contrarioLe mutabili o variabili categoriali: i caratteri discreti, come l’appartenenza religiosa, assumo stati finiti e non frazionabili; i caratteri continui, come l’altezza, possono assumere infiniti stati intermedi dato un certo intervallo fra due valori. Abbiamo una variabile nominale o categoriale o mutabile quando il carattere assume stati discreti non ordinabili. L’operazione di costruzione di una variabile di questo tipo è detta classificazione, in quanto consiste nell’assegnazione dei casi a classi o categorie, che devono essere nel complesso esaustive (consentire la collocazione di ogni caso studiato) e mutuamente esclusive (tali che ogni caso possa essere attribuito a una e una sola categoria. Questi due criteri si applicano a tutti i tipi di variabili. Sulla base di una variabile nominale, possiamo stabilire se due casi sono uguali o diversi rispetto al carattere in oggetto: non possiamo intervenire con nessun tipo di operazione aritmetica sulle modalità, anche se possiamo lavorare sul numero di casi collocati entro le categorie. Le modalità delle variabili nominali andrebbero codificate mediante caratteri alfabetici. In realtà può essere più comodo usare codici numerici, che però andranno considerati come caratteri alfabetici. Poiché inoltre le categorie non sono ordinabili, non esiste una regola per la codifica delle modalità. Alcune variabili nominali, come il “genere”, presentano solo due modalità e si dicono dicotomiche. Vi sono tre possibili codifiche per questo tipo di variabili; due sono quelle viste per le variabili nominali,; la terza, detta codifica disgiuntiva, utilizza per ciascuna modalità di risposta della variabile il codice “0” per indicare l’assenza di quella modalità e codice “1” per indicarne la presenza. Poiché le variabili dicotomiche o codificate come tali presentano alcune importanti caratteristiche delle variabili cardinali, può essere utile dicotomizzare anche variabili nominali più articolate. Se non è strettamente richiesto dall’analisi dei dati, è però consigliabile procedere alla “solita” codifica 1/2. Quando il carattere assume stati discreti ma ordinabili abbiamo una variabile ordinale. La posizione di ciascuna modalità rispetto alle altre è detta rango e l’eventuale assegnazione di etichette numeriche alle modalità seguirà l’ordine del rango stesso. Poiché le loro modalità non rappresentano grandezze, ma classi o categorie, le variabili nominali e ordinali vengono chiamate variabili categoriali o mutabili. Per la codifica delle variabili ordinali, è da preferirsi l’uso di codici numerici, che consente di rappresentare il rango delle modalità, dal più basso al più

elevato. Anche le scale di atteggiamento di tipo Lickert sono variabili ordinali e le loro modalità vanno codificate in base a questo stesso criterio, indicando cioè con “1” il massimo disaccordo e con “5 o 7” il massimo accordo. Bisogna fare attenzione nella codifica degli eventuali items a polarità invertita, che sottopongono cioè al giudizio dell’intervistato un’affermazione negativa sull’oggetto di indagine: in questi casi il valore più alto corrisponde al polo negativo della scala, ed è necessario invertire i codici, affinché i valori di tutti gli items della scala vadano nella stessa direzione. Per evitare confusione in sede di analisi dei risultati, sarà necessario modificare il nome o l’etichetta di variabile nello stesso senso.Le variabili cardinali: mentre nella codifica delle variabili nominali e ordinali i codici numerici sono usati per rappresentare le modalità o il rango delle modalità ma non la distanza fra queste, nelle variabili cardinali i codici numerici rappresentano anche tale distanza, ed essendo numeri a tutti gli effetti, è possibile attribuire loro le proprietà cardinali dei numeri naturali e parlare di misurazione e di scale in senso proprio.Le variabili intervallari possono essere considerate come una trasformazione delle variabili ordinali, mediante l’introduzione di un’unità di misura (normalizzazione). La scala intervallare è detta anche scala di posizione, in quanto misura la variazione fra due grandezze in rapporto alla loro posizione relativa, assumendone, arbitrariamente, una come origine (zero convenzionale): le intensità di queste scale possono essere sommate e sottratte, ma non essere messe in rapporto fra di loro. Adottando una scala di rapporti o scala assoluta è possibile comparare due oggetti in termini di rapporti o proporzioni fra grandezze, e anche misurare gli incrementi relativi al carattere. Se il passaggio dal livello categoriale a quello cardinale (misurazione) è dato dall’introduzione dell’unità di misura, il passaggio dal livello intervallare a quello di rapporti è dato dall’esistenza di uno zero assoluto. Per le variabili cardinali non si pone il problema della codifica delle modalità, rappresentate da numeri naturali, il cui significato sarà univocamente determinato dal nome della variabile: stabilita l’etichetta della variabile, non dobbiamo fare altro che inserire i valori. La costruzione della matrice dei dati: è possibile organizzare in matrice anche i dati estratti dai “materiali qualitativi” passando attraverso specifiche procedure di analisi del contenuto, volte a strutturare le informazioni in essi contenute. Terminata la rilevazione, la prima cosa da fare è assegnare alle schede di rilevazione un identificativo univoco che dovrà essere utilizzato anche come identificativo di caso nella matrice: una colonna del foglio di calcolo sarà dedicata a questo. Sarà così possibile, se dovessero rendersi necessari controlli e correzioni, risalire dai dati nella matrice alle relative schede cartacee e viceversa. Il criterio di identificazione dovrà essere stabilito ex ante, mentre la procedura dovrà essere materialmente seguita da un solo responsabile, per evitare che due schede di rilevazione abbiano lo stesso identificativo. Successivamente si procede a una attenta rilettura delle schede di rilevazione, per la correzione degli errori più evidenti. Durante la rilevazione si verificano sempre errori tanto a carico dell’intervistato quanto dell’intervistatore, che può saltare una o più domande, o anche trascrivere erroneamente le risposte o i dati. Nonostante si possano fare correzioni, i cosiddetti controlli di congruenza, possano essere eseguite anche sulla matrice dei dati, e con procedure automatiche, è dunque preferibile una prima attenta rilettura delle schede. La rilettura dei questionari si rende in particolare necessaria quando si debbano “chiudere” le domande aperte, codificare cioè le risposte date dagli intervistati a domande che non prevedevano alternative precodificato. Questo lavoro deve precedere l’inserimento dei dati e può essere effettuata:

• A partire da categorie concettuali definite ex ante→è da preferire in quanto porta a definire categorie di risposta che si dispongono su un continuum concettuale unitario e coerente e a costruire variabili più significative. È un metodo particolarmente indicato laddove il ricercatore abbia deciso di lasciare aperta la domanda per non presentare all’intervistato un numero troppo elevato di alternative di risposta.

• Induttivamente, a partire dalle risposte stesse→il ricercatore potrebbe aver lasciato aperte le domande per recepire “il punto di vista degli intervistati” e, procedendo induttivamente, riuscirà a rappresentare in modo più fedele le risposte ricevute. In questo caso le dimensioni concettuali vengono tratte dalla lettura delle risposte, mentre le categorie delle variabili vengono solitamente stabilite dal ricercatore in modo da soddisfare i requisiti di esaustività e mutua esclusività.

Il code-book: è l’insieme delle istruzioni necessarie ad attribuire i codici alle informazioni e trasformarle nei dati che saranno organizzati in matrice mediante un foglio elettronico o data base. Il code book dovrà riportare la corrispondenza fra le domande del questionario e le variabili della matrice, nonché la codifica delle variabili stesse. Deve possedere caratteristiche di massima chiarezza e rappresentare una guida da tenere presente già in fase di rilevazione, anche perché già subito dopo la sua conclusione sarà necessario intervenire sulle schede per prepararle alle successive fasi di codifica e inserimento dati. La codifica di una variabile consiste nell’attribuzione alla variabile stessa di un nome sintetico e di un’etichetta estesa. Le operazioni di codifica possono peraltro essere enormemente semplificate inserendo i codici già nel questionario o nella scheda di rilevazione. Nella matrice dei dati, ogni riga corrisponde a un caso e ogni colonna a una variabile. In ogni cella del foglio di lavoro potremo dunque inserire una e una sola risposta codificata. Nel caso dei questionari, bisogna fare attenzione al fatto che non sempre vi è corrispondenza fra domande e variabili: alcune domande consentono o richiedono cioè all’intervistato

di dare più di una risposta. Il problema è quello di non perdere il riferimento alla domanda del questionario nel code-book.La codifica dei valori mancanti: poiché nella matrice non si debbono avere celle vuote, vanno previsti codici anche per le informazioni mancanti, cioè per quelle situazioni in cui l’intervistato non sa rispondere; non vuole rispondere oppure in cui la domanda non è pertinente. In alcune situazioni di ricerca può essere necessario tenere distinte queste tre situazioni; in altri, possiamo decidere di utilizzare un solo codice per tutte. È comunque consigliabile prevedere uno o più codici per questi casi, già nel questionario, sia per evitare di interpretare come mancante risposte eventuali dimenticanze dell’intervistatore; sia anche per ridurre questo tipo di errori nel corso dell’intervista, richiamando l’attenzione dell’intervistatore su ogni singola domanda. Per le variabili categoriali, possiamo utilizzare il valore “0” per le mancate risposte e valori chiaramente fuori range per le risposte non dovute. Tenendo conto che Spss legge come valori mancanti di sistema le celle vuote delle variabili che utilizzano codici numerici, possiamo prevedere nel questionario una casella da barrare per le mancate risposte e lasciare vuota la cella corrispondente della matrice. Tipi di informazioni non strutturate: i materiali qualitatitivi possono essere di tre tipi: testi, materiali audio e materiali audio-visuali. I più utilizzati nelle ricerche sociali sono le trascrizioni di interviste, effettuate con sistemi e criteri diversi, a seconda del tipo di analisi prevista e di orientamento interpretativo adottato. A queste si accompagnano talora gli appunti presi durante la registrazione, che a volte sono l’unica traccia dell’intervista. La ricerca biografica, oltre alle interviste, utilizza altri materiali bibliografici, come diari, lettere ecc..Negli studi di caso e nelle ricerche etnografiche giocano un ruolo determinante le note osservative. Esse possono servire anche durante una rilevazione condotta con strumenti strutturati, per coadiuvare l’interpretazione dei risultati o l’analisi della situazione di ricerca dal punto di vista metodologico. Possono essere più o meno sistematiche e strutturate, dirette o riflessive, rielaborate cioè durante l’intervista. Sono preinterpretazioni della realtà osservata da parte del ricercatore, in quanto osservare è interpretare.Anche il diario etnografico può rilevarsi uno strumento fondamentale per l’ordinamento e la corretta archiviazione dei materiali informativi raccolti sul campo, in quanto registra le azioni intraprese nel corso dell’indagine, in ordine cronologico, e riporta le impressioni personali del ricercatore.Infine ci sono i documenti “naturali”, testi prodotti indipendentemente e con scopi del tutto diversi da quelli di ricerca, e raccolti dal ricercatore in quanto testimonianze o fonti di informazione o dati.Un altro tipo di materiali qualitativi è rappresentato dai materiali audio, fra i quali i più diffusi sono le registrazioni di interviste, individuali o di gruppo, che vengono utilizzate, congiuntamente spesso alle trascrizioni, in quanto, rispetto ad esse, contengono molte più informazioni.L’organizzazione dei materiali informativi: il problema dell’archiviazione dei materiali si pone sin dai primi passi della ricerca, pena il rischio di arenarsi ben presto in fase di analisi: man mano che si accumulano informazioni diventa sempre più difficile trovare quello che serve sul momento. Questa è una delle ragiono per cui è fondamentale risistemare il materiale prodotto, prendere immediatamente nota delle impressioni avute e soprattutto classificare e archiviare i materiali in maniera che siano facilmente recuperabili. L’altra ragione è che questa prima analisi aiuterà a specificare gli interrogativi che guidano l’indagine, orientando la ricerca delle informazioni, nonché la sintesi e la cernita di quelle già raccolte. Questa prima analisi darà a sua volta origine a ulteriori materiali: le note riflessive e/o i cosiddetti memo.L’archiviazione dei materiali: anche se quasi tutti gli autori concordano sul fatto che gran parte del materiale raccolto non verrà effettivamente utilizzato in fase di anali, il problema è che non esiste un modo per sapere prima cosa si rileverà determinante e cosa del tutto superfluo. Sarà bene archiviare tutti i materiali in ordine cronologico man mano che vengono raccolti, classificandoli mediante una scheda informativa che riporterà identificativo, luogo e data da raccolta, nome del ricercatore, nome del soggetto o dell’oggetto sui l’iter fa riferimento, una sintesi dei principali contenuti, altri eventuali informazioni che si riterranno necessarie. Il ricercatore potrà anche organizzare un data base delle schede informative, sebbene oggi la gestione dei materiali qualitativi sia resa enormemente più semplice dai nuovi programmi per l’analisi qualitativa computer-assistita.La codifica e la riduzione dei dati: l’ archiviazione dei materiali informativi raccolti, in ordine cronologico e basata su una prima classificazione di massima dei contenuti, avviene durante la rilevazione; alla fine della rilevazione, sarà necessario procedere a una classificazione tematica dei materiali e dei contenuti, che costituisce l’inizio dell’analisi dei risultati propriamente detta. Si parla di riduzione dei dati per riferirsi a questa drastica selezione delle informazioni che verranno utilizzate ai fini dell’analisi. Una procedura diffusa è quella che prevede tre fasi successive:

• Una lettura generale di tutti i materiali testuali, che serve a individuare i principali temi “emergenti”• La classificazione degli items e/o di loro porzioni in base ai temi generali, momento in cui si cominciano a

selezionare i materiali rilevanti e a scartare gli altri• La definizione di categorie interpretative più dettagliate all’interno dei temi prescelti, che comporterà

un’ulteriore riduzione dei materiali → fase importante e delicata, in quanto l’analisi sistematica dei contenuti inizia proprio da questa selezione, che dovrà essere accuratamente argomentata del report di ricerca.

Questa procedura è comune ai diversi orientamenti analitici che possiamo rintracciare in letteratura: dalla grounded theory agli approcci più informali; dagli approcci “testuali” a quelli “realistici”.La gestione computer-assistita dei materiali qualitativi: la letteratura metodologica relativa ai programmi utilizzati si è concentrata sul modo in cui questi programmi supportano il ricercatore nel lavoro di analisi dei testi, mentre scarsa attenzione è stata dedicata alle potenzialità che offrono di organizzare i materiali in maniera sistematica e nel contempo flessibile, come richiesto dalle procedure di analisi qualitative. I CAQDAS (analisi computer-assistita dei dati qualitativi) possiedono molte caratteristiche in comune: anzitutto sono organizzati in progetti, al cui interno è possibile organizzare tutti i diversi materiali raccolti. Etnograph e Atlas consentono di organizzare i materiali in base a criteri diversi, ma, per quanto riguarda in particolare l’organizzazione delle informazioni, sono ampiamente equivalenti.Etnograph è stato esplicitamente progettato per l’analisi etnografica e dedica grande attenzione alla catalogazione dei documenti: per ogni file di dati inserito nel progetto crea una face sheet, che può svolgere le funzioni di scheda informativa, trattandosi di un insieme di informazioni che riguardano il file, una lista di variabili che potranno essere usate come filtro, durante l’analisi p per il data retrieval. Quando vorremo ritrovare il file, basterà fare riferimento all’indicativo oppure cercare fra i files che corrispondono alle caratteristiche che conosciamo. Qui abbiamo lo strumento dell’identifier sheet, che svolge la stessa funzione del face sheet. Con questo programma il lavoro rimane puramente descrittivo e classificatorioIn Atlas ci sono le famiglie di documenti, che vanno considerate come classi, nelle quali possiamo collocare i files. Le famiglie ci consentiranno di recuperare i documenti in base alla caratteristiche che ci interessano e di analizzarli comparativamente. Le famiglie, proprio per la loro flessibilità, saranno molto utili per costruire tipologie, procedendo per tentativi ed errori, a partire da “somiglianze e dissomiglianze”. Questo programma è stato pensato per fare grounded theory e mostra la sua utilità quando si voglia arrivare a costruire costrutti teorici.Un’altra funzione di tutti i CAQDAS è la possibilità di allargare commenti e appunti al progetto, ai singoli documenti in esso contenuti, a proporzioni di testo, ai codici nonché alle famiglie. Questi appunti, detti memos, possono essere a loro volta organizzati e classificati: in E. con un forum recante le informazioni principali, in A. con le famiglie. Sarà così facile ritrovare gli appunti, modificarli e anche elaborarli in vista dell’analisi e della presentazione dei risultati. La riduzione dei dati viene effettuata attraverso la codifica del testo, più o meno analitica, dettagliata e articolate, a seconda degli obiettivi dell’indagine. Si tratta della funzionalità più nota di questi programmi, che consiste nella selezione di porzioni di testo, dette citazioni, alla quale può essere attribuita un’etichetta, il codice, che potrà essere descrittiva e richiamare i termini del testo stesso, o al contrario teoricamente orientata e astratta. Ai codici potranno essere associate definizioni e/o commenti e appunti. In questa prima fase, al di là dell’orientamento analitico prescelto, la codifica dovrà servire a classificare e soprattutto selezionare i materiali informativi più significativi, per poter andare avanti nell’analisi su un corpus parzialmente ridotto.12° CAPITOLO: L’ANALISI STATISTICA DEI DATI, CASI, VARIABILI, ANALISI MONOVARIATA.Funzioni dell’analisi statistica dei dati: l’analisi dei dati è costituita da un variegato insieme di operazioni statistiche attraverso le quali si producono asserti e spiegazioni che riguardano i dati stessi. Il modo tipico della ricerca “standard” consiste nell’adozione di procedure di calcolo impersonali e automatiche. I principali obiettivi dell’analisi statistica sono:

• L’esplorazione, la descrizione, la sintesi e la classificazione dei dati relativi all’oggetto di studio• L’analisi delle relazioni fra le variabili che in ipotesi sono ritenute rilevanti in connessione con l’oggetto di

studio• La previsione di stati futuri che riguardano l’oggetto di studio

Si individuano quattro livelli di analisi:• La preanalisi dei dati• Il livello monovariato → si studia l’andamento delle variabili rilevate una per una; si esamina la plausibilità

dei valori; si descrivono le loro distribuzioni, calcolando alcuni valori caratteristici, quali quelli di concentrazione, di dispersione, di posizione e della forma della distribuzione. Se ben condotta, l’analisi monovariata consente di svolgere i maniera più efficacie le successive elaborazioni bivariate e multivariate.

• Il livello bivariato→ si analizza la distribuzione congiunta di due variabili, in modo da evidenziare se esista o no, che forma e che forza abbia, una dipendenza funzionale o relazione statistica fra loro. Prima di poter controllare unìipotesi di relazione causale tra due variabili, si devono accertare almeno quattro aspetti:

• L’esistenza della relazione• La forma della relazione• La forza della relazione

• La genuinità della relazione bivariata: anche se la relazione analizzata non è imputabile agli effetti del caso, rimane la possibilità che essa sia dovuta all’effetto di una terza variabile che non stiamo prendendo in considerazione, ossia che si tratti di una relazione definita “spuria”.A queste domande rispondono strumenti logico-statistici diversi:

• I coefficienti di significatività statistica• I coefficiente di associazione statistica• L’analisi di opportune rappresentazioni grafiche della relazione bivariata• L’analisi multivariata• Il livello multivariato→ vengono prese in considerazione simultaneamente più di due variabili. Gli obiettivi

sono due:• L’esplorazione, descrizione, sintesi e classificazione dei dati• L’individuazione di relazioni tra un insieme di variabili secondo determinati modelli teorici.

La preanalisi dei dati: queste procedure sono necessarie affinché le successive operazioni di analisi dei dati, semplici o complesse che siano, possano essere condotte efficacemente. Si tratta di operazioni di gestione e manipolazione delle variabili e dei rispettivi valori finalizzate a:

• Etichettare le variabili e le modalità• Definire il trattamento dei dati mancanti• Ricodificare le categorie di alcune variabili• Costruire nuove variabili a partire da altre variabili presenti nella matrice dei dati• Ponderare i casi, normalizzare e standardizzare i dati• Deflazionare i dati

Non è sempre necessario svolgere tutte le operazioni indicate. Ciò dipende dal tipo di variabili di cui si dispone e dal tipo di procedura statistica che si intende successivamente applicare alle variabili poste sotto analisi.Etichettare variabili e modalità: operazione fondamentale per ottenere delle tabelle e dei grafici facilmente interpretabili. Per le variabili cardinali è necessario solo etichettare la variabile in quanto i suoi valori sono espressi in funzione di un’unità di misura o di conto. Si deve tenere presente che tutti i programmi di analisi dei dati prevedono due etichette assegnabili alla stessa variabile. La prima è l’etichetta breve, di solito limitata a otto-dieci caratteri, ed è quella che viene immessa nell’intestazione della colonna corrispondente sulla matrice dei dati; la seconda è l’etichetta estesa ed è utilizzata nei risultati delle elaborazioni. Per le variabili categoriali è necessario assegnare etichette anche ai rispettivi valori. Questo perché i numeri presenti sulla matrice hanno solo un significato simbolico utile a distinguere una categoria dalle altre. In sostanza si tratta di incorporare nel file contenente la matrice dei dati parte del code-book in modo da rendere immediatamente comprensibili i risultati. È infatti possibile salvare sul file dati anche tutte le informazioni che riguardano le variabili e le eventuali trasformazioni che su di esse si sono operate.Trattare i dati mancanti: per eseguire la procedura di analisi statistica dei dati è necessario che tutti i casi della matrice abbiano un dato su ciascuna delle variabili presenti nella stessa. I dati mancanti possono dipendere:

• Dal modo in cui è somministrato il questionario: è noto come le informazioni mancanti crescano gradualmente nel passare dai questionari somministrati da un intervistatore in una intervista faccia a faccia con l’intervistato, a quelli somministrati per telefono, a quelli autosomministrati.

• Dal tipo di domandaLa mancanza di informazioni può rendere alcune variabili del tutto inutilizzabili; ciò accade particolarmente quando si snodano aspetti legati alla privacy degli individui. Indipendentemente dalle cause che li hanno prodotti, i dati mancanti richiedono un trattamento opportuno prima che si possa procedere con l’analisi dei dati. Quando si produce la matrice dei dati è necessario assegnare un codice specifico per ciascuna variabile che presenta dei dati mancanti. Grazie a questi codici numerici è sempre possibile chiedere al programma di analisi dei dati di espungerli dalle procedure di analisi, in modo da ottenere dei risultati basati solo sui valori effettivamente presenti nella matrice dei dati, al netto quindi dei valori mancanti. Quando le informazioni mancanti non si discostano molto da un livello fisiologico è consigliabile limitarsi a escludere dalle procedure di analisi dei dati. In altri casi, quando questi riguardino alcune variabili di particolare interesse per la ricerca, o quando il loro ammontare sia più ingente del livello fisiologico, si possono trattare i codici assegnati ai valori mancanti come una etichetta di una nuova categoria: la “mancata risposta”. Alcune tecniche di analisi, come le tabella di frequenza e le tabelle di contingenza, possono riportare i dati mancanti in righe e in colonne riservate. Nelle procedure di analisi multivariata, quando si considerano simultaneamente più variabili, la presenza dei dati mancanti anche in una sola variabile comporta l’esclusione integrale dei casi che li presentano. Per prima cosa è utile distinguere la mancata risposta totale a un questionario da quella specifica a una certa domanda. Nel primo caso, la scelta abituale consiste nell’eliminazione integrale di quel soggetto, cioè nella cancellazione della riga della matrice dei dati corrispondente a quel soggetto. Nel secondo caso si tenta di sostituire i dati mancanti cercando di salvaguardare l’assetto globale del campione e non lo stato di quel caso che li presenta. Eliminare l’intero caso per pochi dati mancanti è spesso inopportuno, in

quanto ciò comporta la perdita di tutte le informazioni fornite e, in generale, l’eliminazione di troppi casi. Per le variabili categoriali non ordinate, i dati mancanti possono essere sostituiti con una nuova categoria di risposta corrispondente a “non so”, “non risponde”. Per le variabili con categorie ordinate, per le quasi-cardinali e per le cardinali è possibile sostituire il dato mancante con un valore centrale della distribuzione di quella variabile. Il ricorso ai valori centrali è legittimo solo se la distribuzione della variabile è simmetrica in quanto in questo caso essi non alterano la distribuzione generale delle risposte. In tutti gli altri casi in cui le distribuzioni delle variabili sono asimmetriche, l’uso dei valori centrali comporta gravi distorsioni. Se questa soluzione minimizza l’errore prevedibile sul singolo soggetto dovuto allo scarto tra il suo stato effettivo e quello centrale con cui è sostituito, preservando così la media della distribuzione, essa peraltro produce una diminuzione della varianza. L’insieme dei valori mancanti di una stessa variabile, presumibilmente diversi tra loro, si concentra artificiosamente sull’unico valore centrale.In generale possiamo affermare che tutte le tecniche proposte presentano il difetto di fondarsi sull’ipotesi, molto inverosimile che i dati mancanti siano distribuiti uniformemente e casualmente nell’intero campione. Al contrario, ogni volta che sono state effettuate delle analisi approfondite sulle distribuzioni delle mancate risposte, si è sempre rilevato che queste non si distribuiscono affatto in modo casuale. La sostituzione dei valori mancanti, valutazioni ottimistiche circa la fedeltà dei dati presenti in matrice, quando vengono utilizzati per sostituire o stimare i dati mancanti, e ulteriori distorsioni quando si analizzano le relazioni tra le variabili. Si deve concludere che le tecniche presentate devono essere applicate in modo critico valutando con attenzione il tipo di variabile su cui operare il trattamento e analizzando il rapporto costi/benefici dello stesso. Quando i dati mancanti sono nei limiti fisiologici, è preferibile limitarsi a escluderli dall’analisi dei dati; quando la loro incidenza pregiudica il ricorso a particolari tecniche di analisi è consigliabile prima indagare sugli eventuali motivi delle mancate risposte e poi scegliere la maniera di sostituirli che minimizzi la distorsione che inevitabilmente si introduce. Il problema dei dati mancanti non ha una soluzione definitiva e generale; tanto meno sono definibili precisamente delle soglie di accettabilità dell’incidenza di informazioni mancanti.