Introduzione alla sociologia empirica

75
Introduzione alla sociologia empirica Metodo e tecniche della ricerca sociale Corso di laurea triennale in Sociologia Anno accademico 2020-2021 Prof. Giovanni Di Franco Slides prima settimana

Transcript of Introduzione alla sociologia empirica

Introduzione alla sociologia

empiricaMetodo e

tecniche della ricerca sociale

• Corso di laurea triennale in Sociologia• Anno accademico 2020-2021• Prof. Giovanni Di Franco• Slides prima settimana

Calendario delle lezioni• mercoledì ore 10,00-12,00 aula C -

Scienze Politiche - CU002; link per partecipare alla lezione a distanza: https://uniroma1.zoom.us/j/87385974532?pwd=NEtBL0VRa0pncUlpR0YvdHZuRUxUdz09

• giovedì ore 12,00-14,00 aula GINESTRA - Dipartimento di Chimica - plesso S. CannizzaroCU014; link per partecipare alla lezione a distanza: https://meet.google.com/fjk-xhvm-own

• venerdì ore 10,00-12,00 aula GINESTRA - Dipartimento di Chimica - plesso S. CannizzaroCU014; link per partecipare alla lezione a distanza: https://meet.google.com/fjk-xhvm-own

• Inizio delle lezioni mercoledì 7 ottobre 2020.

Indirizzi web cattedra e classroom

• http://www.diss.uniroma1.it/moodle2/course/view.php?id=1176

• https://classroom.google.com/c/MTY0MTU3MDA3MjMw?cjc=2b6xfdu

PROGRAMMA del CORSOPrimo modulo:

• Introduzione alla metodologia della ricerca sociale

• la formulazione del problema scientifico e l’impostazione di un disegno della ricerca empirica.

• La rilevazione dei fenomeni sociali per il controllo empirico delle ipotesi nelle scienze sociali.

• Procedure di concettualizzazione e definizione operativa dei concetti.

• La classificazione, la misurazione e il conteggio.

• Concetti-termini, dimensioni, indicatori, variabili e indici.

• Contesti, tipi e funzioni degli indicatori. • Tipi di disegni di ricerca sociale: descrittivo-

esplorativo, esplicativo. • Ricerca di sfondo, osservazione ed

esperimento. • Tecniche di raccolta dei dati: tipi di

intervista, analisi secondaria dei dati, analisi del contenuto, analisi di documenti, storie di vita, focus group.

• L’inchiesta campionaria. Tipi di questionario e strategie di codifica.

PROGRAMMA del CORSOSecondo modulo:

• Tecniche di analisi dei dati. • Costruzione della matrice dei dati.• Principi di analisi monovariata.• Principi di analisi dei dati bivariata.• Analisi trivariata.• Tecniche di costruzione degli indici.• I concetti di attendibilità, validità

fedeltà.• Approccio multicriterio-multitecnica. • Tecniche e modelli di analisi

multivariata dei dati: analisi in componenti principali, analisi delle corrispondenze multiple, analisi dei gruppi, analisi discriminante, regressione lineare, analisi fattoriale, modelli log-lineari, regressione logistica.

Testi adottati• 1. Di Franco G., 2020, Introduzione

alla sociologia empirica. Metodo e tecniche della ricerca sociale. Milano, Franco Angeli;

• 2. Di Franco G., 2010, Il campionamento nelle scienze umane, Teoria e pratica. Milano, Franco Angeli;

• 3. Di Franco G., 2011, Dalla matrice dei dati all’analisi trivariata. Introduzione all’analisi dei dati. Milano, Franco Angeli

• 4. Di Franco G., 2017, Tecniche e modelli di analisi multivariata. Nuova edizione ampliata e aggiornata, Milano, Franco Angeli;

• 5. Marradi A., 2019, Tutti redigono questionari. Ma è davvero cosìfacile? Milano, Franco Angeli.

Altre informazioni• Prerequisiti aver sostenuto l'esame di

statistica• Modalità di valutazione Per superare l’esame

occorre conseguire un voto non inferiore a 18/30. Lo studente deve dimostrare di avere acquisito una conoscenza sufficiente degli argomenti principali della metodologia e delle tecniche di ricerca delle scienze sociali, una conoscenza di base delle procedure di analisi multivariata e di essere in grado di individuare i tratti salienti di una ricerca empirica nelle scienze sociali. Per conseguire il massimo dei voti (30/30) lo studente deve dimostrare di avere acquisito una completa conoscenza di tutti gli argomenti trattati durante il corso, essendo in grado di raccordarli in modo logico e coerente e dimostrando l’acquisizione di una proprietà di linguaggio nel campo della metodologia della ricerca sociale.

• A partire da mercoledì 23.09.2020 il ricevimento studenti sarà erogato a distanza via email ([email protected]) o via conferenza telematica di mercoledì dalle ore 14,00-16,00 e di giovedì dalle ore 9,30 alle ore 11,30.

• L’illuminismo è l’uscita dell’uomo dallo stato di minorità che egli deve imputare a se stesso. Minorità è l’incapacità di valersi del proprio intelletto senza la guida di un altro. Imputabile a se stesso è questa minorità, se la causa di essa non dipende da difetto di intelligenza, ma dalla mancanza di decisione e del coraggio di far uso del proprio intelletto senza essere guidati da un altro. Sapere aude! Abbi il coraggio di servirti della tua propria intelligenza! È questo il motto dell’illuminismo. (I. Kant)

1. Il metodo e le tecniche• Il termine ‘scienza’ definisce una forma di

conoscenza empirica istituzionalizzata, ottenuta mediante regole condivise da una comunità di specialisti.

• ‘gnoseologia’ definisce la disciplina che studia le forme e i modi attraverso cui produciamo in generale conoscenza.

• ‘Epistemologia’ – ‘filosofia della scienza’ nel mondo anglosassone – è la riflessione sulla conoscenza scientifica.

• La ‘metodologia’ di una data disciplina consiste nelle riflessioni sul metodo e sulle tecniche usate in quel dato ambito disciplinare.

• ‘Metodo’ andrebbe usato in accezioni molto alte e generali, facendo riferimento ai processi mentali che bilanciano mezzi e fini o scelgono fra tecniche pre-esistenti in vista di un obiettivo cognitivo.

• ‘tecnica’ si intende un procedimento pre-confezionato, codificato e relativamente generale che non mette in discussione gli obiettivi della ricerca in cui è impiegato.

Una metodologia illuminista contrapposta

alla concezione scientista del metodo

• Dalla sua nascita la sociologia èuna disciplina dallo statuto incerto, in uno stato di crisi perenne, divisa all’interno fra scuole contrapposte, e giudicata dall’esterno in modo spesso sarcastico.

• Quante volte con un certo imbarazzo noi sociologi abbiamo dovuto rispondere a domande come “a che serve la sociologia?”, “che cosa studia un sociologo?”...

• Quasi mai queste domande sono rivolte a un ricercatore delle scienze fisico-naturali, anche se, di solito quasi nessuno abbia la minima idea di che cosa faccia un bio-chimico, un fisico nucleare, ecc.

• Gli approcci che prendono a modello le scienze fisico-naturalisfruttano il prestigio sociale che queste discipline si sono guadagnate nel corso di secoli di storia. Per i ricercatori delle scienze umane, il credo scientista consiste in una traslazione della celebre frase di Newton: “Se ho potuto vedere più lontano degli altri, è perché sono salito sulle spalle di giganti”.

• Per i ricercatori delle scienze umane questo motto assume il significato di un’adesione ideologica a un’immagine stereotipata di scienza fondata principalmente sui tre termini feticcio del sillogismo scientista: ‘misurazione’, ‘esperimento’ e ‘legge’. L’effetto pratico di questa adesione al credo scientista èpraticamente nullo, perché da sempre in sociologia non si propongono leggi, le ricerche spacciate come esperimenti sono dei conati imitativi, e le uniche unità di misura di cui disponiamo sono prese da astronomia (tempo) e fisica (spazio).

• L’effetto si manifesta solo sul piano retorico, ma su quel piano èpervasivo: i termini-feticcio sono usati regolarmente anche da quelli che li dovrebbero – per un minimo di coerenza – rifiutare, come i fautori degli approcci non-standard.

• Questa adesione allo scientismo ha ridotto i sociologi in uno stato di minorità nei confronti dei ricercatori di altre discipline.

• Per quasi due secoli, a causa di questo senso di inferiorità, i ricercatori sociali hanno dovuto pensare con la testa di altri (fisici, chimici, biologi, etc.) su problemi propri di altre discipline.

• Se si riuscisse a superare l’ideologia scientista, si potrebbe finalmente giungere ad una sociologia fatta da ricercatori concentrati sui problemi propri e in grado di adottare i procedimenti adatti a trovare delle risposte sociologicamente pregnanti. Seguendo l’insegnamento di Kant si arriverebbe così al superamento dello stato di inferiorità (minorità) che segnerebbe l’inizio di una metodologia illuminista delle scienze umane.

1.Introduzione al dibattito sul metodo

scientifico

• Le tesi fondamentali del positivismo sono tre:

• 1) il metodo scientifico èunico;

• 2) la spiegazione scientifica èla spiegazione causaleindividuando leggi;

• 3) il metodo delle scienze naturali è il modello ideale in base al quale misurare il grado di sviluppo delle altre scienze (vedi per approfondimenti il manuale, pp. 11-27).

• La seconda posizione, lo storicismo, concernente il rapporto tra scienze della natura e scienze storico-culturali (oggi diremmo scienze umane) nasce come reazione al positivismo.

• In contrapposizione all’assunto del monismo metodologico, afferma con vigore una netta dicotomia tra i due tipi di scienze: a oggetti diversi corrispondono metodi diversi.

• Se per le scienze fisico-naturali èpossibile spiegare i loro oggetti di studio individuando delle regolaritàempiriche (leggi); per le scienze che hanno come oggetto l’essere umano èrivendicato quale fine ultimo non la spiegazione bensì la comprensione dei fenomeni che rientrano in quello che èil loro dominio.

• Al fondo dell’idea di comprensione vi èquella di intenzionalità: fenomeni, azioni, comportamenti, etc. connessi all’uomo e alle sue attività, possono essere spiegati solo comprendendo le motivazioni e i fini in vista dei quali hanno luogo o solo cogliendone il significato. La spiegazione consterebbe cioè nel rendere gli eventi umani teleologicamente intellegibili piuttosto che prevedibili.

• Le scienze umane, data la prossimità, o meglio la coincidenza, tra oggetto e soggetto conoscente, possono avvalersi di una via privilegiata alla conoscenza: grazie all’esperienza vissuta (Erlebnis) èpossibile pervenire ad una piena comprensione (Verstehen) degli eventi e dei fenomeni storico-sociali. Per cui, mentre i fenomeni naturali possono essere spiegati, noi intendiamo, ossia comprendiamo, la vita psichica degli esseri umani.

• È evidente come ad opporsi sono innanzitutto due diverse gnoseologie, sulle quali sarebbe basata la presunta opposizione tra le diverse discipline scientifiche. A questo livello di analisi l’interrogativo fondamentale èrelativo alla natura del rapporto tra soggetto conoscente e oggetto conosciuto: in altre parole il problema è quello di stabilire le modalità attraverso le quali si perviene alla conoscenza.

• Come si è osservato, da una parte si pone una gnoseologia idealista di stampo kantiano, secondo la quale ciò che si chiama oggetto non èaltro che il risultato di una costruzione operata dalle nostre facoltà conoscitive: è dunque accentuato il ruolo attivo del soggetto nella costruzione e nella conoscenza dell’oggetto.

• Sul versante opposto si colloca la gnoseologia oggettivistica o positivista, secondo la quale èl’oggetto a possedere delle proprietà intrinseche che lo scienziato deve scoprire. Una volta colte tali proprietà date, stabili, immutabili ed esterne, l’oggetto deve essere descritto senza alcuna interferenza da parte del soggetto, al fine di pervenire ad un perfetto adeguamento del concetto al dato empirico. Vi è dunque una coincidenza tra il termine “oggettività” ed i termini “verità” e “validità conoscitiva”, nell’illusoria pretesa della neutralità: la validitàdi una disciplina scientifica consiste nella sua capacità di adeguarsi “alla realtà oggettiva” per darne spiegazione in termini di “leggi” o comunque di regolarità empiriche.

• Ovviamente entrambe le premesse di tipo gnoseologico condizionano profondamente, e in direzioni ritenute inconciliabili, il metodo che da esse prende le mosse, pur partendo da un presupposto comune. Infatti, implicano entrambe l’assunzione di una ontologia dualistica, attribuendo un ruolo preminente ed attivo ora al soggetto ora all’oggetto della conoscenza, ma l’obiettivo è il medesimo: e cioè quello di pervenire ad una conoscenza “oggettiva”della realtà.

• In entrambe le prospettive si cade nella trappola dell’oggettività, intesa quale fedele rispecchiamento della realtà interna o esterna che sia all’uomo. Ma questo è un falso problema, dal momento che se nella pratica della ricerca scientifica si può parlare di oggettività, il problema va posto esclusivamente con riguardo alla intersoggettività, alla pubblicità e alla replicabilitàdelle procedure seguite nel processo della conoscenza (qualunque sia il suo oggetto), alla loro controllabilità e alla validità logica delle connessioni.

• Malgrado la reazione storicista abbia effettivamente intaccato l’apogeo del positivismo, quest’ultimo si riaffermò in nuove vesti tra gli anni ’20 e’30 del XX secolo sotto il nome di neo-positivismo o empirismo logico, dove l’attributo “logico”sta ad indicare la forte influenza che in tali anni ha su di esso la logica formale e l’abbandono dei rigidi meccanicismi o comunque delle implicazioni più estreme del positivismo ottocentesco. Con quest’ultimo, tuttavia, continua a condividere l’idea del monismo metodologico e un ideale matematico di perfezione. L’esempio piùimportante del riaffermarsi delle istanze (neo)positivistiche è rappresentato dal Circolo di Vienna, i cui esponenti si interessarono soprattutto all’individuazione di criteri in base ai quali dirimere le proposizione genuinamente scientifiche da quelle “metafisiche”, arrivando alla conclusione che se una proposizione non si riferisce o non èriconducibile direttamente, o perlomeno indirettamente, all’esperienza sensibile non può dirsi scientifica (tesi ristretta dell’empirismo).

• L’idea positivista dell’unità della scienza, e dunque il dibattito circa la possibilità di pervenire alla formulazione di una logica dell’indagine scientifica, è spesso stata identificata con la riflessione sui modi della spiegazione scientifica e nel conseguente tentativo di delinearne un modello standard valido per tutte le discipline. In tale prospettiva va collocata la proposta del 1948 di Hempel e Oppenheim di un modello della spiegazione scientifica che fosse universalmente valido, capace di dar conto di fenomeni del tutto diversi tra loro.

• L’intento degli autori è infatti quello di dimostrare che, indipendentemente dal suo oggetto specifico, ogni spiegazione scientifica risponde alla medesima logica: è una procedura di inferenza della proposizione esprimente l’evento da spiegare (l’explanandum) da leggi e proposizioni relative alle circostanze in cui l’evento stesso si è verificato. A seconda della natura delle leggi addotte nella spiegazione, il modello nomologico-inferenziale si articola in due caratterizzazioni fondamentali: il modello Nomologico-Deduttivo (nelle premesse, l’explanans, sono presenti leggi aventi carattere universale) e il modello Statistico-Induttivo (le leggi sono probabilistiche).

• Al termine di questa introduzione riteniamo utile fornire ai lettori la seguente definizione di scienza empirica: la scienza è una impresa umana che parte da problemi e approda a nuovi problemi. Gli asserti a cui perviene sono intersoggettivi, pubblici e, almeno potenzialmente, replicabili.

• Questa definizione èindipendente dal metodo che caratterizza ciascuna disciplina scientifica e per questo è in grado di essere adottata a livello generale per descrivere l’attivitàdi ricerca empirica nei diversi ambiti disciplinari.

2./3. Temi e problemi della metodologia

• Scienza e senso comune

• La demarcazione fra scienza e non scienza

• Il falsificazionismo di Popper(vedi per approfondimenti il manuale, pp. 29-39)

• Oltre il falsificazionismo di Popper

• L’eterno dibattito fra quantità e qualità (vedi per approfondimenti il manuale, pp. 39-73).

Scienza e senso comune• Qual è la differenza fra

scienza e senso comune?• Nagel (1961) – pur non intravedendo

una caratteristica identificabile a prima vista come spartiacque fra questi due tipi di conoscenza – arrivò ad individuare un nucleo di significato he si addice alla conoscenza scientifica: la conoscenza scientifica, a differenza di quella comune, èun sapere organizzato che punta a fornire spiegazioni sistematiche e controllabili alla prova dei fatti.

• Dunque la tendenza alla spiegazione, alla connessione fra eventi apparentemente lontani è la peculiarità della ricerca scientifica, quasi un ideale anche per quelle scienze che non possiedono una forma completa di spiegazione sistematica.

• Nagel si interrogò sulle ragioni della grande credibilità di cui godono gli asserti della conoscenza comune rispetto a quelli scientifici (maggiore vita media), e individuò tale motivo nella scarsa chiarezza terminologica che caratterizza la conoscenza del senso comune: un difetto che non permette di sottoporre le credenze a controlli critici e severi e che, sostanzialmente, ne facilita la sopravvivenza.

• Infine, concluse Nagel, gli scienziati spiccano rispetto agli uomini comuni per il loro atteggiamento critico che li spinge (o dovrebbe spingerli) ad esporre continuamente la propria conoscenza alla “prova del fuoco”, al perpetuo confronto con i dati osservativi, al continuo e sistematico scrutinio.

• Si diceva della perdita di fiducia nella scienza e della rivalutazione del senso comune che interessò i primi decenni del XX secolo. Questo fenomeno ebbe un’immediata conseguenza in filosofia poiché provocò la profonda spaccatura fra il positivismo logico – che si eresse a difesa della conoscenza scientifica con una intransigenza mai vista prima – e la fenomenologia che ribadiva l’autorità del senso comune e lo proclamava sia oggetto, che strumento di studio.

• Le cosiddette sociologie qualitative (interpretative e comprendenti), in cui rientra la fenomenologia, tendono a sottovalutare le esigenze di controllabilità e d’intersoggettività delle asserzioni e, facendo questo, violano la condizione essenziale del metodo scientifico.

• L’epistemologia contemporanea ritiene, infatti, che la scienza si distingua da ogni altro tipo di conoscenza non solo perchétende alla spiegazione degli eventi, e nemmeno perchédetiene la Verità o la Certezza, ma piuttosto perchérispetta un metodo.

• Esso va inteso come una sequenza relativamente ordinata di mosse in cui si articola l’indagine, ed una serie di regole sui modi in cui tali mosse devono essere eseguite; la forma logica proposta dal metodo èindipendente dallo specifico oggetto d’indagine e dal particolare settore di sapere empirico in riferimento al quale l’indagine è condotta.

• Dopo aver definito il metodo in questi termini diventa essenziale soffermarsi su due questioni: 1) qual è il punto di avvio del processo d’indagine e 2) quali sono le regole che governano la costruzione delle varie fasi. Cercheremo di rispondere a questi interrogativi riportando sinteticamente le proposte che si sono succedute nella filosofia della scienza; si avrà un particolare riguardo per il dibattito epistemologico del XX secolo perché, in questo periodo, si assiste al crollo della fiducia nella conoscenza scientifica e perchédiviene più sentita l’esigenza della demarcazione fra scienza e non scienza.

La demarcazione fra scienza e non scienza

• Da quando esiste la scienza moderna uno dei problemi fondamentali è individuare i criteri in base ai quali dirimere i giudizi scientifici dalle opinioni di senso comune e dalle valutazioni etiche, religiose, etc., individuandone i fondamenti, la natura, i limiti e le condizioni di validità.

• A lungo ha prevalso l’idea che le proposizioni scientifiche non fossero altro che il risultato di elaborazioni originate sempre e comunque da una “base osservabile”. Infatti, seguendo la tesi dell’empirismo classico del XVII secolo, la sola procedura grazie alla quale è possibile pervenire ad asserti aventi valore scientifico è quella che individua nell’osservazione il punto di avvio di ogni indagine.

• Tali osservazioni saranno in seguito accuratamente registrate e valutate selettivamente in termini di pertinenza ed intensità, di modo che si possano formulare delle ipotesi (che andranno sottoposte a controllo empirico ed eventualmente riformulate): l’osservazione degli eventi consente di scoprire regolarità che, successivamente, una volta “verificate” con numerose prove empiriche, possono assumersi come leggi universali.

• Se, dunque, per tutto il XIX e i primi anni del XX secolo la tesi baconiana, secondo la quale le ipotesi sono il risultato di un ragionamento induttivo, è stata quella che ha goduto di maggior credito, ai giorni nostri la tesi cui aderiscono gli epistemologi dei più diversi orientamenti sostiene la priorità della formazione delle ipotesi rispetto alla raccolta dei dati.

• In altre parole si è passati dal principio di verificazione a quello popperiano della falsificazione.

Il falsificazionismo di Popper

• Popper (1935), partendo dal presupposto che nessun numero finito di osservazioni può mai dare certezze circa la verità di generalizzazioni universali, che però possono essere confutate dalla scoperta di anche un solo caso negativo, indica quale criterio di demarcazione tra asserzioni scientifiche e non la possibilità che le prime, per essere effettivamente tali, sianosuscettibili di falsificazione. Infatti, dai dati empirici può essere inferita solo la falsità di una teoria, o meglio di un’ipotesi, e si tratta di un’inferenza puramente deduttiva.

• Dunque, la convinzione che la scienza rappresenti il tipo piùsicuro di conoscenza che l’uomo possa raggiungere si scontra, con l’impossibilità di “verificare” una legge scientifica una volta per tutte: per quanto numerosi possano essere i controlli cui essa èsottoposta, resta sempre la possibilità che la (n+1)-esima osservazione (che non può che far parte di una serie finita) si riveli in contrasto con essa.

• Di conseguenza, nessun principio va mai accettato senza riserve da tutta la scienza, perché potrebbe essere errato: la conoscenza è il risultato di ipotesi piuttosto che di verità definitive e certe.

• Per Popper non ha senso esigere da un sistema teorico o da un’ipotesi che sia capace di essere valutata in senso positivo una volta per tutte, ma è necessario che la sua forma logica sia tale da far sì che possa essere valutata, per mezzo di controlli empirici, in senso negativo. Per poter essere scientifica, un’ipotesi deve poter essere confutata dall’esperienza: ciò che rende scientifica una teoria, o un asserto, è il suo potere di scartare e di escludere il verificarsi di certi eventi possibili. Di conseguenza piùuna determinata teoria riesce a proibire, tante più cose afferma.

• Per Popper il metodo critico è il solo veramente scientifico e consiste nel proporre ipotesi ardite e nell’esporle alle critiche più severe al fine di scoprire dove si è sbagliato, dal momento che la scienza procederebbe per tentativi di eliminazione degli errori: senza errori non ci sarebbe scienza, la quale progredisce grazie al riconoscimento di questi ultimi. I risultati, mai definitivi e assoluti, della discussione critica delle teorie rivali sono chiamati da Popper “la scienza del tempo” che, dunque, si contraddistingue proprio per il suo carattere di provvisorietà e non di certezza.

• Il metodo critico consiste nel formulare un problema in modo chiaro e nell’esaminare le varie soluzioni proposte; soluzioni che il ricercatore dovrà tentare in tutti i modi di confutare, e non difendere.

• Riassumendo, la forza del falsificazionismo quale criterio rispetto al quale dirimere gli asserti scientifici da quelli metafisici si basa sull’asimmetria tra “verificabilità” e “falsificabilità” risultante dalla forma logica delle asserzioni universali: queste non possono mai essere derivate da asserti singolari. Viceversa, con inferenze puramente deduttive (modus tollens della logica classica) è possibile concludere dalla falsità di asserti singolari la falsità di asserti universali. Ad esempio, se da una determinata ipotesi H deriva una certa conseguenza osservativa O, il fatto che O si verifichi effettivamente non significa che H sia vera (logicamente, dalla verità del conseguente non può inferirsi la verità dell’antecedente), mentre dalla falsità di O segue la falsificazione di H.

• Se H è “tutti i cigni sono bianchi”, il fatto che noi osserviamo un cigno bianco non comporta la verità di H; al contrario se osserviamo un cigno nero ciò comporta necessariamente la falsità di H.

• Seguendo il criterio di demarcazione inerente alla logica induttiva (tutti gli asserti scientifici devono essere verificati confrontandoli con l’esperienza, altrimenti non hanno alcun significato), le teorie andrebbero escluse dal discorso scientifico, dal momento che non possono essere verificate empiricamente.

• Per cui, se non si vogliono eliminare le teorie dalle scienze empiriche, non si può che abbandonare la logica induttiva ed accettare il falsificazionismo, in quanto èil solo criterio di demarcazione che permette di ammettere, nel dominio della scienza empirica, anche asserzioni che non possono essere verificate. Infatti, il fatto che certi asserti della scienza non possano essere verificati, non significa che non possano essere controllati confrontandoli con l’esperienza mediante osservazione ed esperimento.

• Perché una teoria sia controllabile, ènecessario che soddisfi tre condizioni fondamentali:

• 1) deve essere “sintetica”, non deve cioèrappresentare un mondo contraddittorio;

• 2) deve rappresentare un mondo di esperienza possibile e non essere metafisica (deve poter essere falsificabile);

• 3) deve distinguersi da altre teorie e deve poter essere sottoposta a controllo (deve potersi applicare il metodo deduttivo).

• Riassumendo:• una teoria scientifica può

considerarsi valida solo se preclude l’accadimento di determinati eventi: tante piùcose vieta tanto più è buona. Di conseguenza,

• una teoria inconfutabile (per la quale non è possibile immaginare nessun fenomeno empirico in grado di smentirla) o auto-contraddittoria (se ne può derivare qualsiasi conclusione) non è scientifica;

• il solo metodo razionale in cui una teoria può essere controllata è quello di tentare in ogni modo di confutarla.

Oltre il falsificazionismo di Popper

• Popper, tra i molti significati attribuiti al termine induzione, ha scelto il piùtradizionale, secondo il quale èpossibile giungere alla formulazione di conclusioni universali a partire da premesse particolari.

• Tuttavia, la sua argomentazione, oltre a presentare diversi punti di debolezza, presenta un vizio di fondo: parte dal presupposto che la logica induttiva pretenda una certezza nelle proprie conclusioni che è propria della logica deduttiva.

• Infatti, è vero che, per via induttiva, non sarà mai possibile la previsione ineccepibile di un evento eccezionale che interrompe le regolaritàosservate fino ad un certo momento.

• Però è anche vero che, poichégiustificare la logica induttiva non significa asserire che premesse vere comportino sempre conclusioni vere, ma solo che ciò avviene il piùdelle volte, non vi è alcun motivo razionale per escludere dalla scienza asserti che, sebbene non siano certi, sono di gran lunga i piùprobabili. Così, se è fuori dubbio che la conclusione “tutti i cigni sono bianchi” non potrà mai essere verificata, per quanto possano essere numerosi i casi di cigni bianchi osservati, non incontrandosi altro che cigni bianchi è del tutto razionale che ci si comporti come se tutti i cigni siano effettivamente bianchi:l’asserto universale assume sempre maggiore credibilità al crescere del numero delle osservazioni che non lo smentiscono.

• Inoltre è possibile opporre alla tesi dell’asimmetria tra verificazione e falsificazione, un argomento di segno contrario: la tesi della simmetria tra verificazione e falsificazione (tesi Duhem-Quine). Infatti, una determina ipotesi non può essere controllata in modo isolato, ma necessariamente implica un rimando ad un corpus teorico di cui quell’ipotesi è parte: l’esito negativo del controllo può dunque dipendere non dalla falsità dell’ipotesi considerata, bensì dalla falsità di uno degli assunti compresi dalla teoria di sfondo.

• Kuhn (1962) e Lakatos (1970) sottolineano come il controllo di un’ipotesi non avviene in un vuoto teorico ed evidenziano come i criteri popperiani sono difficilmente applicabili a quello che è l’effettivo sviluppo storico della scienza.

• La storia della scienza mostra chiaramente che le teorie presentano numerose “anomalie”, ma ciò nonostante rivestono un ruolo di primaria importanza: basti pensare alla meccanica newtoniana che, pur essendo stata falsificata, non è certo stata eliminata.

• Inoltre, ogni teoria è formulata con un’implicita clausola coeteris paribus: si possono sempre spiegare i casi contrari ad esse invocando l’ipotesi di fattori intervenienti.

• Lakatos formula il falsificazionismo metodologico dalla consapevolezza dei limiti di quello dogmatico.

• Il falsificazionismo metodologico dichiara falsificabili (e quindi scientifici) gli asserti spazio-temporalmente singolari a cui corrisponde una tecnica per decidere l’accettabilità. A differenza dei dogmatici essi sono consapevoli che la scelta degli asserti osservativi sia convenzionale.

• Questa è la caratteristica fondamentale del falsificazionismo metodologico: la consapevolezza della dipendenza delle tecniche sperimentali dalle teorie e dell’arbitrarietà nel tracciare una linea di demarcazione fra le teorie da sottoporre a controllo e la conoscenza di sfondo non problematica.

• Il falsificazionista metodologico –rispetto a quello dogmatico – si rende conto della convenzionalità su cui poggia il suo metodo e sa che potrebbe essere proprio la teoria osservativa a sbagliare, non quella in esame.

• La demarcazione fra scienza e non scienza proposta dal falsificazionismo metodologico è più liberale rispetto a quella del falsificazionismo dogmatico perché qui sono scientifiche anche le teorie che proibiscono stati di cose osservabili nel senso ampio del termine.

• La distinzione fra conoscenza problematica e non problematica è la prima convenzione che caratterizza il falsificazionismo metodologico; a questa se ne aggiunge un’altra: la distinzione fra asserti-base accettati (veri) e quelli non accettati (falsi).

• Inoltre anche le teorie probabilistiche possono rientrare fra quelle scientifiche con l’introduzione di una terza convenzione: la decisione di regole di rifiuto che possono rendere l’evidenza interpretata statisticamente incompatibile con la teoria probabilistica.

• Una quarta convenzione riguarda le teorie coeteris paribus poiché nel controllo di una teoria caratterizzata da una simile clausola è il falsificazionista a decidere se, in caso di confutazione della congiunzione, la teoria specifica è rifiutata.

• Infine l’ultima convenzione aggiungibile riguarda la possibilità di rifiutare una teoria perché in conflitto con un’altra teoria relegata nella conoscenza di sfondo non problematica.

• Da questo principio derivano alcune conseguenze: innanzitutto il fatto che una teoria è falsificata solo se viene proposta un’altra teoria che prevede fatti nuovi rispetto alla precedente; in secondo luogo la consapevolezza che ad essere valutata, non è una singola teoria, ma una serie di teorie.

• A questo proposito si dice che una serie di teorie (slittamento-di-problema) è progressiva teoricamente se una nuova teoria ha contenuto empirico eccedente rispetto alla precedente, ossia se predice qualche fatto nuovo fino ad allora inaspettato; una serie di teorie progressiva teoricamente èanche progressiva empiricamente se almeno una parte del contenuto empirico eccedente è stato corroborato.

• Il progresso scientifico, infine, èproporzionale alla misura in cui la serie di teorie conduce a prevedere fatti nuovi.

• Nel falsificazionismo sofisticato non c’èfalsificazione finché non emerge una teoria migliore della precedente; lo slittamento-di-problema (che si concretizza nella proposta di una nuova teoria) non deve essere necessariamente inframmezzato da confutazioni: è possibile, infatti, che le teorie si succedano cosìrapidamente che la confutazione della n-esima teoria appaia solo come corroborazione della n+1-esima.

• Lakatos, nota che tutti i programmi scientifici sono caratterizzati da un nucleo e da una cintura protettiva. Il nucleo è quella parte della teoria non confutabile per decisione metodologica, la cintura protettiva è quella parte della teoria formata da ipotesi “ausiliari” e da condizioni iniziali. L’euristica negativa del programma di ricerca specifica il nucleo e impedisce di rivolgergli critiche a sfavore; l’euristica positiva è l’insieme delle proposte e dei suggerimenti che indica come cambiare le varianti confutabili del programma di ricerca, ossia come modificare la cintura protettiva.

• Un programma di ricerca ha successo se l’euristica positiva e quella negativa riescono a produrre uno slittamento progressivo del problema; ovviamente è necessario che ogni passo compiuto all’interno di un programma porti un contenuto coerente e crescente rispetto alla situazione precedente; in altre parole che ogni passo costituisca uno slittamento di problema teorico coerentemente progressivo e che, almeno saltuariamente, la crescita del contenuto sia empiricamente corroborata. Il nucleo, infine, deve essere abbandonato quando il programma cessa di anticipare fatti nuovi.

• La storia della scienza insegna che la maggior parte dei programmi di ricerca si sono innestati su programmi più vecchi con cui erano palesemente incompatibili; questi innesti sono tollerati dalla metodologia dei programmi di ricerca: essa consente al programma giovane di rinforzarsi e crescere fino a quando la coesistenza pacifica non sia del tutto compromessa.

• Tuttavia, aggiunge Lakatos, non si deve scartare un programma di ricerca sul nascere solo perché non è riuscito a superare un potente rivale: non lo si deve abbandonare se, ipotizzando l’assenza di rivali potenti, esso produce uno slittamento di problema progressivo.

• L’idea di Popper di vedere la scienza come impresa collettiva aprì la strada alla concezione kuhniana dello sviluppo scientifico che ruota attorno al concetto di paradigma.

• L’idea di paradigma fece la sua comparsa ufficiale nella epistemologia contemporanea nel 1962 con la pubblicazione del lavoro The Structure of Scientific Revolutions.

• Kuhn sostituì l’idea della cumulativitàdella conoscenza scientifica con quella della discontinuità e della frammentarietà del sapere. Probabilmente uno degli stimoli che spinse Kuhn ad adottare questa visione innovativa della scienza fu la vera e propria rivoluzione che la teoria della relatività aveva portato nella fisica classica. Fino a quel momento, infatti, fra gli scienziati, i filosofi della scienza e gli storici della scienza era prevalsa l’idea che la conoscenza scientifica (identificata sostanzialmente nella fisica) progredisse seguendo un unico sentiero e che ogni nuova scoperta trovasse le proprie fondamenta nelle conoscenze già acquisite.

• Kuhn, prendendo atto delle clamorose e sconcertanti innovazioni della fisica einsteiniana, mise in discussione il principio della continuità ed enfatizzò la presenza e l’importanza dei punti di rottura. Tutto il discorso kuhniano riguardante la non cumulatività della conoscenza scientifica poggia sul concetto di paradigma.

• Su questo concetto Kuhn distinse fra periodi di scienza normale e periodi di rivoluzione scientifica. Una disciplina attraversa un periodo di scienza normale se esiste un paradigma dominante ampiamente accettato dalla comunità scientifica, indiscusso e utilizzato nelle concrete fasi della ricerca. Nei periodi di scienza normale i “rompicapo” hanno sempre una soluzione garantita dal paradigma dominante; lo scienziato addetto alla loro risoluzione conosce la soluzione ma non la strada per raggiungerla, e tale strada gli viene indicata dal paradigma. Nei periodi di scienza normale i controlli non sono diretti alla teoria, bensì al ricercatore e alla sua abilità nel risolvere rompicapo. In questo modo il paradigma diventa quasi un dogma a cui prestar fede, mentre il compito del ricercatore è quello di appianare le discrepanze fra il paradigma e le osservazioni sperimentali, in modo da non incrinare la fiducia nella “religione” dominante.

• La rivoluzione scientifica è la fase in cui il paradigma dominante viene messo in discussione e sfidato da uno o piùparadigmi alternativi. Le rivoluzioni scientifiche hanno inizio quando una parte cospicua della comunità scientifica manifesta disagio e insoddisfazione per il paradigma dominante, ossia quando comincia a giudicarlo inadatto per la risoluzione di alcune aree problematiche. Il passaggio da un paradigma all’altro non può mai essere graduale ed indolore: i paradigmi sono sistemi chiusi e autosufficienti, incommensurabili e incomunicabili, quindi l’adozione di un paradigma diverso dal precedente non può che realizzarsi attraverso una vera e propria rottura, una conversione, ri-orientamento complessivo, un’esperienza totalizzante. Chi aderisce a paradigmi diversi guarda il mondo in modo diverso, scorge relazioni differenti fra gli eventi, a tal punto che una legge che può sembrare ovvia per chi aderisce ad un paradigma non può convincere in alcun modo chi appartiene ad un altro paradigma (incommensurabilità dei paradigmi).

• Il maggior contrasto fra Popper e Kuhn non riguarda l’esistenza o meno della scienza normale, ma piuttosto il ruolo della critica nel progresso scientifico e la fruttuosità dei periodi di scienza normale.

• Anche Feyerabend (1975) non concorda con Kuhn quando individua la caratteristica fondamentale della scienza nell’esistenza di una “tradizione consolidata per la soluzione di rompicapo” perché ritiene che questa caratteristica sia propria di molte altre attività umane, non specifica della scienza.

• Feyerabend suggerisce di rivedere l’intera idea kuhniana della separatezza fra periodi di proliferazione e periodi di monismo e di sostituirla con l’idea della proliferazione immediata e continua di teorie contrastanti. Infatti, secondo Feyerabend, ciò che conduce alla crescita della conoscenza non è la semplice soluzione di rompicapo, ma l’interazione fra tenacia e proliferazione. Sotto questo punto di vista egli dà ragione a Lakatos secondo il quale la proliferazione e la tenacia non appartengono a periodi successivi nella storia della scienza, ma sono compresenti.

• Sul mutamento di paradigma, aggiunge Feyerabend, incidono molti fattori esterni all’attività scientifica vera e propria: il mutamento può verificarsi per la morte di un esponente di spicco o per la voglia di rinnovamento da parte delle giovani generazioni; questo invita a riflettere sul fatto che i fattori irrazionali incidono anche nell’attività umana giudicata piùrazionale.

• L’irrazionalità nella scienza – continua Feyerabend – è molto più presente di quanto si pensi : non sempre, ad esempio, si possono valutare le teorie in base al loro contenuto di verità poiché le teorie possono anche essere fra loro incommensurabili.

• Appare evidente che le parole di Feyerabend enfatizzano il ruolo degli elementi irrazionali presenti nella scienza; si tratta di una posizione piuttosto estrema e provocatoria che intendeva ribellarsi contro l’idea di regole rigide e imprescindibili.

• Dopo aver passato in rassegna diverse proposte sulla demarcazione fra scienza e non scienza, possiamo chiederci quale sia il criterio distintivo adottato dagli epistemologi di oggi. Oggi si parte dal presupposto che il sapere scientifico èuna forma di conoscenza governata da specifiche regole in grado di rendere pubblico e pubblicamente replicabile il risultato. Per alcuni studiosi si tratta di una distinzione piuttosto debole, basata non su un presunto valore di verità degli asserti, né su una pretesa corrispondenza con i fatti, ma sull’obbedienza a regole procedurali per la formulazione degli asserti.

• Feyerabend, il principale esponente dell’anarchismo metodologico, ha messo in evidenza che i risultati migliori della scienza sono stati il frutto della disobbedienza alle regole, non del loro rispetto, e – di conseguenza – èapprodato all’idea dell’assurdità delle regole sia per la formazione, che per la giustificazione degli asserti scientifici.

• Campelli (1999) ha sottolineato la necessità d’individuare una via di mezzo fra l’irrazionalità in cui rischia di cadere l’anarchismo metodologico e le rigide regole del positivismo.

• Una possibilità per sfuggire a questa drastica alternativa èammettere la presenza di variabili opache che contaminano la piena autosufficienza del metodo e che trasformano i precetti da applicare meccanicamente in principi suscettibili di variazioni. Ne deriva un metodo debole che include anche spazi di incerta razionalità, che èaccompagnato da condizionamenti di ogni genere: pragmatici, affettivi, di valore; è necessario ammettere la compresenza di componenti diverse, alcune delle quali non perfettamente riconducibili in termini razionali.

• Dewey (1949) è considerato uno dei maggiori esponenti della corrente filosofica denominata pragmatismo. Al centro della sua riflessione vi è la nozione di esperienza, a cui l’autore dàun’interpretazione particolare: egli la vede come un processo denso, composito, incerto, è il modo in cui gli uomini agiscono, è quello che cercano, è ciò che fanno.

• Appare evidente la grande differenza fra il modo d’intendere l’esperienza del Circolo di Vienna e la prospettiva di Dewey: da una parte proposizioni elementari che traducevano sul piano linguistico frammenti di esperienza atomizzati, dall’altra un’esperienza totalizzante.

• Dewey critica le epistemologie tradizionali che hanno sempre separato la realtà dal soggetto per attribuire priorità ora all’una, ora all’altro, senza pensare che la conoscenza dipende dall’attivo legame situazionale che li unisce.

• Il contesto situazionale ha un’importanza fondamentale perchénon è composto solo da dati, ma anche da modi di esperire mutevoli, storici e opachi. Proprio dal rifiuto di ogni forma di dualismo scaturisce il naturalismo di Dewey, ossia la convinzione che la ricerca non sia altro che la prosecuzione naturale del comportamento organico e che, come gli organismi vivono in interazione con l’ambiente attraversando fasi di equilibrio e squilibrio, così la ricerca scientifica (di qualsiasi disciplina) si basa su questo modello.

• Un’altra nozione centrale del pensiero deweyano è l’indagine, ossia la trasformazione controllata e diretta di una situazione indeterminata in una situazione determinata nelle distinzioni e nelle relazioni, in modo da convertire gli elementi della situazione originale in una totalitàunificata.

• Nella misura in cui la situazione indeterminata viene sentita come tale, allora essa diviene problematica (l’esigenza di indagare è il primo passo dell’indagine). La situazione problematica è uno stato di disagio cognitivo, di dissonanza, èla percezione che “qualcosa non torna”; su questa situazione il ricercatore svolge un lavoro di organizzazione, selezione ed invenzione. Egli giunge ad isolare un problema fra i tanti che si sarebbero potuti legittimamente selezionare.

• Il problema, dunque, non è qualcosa di primitivo e originario ma è una costruzione concettuale messa a punto sulla base di osservazioni e di ipotesi. Nel passaggio dalla situazione problematica al problema c’è sempre una perdita perché la costruzione all’interno dell’area problematica presuppone una limitazione ed un’esclusione, perché la formulazione di un problema si paga con la rinuncia ad altri interrogativi, ad altre possibili domande.

• Dewey presenta l’indagine come un lavoro prevalentemente circolare in cui diverse componenti agiscono reciprocamente, mentre il “dato” – più che presentarsi con un proprio autonomo significato – viene assunto come tale.

• Dewey non arriverà mai a dire che è la teoria a costruire il dato, come faranno molte epistemologie post-empiriste, ma la sua filosofia ha contribuito in modo significativo a smantellare l’idea dell’osservazione “pura”.

• La formulazione del problema conduce alla definizione di ipotesi di “soluzione”: saranno proprio le ipotesi e le idee, avanzate in un primo momento come semplici suggestioni, ad orientare i processi di osservazione e sperimentazione. Se l’indagine ha successo il rapporto relazionale fra soggetto e ambiente si colloca su livelli nuovi, destinati successivamente a far sorgere nuove situazioni di dubbio.

• Le asserzioni con cui si conclude un’indagine sono giustificate nella misura in cui hanno alle spalle un processo d’indagine appropriato che le sostiene. Esse vanno giudicate in base alla loro idoneità a risolvere il problema oggetto di indagine; in altre parole l’asseribilità giustificata non rimanda all’idea della verità, quanto al nesso funzionale rispetto al problema, mentre la nozione di asseribilità si avvicina piuttosto alla controllabilità.

• Lo strumentalismo che sottende il pensiero deweyano lo porta a definire le idee esclusivamente in termini di funzione e ad assimilare i concetti agli strumenti valutabili solo in relazione alla funzione che svolgono all’interno dell’indagine. Così ai concetti Dewey chiede solo di funzionare a dovere, ossia di permettere il raggiungimento del risultato, non di rappresentare qualcosa di realmente esistente.

• L’assimilazione di concetti a strumenti porta delle conseguenze sia a livello pratico, sia a livello epistemologico.

• Concretamente ciò conduce a rivolgersi ai concetti non piùchiedendosi come descrivano qualcosa sul piano esistenziale, ma valutando la loro capacità di risolvere problemi empirici.

• Dal punto di vista epistemologico la visione strumentalista dei concetti porta a giudicare gratuita, irrilevante e artificiale l’idea del raggiungimento di una conoscenza oggettiva.

• L’oggettività, per Dewey, non deve essere valutata in base al contenuto (adeguamento alla realtà assolutamente data), ma secondo una prospettiva metodologica, ossia in base alla possibilità di argomentare in forma pubblica, ripercorribile e controllabile i passi inferenziali di cui si compone.

• A Dewey va attribuito il merito di essere andato oltre la contrapposizione fra empiristi e deduttivisti: per i primi l’indagine parte dall’osservazione dei fatti; il paradigma ipotetico-deduttivo prende spunto da un’ipotesi. Dewey – invece – individua il punto di partenza dell’indagine nella situazione problematica al cui interno si stabilisce un rapporto reciproco fra osservazioni, ipotesi, teorie, interessi cognitivi e fattori personali che conducono alla definizione del problema.

• È proprio la circolarità che sussiste fra dati ed ipotesi a permettere il superamento della rivalità fra induttivisti e deduttivisti, visto che entrambi ipotizzavano un rapporto lineare. L’accumulazione di dati senza la formulazione di ipotesi (prospettiva induttivista) e la formulazione di un’ipotesi che preclude osservazioni decisive (prospettiva deduttivista) sono – per Dewey – due mali da evitare, e l’unico modo per farlo èquello di essere sensibili alla qualità della situazione nel suo complesso.

L’eterno dibattito fra

quantità e qualità

• Il dibattito tra qualità e quantità rappresenta uno dei problemi più trattati in ambito sociologico. Si tratta di un dibattito che investe una pluralità di livelli di analisi molto spesso non chiaramente distinti e distinguibili, generando così numerose ambiguità piuttosto che esplicite distinzioni.

• Vediamo se effettivamente sussiste ed è sostenibile una polarità logica tra qualità e quantità.

• Esamineremo quattro livelli:• 1) assiologico/ideologico;• 2) gnoseologico;• 3) epistemologico;• 4 ) metodologico.• La tesi che intendo

sostenere è quella secondo la quale l’opposizione tra qualità e quantità è un falso problema che si sviluppa al di fuori della logica dell’indagine scientifica.

• Si può affermare che in ogni concreta operazione di ricerca l’analisi qualitativa e quella quantitativa costituiscono aspetti non solo compresenti ma indistinguibili in ogni concreto passo della ricerca. Si tratta di due componenti che in ogni momento dell’indagine condizionano le effettive operazioni di ricerca, a partire dal percorso di concettualizzazione (nell’individuare le dimensioni rilevanti di un concetto si considerano sia gli aspetti teoricamente e semanticamente significativi sia criteri sintattici, onde evitare di individuare dimensioni poco rilevanti, e cioè delle classi empiricamente vuote) fino all’elaborazione dei dati: non esiste procedura di analisi dei dati dove il ricercatore proceda in ordine a considerazioni di tipo strettamente statistico, e quindi in modo strettamente formale ed impersonale.