VERIFICA, VALUTAZIONE, RIPROGETTAZIONE · ordinale, a intervallo, proporzionale. Le scale nominali,...

55
__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11 __________________________________________________________________________________________________________________ 1 UNITA’ DIDATTICA n. 11 VERIFICA, VALUTAZIONE, RIPROGETTAZIONE a cura di Gaetano Domenici Contributi di S. Cellamare, S. Diamanti, G. Domenici, R. Lanzillotta, F. Lucente, M.C. Lupo, M. Margottini, S. Nirchi Educare è indubbiamente un’attività complessa, che necessita di un miglioramento costante per essere al passo con i mutamenti della realtà socio-ambientale. La sfida che questi due fattori, complessità e miglioramento, lanciano alle scienze dell’educazione non può essere giocata sul terreno di un senso comune che ipotizzi eventi e andamenti degli eventi in base a generiche intuizioni o alla generalizzazione di fatti locali, ma richiede un approccio scientifico fondato sulla rilevazione dei dati e sulla loro modificazione attraverso strumenti idonei e procedure mirate. Le sollecitazioni allo sviluppo qualitativo e quantitativo che hanno investito il campo educativo a partire dalla seconda metà del secolo scorso, ponendo in luce il dibattito sulle istituzioni formative di base e la necessità di un loro cambiamento, hanno dato l’impulso alla ricerca educativa, che deve ispirarsi a criteri scientifici rigorosi con l’adozione dei procedimenti operativi che guidano l’attività sperimentale. Ciò comporta: la conoscenza e l’uso del linguaggio proprio della ricerca, che conferisce univocità al discorso scientifico, e la circolazione di informazioni significative; la capacità di rilevare dati osservativi su una data realtà per strutturare itinerari di ricerca; la capacità di utilizzare i dati dell’osservazione per progettare percorsi di sperimentazione; la competenza per costruire strumenti di rilevazione e di intervento che consentano di cogliere e comunicare dati reali, relativi al campione del quale siano state identificate e rese note le caratteristiche; la capacità infine di adeguare di volta in volta l’azione educativa ad ogni nuova situazione, riprogettando percorsi e modalità di intervento attraverso processi di metavalutazione e metadecisione. Il presente modulo si propone di prendere in esame questi aspetti, quale contributo ad una riflessione su temi sui quali già molto si è detto, ma che è sempre doveroso ed utile riprendere ed approfondire. Introduzione 1. La relazione qualità/quantità nella misurazione in campo educativo 2. Gli strumenti di rilevazione dei dati valutativi 2.1 Prove tradizionali e prove oggettive 2.2 Caratteri peculiari delle prove semistrutturate 2.3 Altri strumenti 2.4 Utilizzo degli strumenti di ricerca 2.5 Progettare e realizzare strumenti 3. Raccolta e trattamento dei dati valutativi 3.1 La raccolta e l’elaborazione dei dati 3.2 Analisi e interpretazione dei dati 3.2.1 Attribuzione dei punteggi e correzione 3.2.2 Il punteggio grezzo 3.2.3 Le misure di tendenza centrale 3.2.4 Come misurare la dispersione 3.2.5 La distribuzione pentenaria 3.2.6 Punti Z e punti T 3.2.7 Item Analysis

Transcript of VERIFICA, VALUTAZIONE, RIPROGETTAZIONE · ordinale, a intervallo, proporzionale. Le scale nominali,...

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

1

UNITA’ DIDATTICA n. 11

VERIFICA, VALUTAZIONE, RIPROGETTAZIONE a cura di Gaetano Domenici

Contributi di

S. Cellamare, S. Diamanti, G. Domenici, R. Lanzillotta, F. Lucente, M.C. Lupo, M. Margottini, S. Nirchi

Educare è indubbiamente un’attività complessa, che necessita di un miglioramento costante

per essere al passo con i mutamenti della realtà socio-ambientale. La sfida che questi due fattori, complessità e miglioramento, lanciano alle scienze dell’educazione non può essere giocata sul terreno di un senso comune che ipotizzi eventi e andamenti degli eventi in base a generiche intuizioni o alla generalizzazione di fatti locali, ma richiede un approccio scientifico fondato sulla rilevazione dei dati e sulla loro modificazione attraverso strumenti idonei e procedure mirate. Le sollecitazioni allo sviluppo qualitativo e quantitativo che hanno investito il campo educativo a partire dalla seconda metà del secolo scorso, ponendo in luce il dibattito sulle istituzioni formative di base e la necessità di un loro cambiamento, hanno dato l’impulso alla ricerca educativa,che deve ispirarsi a criteri scientifici rigorosi con l’adozione dei procedimenti operativi che guidano l’attività sperimentale. Ciò comporta: la conoscenza e l’uso del linguaggio proprio della ricerca, che conferisceunivocità al discorso scientifico, e la circolazione di informazioni significative; la capacità dirilevare dati osservativi su una data realtà per strutturare itinerari di ricerca; la capacità diutilizzare i dati dell’osservazione per progettare percorsi di sperimentazione; la competenza per costruire strumenti di rilevazione e di intervento che consentano di cogliere e comunicare dati reali, relativi al campione del quale siano state identificate e rese note le caratteristiche; la capacità infine di adeguare di volta in volta l’azione educativa ad ogni nuova situazione, riprogettando percorsi e modalità di intervento attraverso processi di metavalutazione e metadecisione.

Il presente modulo si propone di prendere in esame questi aspetti, quale contributo ad una riflessione su temi sui quali già molto si è detto, ma che è sempre doveroso ed utile riprendere ed approfondire.

Introduzione

1. La relazione qualità/quantità nella misurazione in campo educativo 2. Gli strumenti di rilevazione dei dati valutativi

2.1 Prove tradizionali e prove oggettive 2.2 Caratteri peculiari delle prove semistrutturate 2.3 Altri strumenti 2.4 Utilizzo degli strumenti di ricerca 2.5 Progettare e realizzare strumenti

3. Raccolta e trattamento dei dati valutativi 3.1 La raccolta e l’elaborazione dei dati 3.2 Analisi e interpretazione dei dati

3.2.1 Attribuzione dei punteggi e correzione 3.2.2 Il punteggio grezzo 3.2.3 Le misure di tendenza centrale 3.2.4 Come misurare la dispersione 3.2.5 La distribuzione pentenaria 3.2.6 Punti Z e punti T

3.2.7 Item Analysis

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

2

3.2.8 La rappresentazione grafica 3.3 Dall’interpretazione dei dati valutativi alla decisione didattica 4. Il trattamento sincronico e diacronico dei dati e delle informazioni 4.1 Dati e informazioni nella scuola 4.2 La rilevazione dei dati nell’autovalutazione d’istituto 4.3. Procedure di elaborazione dei dati per l’autoanalisi

5. Verifica e valutazione interna/esterna 5.1 Una variabile cruciale per l’autovalutazione: il prodotto scolastico

5.2 Le variabili di prodotto 5.3 Il valore formativo aggiunto 5.4 Dalle variabili di prodotto agli indicatori di prodotto 5.5 Quando la scuola ha un buon “valore formativo aggiunto”? 5.6 Le variabili di outcome

6. Valutazione e metavalutazione, decisione e metadecisione 7. Bibliografia - Sitografia

Introduzione

La ricerca docimologica, che alle sue origini (inizi anni Venti dello scorso secolo) si è occupata principalmente della validità e dell’attendibilità degli strumenti di rilevazione dei dati valutativi, a partire dagli anni Sessanta ha rivolto la propria attenzione alle relazioni formali che sussistono tra qualità delle informazioni volta a volta disponibili e strutturazione delle decisioni a livello di micro meso e di macrosistema formativi, ovvero delle decisioni didattiche e di quelle di politica educativa. D’altro canto, la progressiva globalizzazione dei mercati, e i connessi processi per certi versi contraddittori della competitività e della cooperazione internazionale, nonché della disoccupazione, e della bassa produttività del servizio scolastico, hanno progressivamente imposto all’attenzione pubblica e ai decisori politici il problema della razionalizzazione della spesa per l’istruzione e del contestuale incremento dell’efficacia degli interventi formativi. Sono venuti così sviluppandosi due rilevanti filoni di indagine tuttora in espansione. L’uno rivolto alla determinazione di indicatori nazionali e internazionali della qualità dell’istruzione, in grado di consentire valutazioni complessive e comparabili dei macrosistemi formativi; l’altro più attento agli aspetti qualitativi dei processi di formazione, entrambi rivolti, seppur su piani diversi, al miglioramento della proposta educativa e dei suoi risultati. All’interno di questo secondo filone risulta di particolare interesse la riflessione sull’adeguatezza delle prove di verifica alla differenziata tipologia delle competenze da rilevare (si pensi a quelle richieste e promosse dalla multimedialità) e sulle qualità metrologiche dei diversi strumenti valutativi che a tal fine si possono impiegare. Le proposte operative che sono derivate dagli esiti delle ricerche di settore – avviate in Italia da Aldo Visalberghi e Luigi Calonghi che ha particolarmente approfondito quelle ormai classiche sulle composizioni scritte – stanno trovando meritata fortuna soprattutto tra gli insegnanti più consapevoli e professionalmente attrezzati, cioè tra quei docenti che proprio perché impiegano più o meno diffusamente la pratica del testing e ne apprezzano l’apporto informativo nel processo di strutturazione delle decisioni didattiche e di espressione dei giudizi, più di altri avvertono la necessità di integrare, se non addirittura superare l’uso delle prove oggettive con strumenti più flessibili e “intelligenti” di rilevazione della molteplicità delle competenze da verificare, ma comunque in grado di offrire informazioni affidabili.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

3

1. Le relazioni qualità/quantità nella misurazione (glo lettera M) in campo educativo

L’evoluzione verso la pedagogia contemporanea passa attraverso l’antitesi tra qualitativo e quantitativo, una falsa dicotomia che entra in crisi alla metà degli anni sessanta, quando si comincia a osservare e a sottolineare come i due tipi di conoscenza siano interdipendenti. Infatti il dato di ricerca non è raccolto nel nulla ma è in relazione a molteplici fattori, che agiscono su di esso e lo modificano in se stesso e negli effetti che produce. Successivamente il discorso si è evoluto in direzione del riconoscimento che la frattura tra qualitativo e quantitativo è artificiosa; una stessa realtà infatti può essere indagata e tradotta in entrambi i modi poiché qualità e quantità si definiscono reciprocamente: attraverso le qualità si hanno le informazioni molari, cioè i dati globali, d’insieme, su un’attività che permane per un certo tempo ed è significativa; dalle quantità si ricavano le informazioni di dettaglio o molecolari, riferite cioè a singoli atti. Come esempi di attività molecolari possiamo citare il porre una domanda o dare una risposta, mentre sono attività molari leggere un libro, costruire un puzzle, conversare ecc. Fra dati qualitativi e quantitativi non c’è dunque reciproca esclusione ma supporto vicendevole; infatti i dati che si presentano all’osservazione possono essere di tipo qualitativo, intuitivo e globale, oppure di tipo quantitativo, analitico e particolare ma entrambi esprimono la stessa realtà, anche se usano linguaggi diversi. Pertanto una realtà può essere indagata a partire da piani di ricerca diversi, senza che ciò determini una frammentazione della ricerca stessa o induca a fare del riduzionismo. La complementarità tra i due modi, qualitativo e quantitativo, è particolarmente evidente quando si procede al confronto dei dati raccolti: il dato qualitativo tradotto in una espressione numerica è più facilmente fruibile, anche perché viene espresso in un linguaggio agevole da controllare, che la ricerca educativa ha adottato grazie all’introduzione di strumenti matematici, quali • la statistica descrittiva, utilizzata nello studio dei fenomeni collettivi. Questa parte della statistica descrive campioni di soggetti o di eventi in termini di costanti o di variabili; queste sono scelte dal ricercatore sulla base degli obiettivi dello studio e per la loro descrizione si ricorre all’uso di indici o di rappresentazioni grafiche (par. 3.2.8), come. vedremo in seguito; •la statistica inferenziale, alla quale si accede attraverso la statistica descrittiva, serve a indicare fino a che punto i dati misurati attraverso un campione sono rappresentativi di una popolazione evitando il rischio di generalizzazioni ingiustificate. Il confronto fra dati avviene a quattro livelli, ai quali corrispondono altrettante scale: nominale, ordinale, a intervallo, proporzionale. Le scale nominali, o classificazioni qualitative, costituiscono il primo livello di misura (fig. 1) e consentono di categorizzare gli eventi assegnando loro codici numerici; utilizzare i numeri come codici o i valori numerici è esattamente equivalente. La traduzione in un codice numerico è del tutto arbitraria e quindi è necessario riportare una legenda che renda comprensibile il valore nominale assegnato. Supponiamo di aver effettuato una rilevazione sulle caratteristiche socio-eonomiche di una data popolazione e di aver elaborato la seguente scheda:

Perché il documento possa essere letto e avere senso anche per altri è necessario offrire una guida per informare che:

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

4

Le scale nominali ci consentono di effettuare solo le poche operazioni collegate al conteggio delle occorrenze e delle presenze registrate all’interno di ogni categoria. Possiamo perciò dire qual è il rapporto di composizione delle categorie indagate attraverso il calcolo delle percentuali

la cui distribuzione può essere visualizzata attraverso dei grafici a torta o degli istogrammi. Naturalmente è possibile calcolare anche la moda (par. 3.2.3), possiamo cioè dire qual è la categoria più numerosa e realizzare una scala delle categorie in ordine decrescente. In sintesi si può dire che mediante le scale nominali si verifica la presenza di un certo carattere, la frequenza di comparsa, la compresenza con caratteri differenti, dando vita a un corpus di dati relativi a una situazione osservata e confrontabili con una ipotesi di lavoro. Poiché nelle scale nominali i numeri attribuiti costituiscono semplicemente delle etichette, esse vanno completate con scale ordinali, che dispongono i dati secondo un “più” o un “meno” formando delle graduatorie delle categorie in base al grado di presenza delle caratteristiche studiate. Se ad esempio volessimo indagare il livello di ansia all’interrogazione di un dato numero di allievi, potremmo stabilire una scale di questo tipo: 1 = poco ansioso, 2 = mediamente ansioso, 3 = molto ansioso. Si può fare un altro esempio prendendo come variabile da categorizzare i raggruppamenti socio-culturali e assegnando dei valori ai diversi livelli, come: 1 = ceto superiore, 2 = ceto medio-inferiore, 3 = soggetti svantaggiati. Esempi di scale ordinali sono le scale di valutazione scolastica, attraverso le quali si mira a cogliere l’intensità o la posizione più o meno elevata di un carattere in una graduatoria. Con la scala ordinale, oltre alle frequenze e alle percentuali, si possono calcolare i centili (cioè ciascuno dei valori che dividono la frequenza totale in cento intervalli di frequenza uguale), la mediana (par. 3.2.3), il coefficiente di correlazione di Spearman ed è possibile operare analisi di varianza. Mentre con la scala ordinale disponiamo i dati lungo un continuum in base a una graduatoria che va da un “più” a un “meno”, con le scale e intervalli uguali e le scale a rapporti otteniamo altri tipi di relazioni tra dati, fondati sulla quantità. La scala a intervalli è suddivisa in gradi-valore uguali, come un termometro, per i quali occorre definire una unità di misura costante. I punteggi di ogni tipo di prova, test di intelligenza, attitudinali ecc. avvengono su scale a intervalli uguali, il cui limite è di non partire da uno zero assoluto ma relativo. Possiamo prendere come riferimento di zero relativo lo zero della scala Celsius che coincide con la temperatura di congelamento-fusione dell’acqua a una pressione di 760 mm. Le scale con zero assoluto sono scale a rapporto che tuttavia nelle scienze umane non vengono usate per la difficoltà di fissare un punto zero assoluto. Si può comunque assumere la media di una distribuzione di punteggi come punto zero e considerare le deviazioni da questa come misure su scale di rapporti. Sia queste che le scale di intervalli si utilizzano per caratteri quantitativi o per misure quantitative indirette della qualità. Dall’esame delle scale per il confronto dei dati appare evidente come la scissione tra qualitativo e quantitativo sia arbitraria ed è facile intuire quanto essa possa essere lesiva nella ricerca educativa tesa a individuare nuovi e più efficaci indicatori, da usare come stimoli e indici di predizione dell’apprendimento. La ricaduta negativa tuttavia non investe solo gli studi ma si estende quasi

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

5

inevitabilmente anche nella pratica scolastica. Un esempio di indagine in cui l’intreccio qualità-quantità appare con particolare evidenza è data dallo studio del tempo scolastico e dei suoi molteplici aspetti, che vanno dalla quantificazione del tempo speso dall’istituzione o dal soggetto per l’istruzione o l’autoistruzione, all’esame del tempo come indicatore del lavoro scolastico e come elemento di valutazione. La falsa antitesi qualità – quantità, che scaturisce da una interpretazione banale e scorretta per la quale il dato qualitativo è quello raccolto e descritto con il linguaggio quotidiano, mentre la dimensione quantitativa si identifica con l’uso del linguaggio matematico, necessita di una ricomposizione la cui probabilità di attuazione può essere individuata in una rivalutazione della teoria nell’ambito della ricerca empirica.

2. Gli strumenti di rilevazione dei dati valutativi 2.1. Prove tradizionali e prove oggettive Sul piano metrologico, le cosiddette prove tradizionali e quelle oggettive di accertamento delle conoscenze rappresentano i poli opposti dell’ampia tipologia degli strumenti utilizzabili in ambito formativo. Come è ormai noto, alla dimensione soggettiva delle rilevazioni e degli apprezzamenti che deriva dall’impiego delle prime, dovuta all’accentuata destrutturazione dei quesiti che esse presentano, corrisponde invece la dimensione oggettiva delle altre grazie alla netta strutturazione delle domande e delle risposte che le costituiscono. A tale proposito è utile ricordare che a differenza delle prime, le prove oggettive permettono, tra l’altro: di predeterminare il punteggio da assegnarsi – chiunque sia il correttore – a ciascun quesito (e perciò all’intera prestazione) a seconda che la risposta risulti esatta, sbagliata o omessa (in tale aspetto risiede l’oggettività delle rilevazioni, ovvero l’intersoggettività del giudizio); di rilevare per ciascuno e per tutti gli allievi le conoscenze che hanno peso specifico elevato nell’economia formativa del particolare ambito conoscitivo di riferimento; di assumere dati di misurazione affidabili (validi e attendibili) capaci di strutturare quadri informativi analitici e sinottici sugli apprendimenti (non-apprendimenti) individuali e collettivi, così facilitando l’assunzione di decisioni didattiche pertinenti alle necessità reali. È tuttavia accaduto che, a causa di una certa acriticità con cui si sono avvicinati al testing, taluni docenti abbiano fin troppo ingenuamente creduto di poter impiegare solo le prove oggettive per compiere tutte le verifiche e le valutazioni necessarie nel processo di formazione. Ma, bandire le prove tradizionali dalla pratica valutativa scolastica, come sarebbe giusto per motivate ragioni, non

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

6

deve comportare però, come taluni purtroppo sostengono, il passaggio ad un impiego esclusivo dei test oggettivi di profitto qualunque siano gli scopi e le funzioni della verifica e la tipologia delle conoscenze da sottoporre a controllo. 2. 2. Caratteri peculiari delle prove semistrutturate Che le prove oggettive rispetto a quelle tradizionali, consentano una migliore rilevazione delle informazioni qualitativo-quantitative sui processi e sui prodotti dell’apprendimento, individuali e collettivi, peraltro in breve tempo, è fuori discussione. E tuttavia tutto ciò non basta a giustificarne il loro impiego esclusivo. Vi sono abilità, saperi, conoscenze e competenze per rilevare le quali in modo affidabile è necessario impiegare strumenti diversi sia da quelli tradizionali che dai test “carta e matita”. Si pensi, e solo per fare qualche esempio, alla comprensione e alla produzione del linguaggio orale, alla capacità di integrare il sapere al saper fare, come si richiede in molte attività di laboratorio, nella costruzione di modelli o di macchine semplici, nella manipolazione di materiali, e così via. È quindi facile inferire che per ogni caratteristica tipologica delle abilità da rilevare e/o funzione valutativa o didattica da svolgere, è necessario impiegare uno strumento di accertamento delle competenze la cui struttura sia in un certo senso omologa a quella caratteristica e a quella specifica funzione: una regola aurea docimologica, questa, non sempre ricordata, purtroppo, anche nei più accreditati “trattati” valutativi. Se ne ricava che ogni particolare tipo di prova, qualunque siano le sue distintive caratteristiche metriche e strutturali, può ben diventare, in particolari contesti, il migliore dei possibili strumenti di rilevazione dei dati valutativi. La questione è semmai quella della necessaria consapevolezza delle caratteristiche metrologiche, e quindi del trattamento che lecitamente si è autorizzati a compiere con i dati e le informazioni assunti con la particolare prova impiegata. Il rispetto di questo principio fondamentale può di fatto migliorare non poco la pratica valutativa corrente poiché per un verso demitizza l’uso preponderante del testing come unica azione valutativa corretta, per altro verso valorizza e recupera sul piano critico, il meglio della tradizionale strumentazione valutativa degli insegnanti. Tra i due opposti poli delle prove tradizionali e di quelle oggettive vi è infatti tutta un’estesa ed articolata gamma di strumenti valutativi assai importanti, talvolta utilizzati in modo distorto nella prassi scolastica corrente, talaltra poco o per niente conosciuti o impiegati, che potrebbero invece contribuire a differenziare e a rendere sempre adeguate e pertinenti le prove agli scopi della verifica e alle caratteristiche delle abilità da rilevarsi volta a volta. Tra i tanti strumenti valutativi che si possono proficuamente impiegare assumono una importanza del tutto particolare le prove semistrutturate, così chiamate perché al momento della loro somministrazione rispetto alle prove oggettive presentano ben strutturata solo la parte che sollecita la manifestazione delle competenze da verificare. Sono infatti prove a stimolo chiuso e risposta aperta, ma aperta in modo che, nella quasi generalità dei casi, l’allievo sia per così dire costretto dalla specificità della sollecitazione, a porre in netta evidenza il possesso o non possesso delle conoscenze sottoposte a controllo e a consentire a chi le corregge di attribuire in forma tendenzialmente univoca e oggettiva i punteggi (così assicurando una buona validità ed attendibilità della rilevazione). Consistono, in generale, in una serie articolata di quesiti che richiedono non già di scegliere – come per le prove oggettive – l’alternativa esatta tra quelle offerte, bensì di elaborare autonomamente le risposte, osservando – a differenza di molte prove tradizionali, dalle quali si distinguono anche per la specificità degli stimoli – ben precisi vincoli prescrittivi indicati esplicitamente. In tal modo le risposte possono confrontarsi con i corrispondenti criteri di correzione opportunamente

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

7

predeterminati, rendendo agevole l’identificazione dei livelli di accettabilità delle prestazioni, della scala di misura e dei punteggi da assegnarsi. Quando per le caratteristiche della specifica prova non risulti possibile formulare univocamente le risposte attese per ciascun quesito, in modo che fungano da criterio oggettivo di riferimento per la verifica e la valutazione, si dovranno predeterminare i livelli di accettabilità delle risposte, cioè quali e quanti contenuti informativi devono esse veicolare per poterle ritenere accettabili. Operazioni, queste, che svolte al momento della costruzione della prova, evitano che i quesiti definitivi risultino ambigui o generici, perché possono correggersi immediatamente. La relativa apertura della risposta rende estremamente flessibili questi strumenti di rilevazione che più di altri permettono, per es., di verificare i cosiddetti processi intellettuali superiori, la capacità di porre in relazione ciò che apparentemente è irrelato, di applicare in contesti nuovi, opportunamente simulati, i saperi disciplinari e multidisciplinari acquisiti, di verificare, in altre parole, vere e proprie competenze intendendo per competenza «la capacità da parte di un soggetto di impiegare schemi d’azione e/o strategie di risoluzione di un problema in un contesto definito, impiegando tutte le conoscenze possedute, ovunque e comunque acquisite, così da compiere – contestualmente – una vera e propria metacognizione, ma anche un controllo procedurale della bontà dello schema/strategia, e perciò una metavalutazione tali da permettere l’assunzione di decisioni di intervento risolutivo anche grazie alla riflessione critica della pertinenza o adeguatezza della strategia prescelta al contesto dato (metadecisione) per poterla evidentemente cambiare al fine di giungere a un risultato accettabile». Tra le più importanti prove semistrutturate vanno annoverati senz’altro i saggi brevi, i riassunti, le domande strutturate, i rapporti di ricerca, il colloquio strutturato e la simulazione di contesti. Occorre tuttavia far presente che ogni possibile prova di verifica quando possegga i requisiti formali, ovvero metrici, sopra indicati, può ad ogni effetto definirsi semistrutturata. È il caso di taluni degli strumenti di accertamento previsti dai nuovi esami di Stato al termine della secondaria superiore, compreso l’articolo di giornale. 2. 3. Altri strumenti Se dall’ambito della classe e dei processi di verifica e valutazione all’interno di essa si vuole spostare l’attenzione sull’unità scolastica, è inevitabile osservare che l’autoreferenzialità che per molti anni ha caratterizzato la nostra scuola, ovvero il suo timore di valutare in modo trasparente e democraticamente accettabile, la qualità dell’istruzione offerta ai propri allievi e i risultati fatti conseguire, rappresenta un atteggiamento sempre meno accettabile. Alla scuola intesa come sistema nazionale, ma anche ad ogni singola istituzione scolastica, è richiesto di avviare procedure e strumenti per verificare l’efficacia delle proprie azioni e, quando necessario, intraprendere percorsi di miglioramento. Per l’attuazione dei processi di autovalutazione d’istituto occorre mettere in atto una serie di operazioni di analisi e valutazione non solo degli apprendimenti degli allievi, ma anche dell’efficacia delle attività progettate e svolte. Dall’analisi valutativa della congruenza tra le scelte progettuali, organizzativo-didattiche compiute, delle risorse impiegate, e gli esiti intermedi e finali conseguiti dagli allievi, soprattutto sul piano degli apprendimenti, si potrà procedere al miglioramento continuo della qualità dell’offerta formativa e ad assumere informazioni utili per l’elaborazione del successivo Piano dell’Offerta Formativa di ogni unità scolastica. In relazione al modello di riferimento, le funzioni di controllo e valutazione prenderanno in considerazione le seguenti variabili:

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

8

a) Variabili di contesto: Dal livello di istruzione della popolazione residente nel territorio in cui opera la scuola all’analisi dei bisogni formativi generali dell’utenza potenziale della scuola medesima; dalle risorse culturali e formative presenti nel territorio alle strutture di ricerca e di servizio, eccetera. b) Le variabili di input e di risorse: Dalle caratteristiche cognitive e affettivo-motivazionali della popolazione scolastica in ingresso alle caratteristiche professionali degli insegnanti, comprese le competenze extraconcorsuali impiegabili per fini formativi e organizzativi; dalle risorse materiali (spazi, attrezzature, ecc.) a quelle finanziarie. c) Le variabili di processo: Dall’organizzazione spazio-temporale dell’offerta didattica alle strategie di intervento per l’individualizzazione dei processi formativi, comprese le procedure di verifica e valutazione degli apprendimenti e delle caratteristiche affettivo-motivazionali degli allievi; dal “clima” di scuola e di classe ai processi di innovazione didattica; dai processi di aggiornamento e/o autoaggiornamento del personale scolastico, in primis degli insegnanti, ai collegamenti con il territorio, con altre scuole (rete), con centri di ricerca e di servizio a livello locale e nazionale; dall’apertura della scuola in orari extrascolastici agli allievi per attività formative para ed extracurricolari alle modalità di strutturazione (e ai livelli di condivisione), di attuazione e controllo delle decisioni a livello collegiale, di consiglio di classe, individuale. d) Le variabili di prodotto: Dal livello complessivo degli apprendimenti promossi nelle principali aree curricolari agli atteggiamenti e alle disposizioni verso l’apprendimento autonomo degli allievi; dal valore formativo aggiunto prodotto dall’unità scolastica al livello di soddisfazione degli allievi, dei docenti e dei genitori. e) Le variabili di outcome: la riuscita negli studi e/o lavorativa a breve e medio termine dei licenziati. Gli strumenti che a tale scopo possono essere impiegati sono i seguenti: – questionari e/o interviste per la rilevazione delle caratteristiche del contesto socio-economico-culturale e dei bisogni formativi – questionari e/o interviste utili per la rilevazione delle aspettative, dei livelli di soddisfazione e di atteggiamento di allievi, docenti, genitori e osservatori “privilegiati” – questionari e/o interviste per l’autoanalisi della professionalità docente (organizzazione interna alle classi del curricolo, della didattica, ecc.) – questionari e/o interviste per l’analisi dell’interpretazione delle attività didattiche da parte degli allievi – questionari e griglie di autoosservazione e/o di registrazione (prevalentemente in forma di check-list) di dati valutativi, sia qualitativi sia quantitativi (indicatori elementari), relativi sia ai processi di strutturazione, condivisione e controllo (interno/esterno) delle decisioni, sia ai processi di attuazione delle stesse – check-list per la determinazione delle caratteristiche del POF

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

9

– tabelle di classificazione e analisi delle risorse professionali e materiali – prove oggettive e semistrutturate per la verifica delle competenze iniziali e finali degli allievi (per anno di corso e/o di corso). 2. 4. Utilizzo degli strumenti di ricerca Gli strumenti di ricerca, dunque, sono di diverso tipo e vengono scelti a seconda degli scopi dell’indagine, degli ambiti in cui essa si svolge e del metodo utilizzato. Gli strumenti possono essere generali o analitici e avere una strutturazione diversa sul piano della flessibilità e della complessità. Per l’acquisizione di conoscenze in campo educativo e sociale, come si è detto, trovano ampia applicazione le check list, le scale di valutazione, le interviste, i questionari e i test. Possiamo dire che la check list è la forma più elementare di questionario; essa costituisce un elenco attraverso il quale si constata la presenza/assenza di un dato oggetto di osservazione, che può essere rappresentato da un fenomeno, da un evento, da un comportamento o da un oggetto, e ne rileva la frequenza di comparsa. L’uso di una check list guida e sistematizza l’osservazione e la conseguente annotazione dei dati su schede predisposte allo scopo, senza che l’osservatore formuli alcun giudizio sui dati riscontrati. La fase di rilevazione attraverso questo strumento esclude infatti qualsiasi valutazione. Nella costruzione di una check list si parte in genere dalla stesura di uno schema basato sulla propria conoscenza di un problema e sull’esperienza che se ne ha; questa traccia iniziale va poi integrata e verificata in base agli studi esistenti sull’argomento, ai suggerimenti che possono venire da altri ricercatori, alle informazioni che possono scaturire dal lavoro di osservazione; pertanto è opportuno somministrare un pre-test prima di diffondere una check list su scale più ampia. Questo strumento può essere validamente usato dagli insegnanti che vogliano esplorare ad esempio alcune caratteristiche del comportamento dei loro allievi o vogliano raccogliere dati sul possesso da parte loro di determinate abilità, di tipo motorio, cognitivo, relazionale o altro. È ovvio che incide sulla validità della rilevazione e sulla fedeltà dei risultati che se ne ricavano il modo in cui sono formulati i dati da osservare; anche in questo caso vale la regola già enunciata per la formulazione delle ipotesi dell’uso di un linguaggio operativo e univoco, che consenta a persone diverse di osservare e leggere lo stesso dato senza lasciare spazio a interpretazioni soggettive. Facciamo degli esempi. Supponiamo di redigere una check list per rilevare alcuni aspetti delle relazione genitore-figlio; inseriamo nella lista le seguenti voci: – I genitori parlano al figlio con tono pacato – I genitori fanno regali al figlio quando prende un buon voto a scuola. I comportamenti da osservare sono espressi in termini operativi ma abbiamo ugualmente commesso un errore: come è noto, i genitori sono due e non è detto che abbiano gli stessi comportamenti nello stesso momento. Occorrerà perciò dire: – La madre parla al figlio in tono pacato – Il padre parla al figlio in tono pacato – ecc. Anche una check list del tipo: – È socialmente ben inserito – È aggressivo – Ha un comportamento ottimo – Ha un comportamento pessimo è mal costruita poiché non esplicita gli indicatori dei comportamenti “ottimo”, “pessimo”, “aggressivo”, “socialmente ben inserito”, tutte formule che possono avere significati molto diversi per le diverse persone che osservano.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

10

L’elemento valutativo che è escluso dalla check list è invece presente nelle scale di valutazione o rating scale; si tratta di una valutazione quantitativa che permette di fare delle classificazioni. In una scala numerica la scelta di un numero su una scala stabilita in precedenza esprime una valutazione. È quanto può avvenire in scale di valutazione globale degli allievi in cui sia stato stabilito che: 1 = sufficiente; 2 = insufficiente; 3 = buono; 4 = distinto; 5 = ottimo Pertanto rileveremo che un allievo ha • Comportamento collaborativo verso i compagni 1 2 3 4 5 • Comportamento collaborativo verso gli insegnanti 1 2 3 4 5 • Senso di responsabilità 1 2 3 4 5 e indicheremo la misura in cui manifesta questi comportamenti contrassegnando il numero corrispondente all’aggettivo scelto. Un’indagine può inoltre essere condotta attraverso scale descrittive nelle quali si valuta la frequenza o il grado di intensità con cui un dato si verifica. Ad esempio:

Queste scale a più punti, dette scale Lickert, vengono spesso utilizzate per misurare atteggiamenti e opinioni. I punti esprimono il grado di accordo o di disaccordo con il quesito proposto. Generalmente si preferiscono scale a quattro o a cinque punte, cioè con quattro o cinque possibilità di scelta corrispondenti ad aggettivi che oscillano tra un grado massimo di accordo e un grado massimo di disaccordo con un’affermazione data, come negli esempi precedenti. L’intervista consiste nel porre un certo numero di domande a una persona o a gruppi di persone scelte in modo da costituire una sezione rappresentativa di una popolazione (es.: gruppi di malati che rappresentano la popolazione “pazienti”). Esistono vari tipi di intervista, che possono essere classificati in base a due criteri: il numero dei partecipanti e il metodo impiegato. A seconda del numero degli intervistati si avrà l’intervista individuale o l’intervista di gruppo. Un esempio di intervista di gruppo può essere dato dalla discussione in una classe o in una scuola circa le modalità organizzative interne. Il metodo può essere più o meno strutturato a seconda dello scopo della ricerca e della fase in cui essa si trova. Se si vogliono sondare le motivazioni che spingono una persona a mettere in atto certi comportamenti sarà opportuno lasciare spazio all’espressività dell’intervistato per andare in profondità nella raccolta dei dati. Tuttavia l’intervista libera o non strutturata non è una conversazione occasionale in quanto è guidata dalla precisa intenzione di raccogliere informazioni. In campo educativo un esempio di questo tipo di intervista è dato dallo scambio di punti di vista in un colloquio genitori-insegnati che si propone di risolvere i problemi dell’allievo o della classe.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

11

Quando l’intervista libera non prevede domande ma l’introduzione di un tema, sul quale l’intervistato può parlare fin che vuole, si ha l’intervista dinamica, un metodo largamente utilizzato dalla psicanalisi. Anche la riflessione parlata può essere considerata una forma di intervista: l’allievo è invitato a formulare a voce alta le idee che gli si affacciano alla mente mentre è impegnato nella soluzione di un problema. L’interesse di questa tecnica in ambito educativo e didattico è evidente: attraverso la verbalizzazione è infatti possibile cogliere i processi mentali attuati nello svolgimento di un compito, monitorare il modo in cui procedono e cogliere le cause di successo o di errore. Quando si vogliono indagare interessi, atteggiamenti, opinioni o comportamenti di interi gruppi il modello di rilevazione dovrà essere invece quanto più possibile strutturato per consentire il confronto tra i diversi soggetti. Mentre l’intervista libera non permette di operare quantificazioni, l’intervista strutturata, detta anche colloquio direttivo, consente la classificazione delle risposte su apposite scale, a patto che nel progettare e nel condurre l’intervista siano state rispettate alcune condizioni: – l’interazione tra intervistatore e intervistato deve essere bassa. È noto infatti che la risposta fornita può variare per l’influenza esercitata, sia pure inconsapevolmente, dall’intervistatore per effetto delle sue caratteristiche di personalità, dei suoi atteggiamenti durante l’intervista, della sua capacità di instaurare rapporti umani o altro. Ovviamente la gestione del peso dell’interazione dipende da una adeguata preparazione dell’intervistatore. Una delle tecniche di formazione più utilizzata è il role playing, o gioco di simulazione. Tale tecnica consiste nel simulare una intervista durante la quale lo studente gioca alternativamente il ruolo di intervistato o di intervistatore; – le domande devono essere formulate a tutti gli intervistati secondo una formula standardizzata. Ciò significa che tutti devono ricevere le stesse domande e le stesse spiegazioni; inoltre i colloqui devono svolgersi in condizioni analoghe, – l’intervistatore non deve intervenire pesantemente sulle risposte per semplificarle e renderle confrontabili; questo infatti introdurrebbe elementi di arbitrarietà nei risultati della ricerca. Possiamo dire che un’intervista ben strutturata costituisce una sorta di questionario presentato in forma orale. Il questionario è uno strumento ampiamente utilizzato per sondare opinioni e atteggiamenti ma trova ampia applicazione anche in ambito scolastico sotto forma di prove di verifica. Questo utilizzo diffuso autorizza a ipotizzare che ciascuno di noi abbia avuto modo di sperimentare almeno uno dei vari tipi di questionario, ciascuno dei quali ha proprie modalità di costruzione e di somministrazione che ne determinano pregi e limiti. Un questionario può vere la forma di un colloquio personale ed essere somministrato nella forma di un’intervista diretta, come avviene ad esempio durante un’anamnesi, sia essa di carattere medico, psicologico, pedagogico o altro. Indipendentemente dallo scopo dell’indagine e dal tipo di dati che vuole ricavare, nell’intervista diretta il somministratore può controllare immediatamente la veridicità delle risposte e può richiedere precisazioni qualora fossero necessarie. Attraverso somministrazioni di questo tipo si possono quindi ottenere informazioni approfondite, ma la sua efficacia è molto legata all’abilità dell’intervistatore; a questo limite si aggiungono i costi elevati che essa comporta rispetto ad altri tipi di questionari. Il questionario da restituirsi compilato è senz’altro più economico; escludendo però il contatto diretto tra intervistatore e intervistato ha il limite di non permettere la chiarificazione di eventuali dubbi che possono sorgere sia sui quesiti che sulle risposte date. È perciò necessario che il questionario sia presentato in una forma molto chiara. Qualora sia necessario condurre un’indagine su vaste aree geografiche si può ricorrere al questionario postale, strumento senz’altro più economico dei precedente ma il cui uso comporta alcuni rischi, quali l’alto numero di dispersioni, una percentuale elevata di omissioni di risposte nei questionari restituiti. Ciò determina una autoselezione del campione e delle risposte (ad es:

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

12

risponderanno prevalentemente persone con determinate interessi culturali o professionali fornendo riposte conformi perché dettate dal proprio status). Non è perciò certo che la risposta provenga dalla persona che era necessario intervistare. Un contatto più diretto con l’intervistato è possibile attraverso il questionario telefonico; questa modalità ha il vantaggio di poter essere svolta rapidamente ma ha anche importanti vincoli, quali: l’uso di questionari brevissimi, l’impossibilità di raggiungere tutti gli strati della popolazione, la limitatezza dei generi di domande che si possono porre. Le domande di un questionario possono essere di diverso tipo; si possono avere domande a risposta chiusa, domande a risposta aperta, domande strutturate. Le risposte chiuse sono relativamente complete in quanto nella costruzione del quesito sono state previste tutte le modalità di risposta; inoltre essendo uguali per tutti gli intervistati permettono il confronto tra essi e agevolano le operazioni di codifica e di classificazione. Le alternative possono essere costituite da SI/NO o da una lista di opzioni più articolata. Facciamo degli esempi. – Vorresti visitare un Paese straniero? SI NO – Tra i Paese stranieri di seguito elencati indica con una crocetta nell’apposito quadratino quello che vorresti visitare: � Spagna � Iraq � Nigeria � Malta � ecc. Un quesito a risposta aperta invece non richiede all’intervistato di operare una scelta fra un certo numero di alternative che gli vengono proposte. Nelle domande aperte le modalità di risposta non sono state previste anticipatamente; esse possono quindi essere usate qualora si conduca un’indagine in un ambito nel quale non si conoscono tutte le possibili risposte. Supponiamo di volere conoscere le motivazioni che spingono un adulto ad affrontare un percorso formativo oneroso relativo alla propria professione. Potremo proporre un questionario con stimoli a risposte aperte, dalle quali ricaveremo delle categorie che consentiranno la formulazione di un numero congruo di alternative in grado di esplorare tutte le possibili risposte. Questo tipo di risposta è preferibile quando si voglia stimolare un intervistato a esprimere opinioni o scopi, lasciandogli la libertà di esprimersi con il linguaggio che gli è proprio, dei quali si vogliono cogliere la complessità dei dettagli. Lasciare spazio all’espressione dell’intervistato può però rappresentare uno svantaggio; persone diverse forniscono infatti informazioni difformi e lo spazio lasciato alla ricchezza interpretativa del ricercato è molto ampio. Lo spoglio delle risposte può quindi essere molto lungo e possono verificarsi difficoltà nella loro attribuzione a determinate categorie. Le risposte strutturate hanno anch’esse alternative fisse predeterminate ma sono più articolate delle riposte chiuse in quanto vengono formulate dopo un’indagine esplorativa. Anche per questo serviamoci di un esempio a scopo esplicativo e fingiamo di voler indagare le strategie di memorizzazione che uno studente attua. Ricordo meglio se posso: � servirmi di schemi, di grafici o di tabelle già predisposti

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

13

� costruirmi schemi, grafici o tabelle riassuntive � ripetere più volte la lezione da solo � ripetere più volte la lezione insieme a un compagno ecc. Un altro strumento molto usato in campo educativo, nella formazione e nel più generale ambito delle scienze sociali, di cui si è già in parte parlato, è il test. Essi costituiscono un sistema ampio e variegato, che si può classificare in base al procedimento necessario alla sua esecuzione (test carta-matita, test di manipolazione, test orale), oppure al tipo di oggetto indagato, come l’intelligenza, le abilità, lo sviluppo, le conoscenze, il rendimento, la personalità. In situazione scolastica i test di conoscenza sono utilizzati al fine di valutare un allievo. Essi infatti per definizione misurano il risultato di un apprendimento conseguito in condizioni date, e hanno lo scopo di accertare la situazione di partenza di ciascun allievo, di verificare le conoscenze apprese localizzando le eventuali difficoltà e i motivi che le hanno originate. La somministrazione di un test può essere individuale o collettiva; a volte essa prevede il controllo del tempo d’esecuzione, mentre in altri casi il tempo a disposizione dei soggetti è libero. Quando occorre quantificare in maniera rigorosa le risposte date da un soggetto si usano test oggettivi; in essi le consegne sono formulate in modo da non poter essere deformate, come avviene nei questionati a risposta chiusa. Esempio: Nel tempo di 15 secondi scrivi il maggior numero di volte possibile le seguenti serie di lettere: abcd ABCD. I test soggettivi propongono invece stimoli poco strutturati per stimolare la capacità di introspezione dei soggetti testati. Se vogliamo indagare attraverso questo tipo di test il rapporto che un allievo ha a scuola con i compagni e gli insegnati, possiamo fornire uno stimolo per l’autoanalisi attraverso una frase come: Quando sono interrogato e devo parlare davanti a tutti vorrei essere meno agitato. Ancora meno strutturati sono i test proiettivi, nei quali il soggetto testato è chiamato ad interpretare un materiale fluido, cioè non ben definito, oppure ad eseguire attività creative, quali disegni, giochi, costruzioni. Queste tecniche mirano ad indagare gli aspetti più profondi della personalità e sono applicate in ambito clinico. Oltre a quelli presentati esistono altri strumenti utilizzabili nella ricerca e riferiti a settori specifici, come i test sociometrici, che hanno lo scopo di rilevare la rete di rapporti esistenti all’interno di un gruppo. La sociometria si occupa infatti di quantificare i rapporti fra persone che partecipano a una situazione scelta come contesto di ricerca; tale quantificazione avviene sulla base di prove standardizzate oppure attraverso l’utilizzo di tecniche di osservazione. 2. 5. Progettare e realizzare strumenti Perché uno strumento serva realmente alla rilevazione di dati di ricerca la sua costruzione deve essere effettuata tenendo conto di due imperativi: chiarezza e precisione. La loro osservanza richiede che la redazione del questionario definivo da divulgare sia preceduta da una fase esplorativa. È infatti un principio generale che uno strumento, questionario, test, check list o scala di valutazione, debba essere sempre provato prima di essere diffuso. Sulle caratteristiche della fase esplorativa abbiamo già data qualche indicazione nel paragrafo precedente, ma prima di procedere sarà forse opportuno richiamare alla mente questi aspetti riconducendoli a tre tappe. 1a tappa. Innanzitutto ricordiamo che uno strumento non è un prodotto che balza fuori dal nulla, senza punti di contato con lo studio che si vuole svolgere. I materiali per la sua costruzione possono essere forniti da diverse fonti, quali: – la letteratura esistente sul problema considerato;

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

14

– i contatti con le persone interessate all’indagine. Se per esempio stiamo conducendo un’indagine sulle abilità di comprensione in allievi di scuola elementare sarà opportuno entrare in contatto con gli insegnati e gli allievi della scuola dove si condurrà la rilevazione; – i risultati di inchieste precedenti sullo stesso tema; – i documenti statistici disponibili; – gli schedari di altri enti, agenzie, imprese ecc. che possano fornire indicazioni utili. È ovvio che quando si attinge a documenti già esistenti è necessario verificare che il contenuto fornisca dato reali e non opinioni. Questa prima raccolta di informazioni viene supportata dall’esplorazione attraverso interviste o questionari a risposta aperta da somministrare a un campione della popolazione che si dovrà studiare. 2a tappa Occorre stabilire fin dall’inizio il tipo di domande che si vorranno porre poiché si ottengono dati diversi a seconda che si formulino domande chiuse, aperte o strutturate. Scegliendo il tipo di domanda si sceglie quindi il contenuto della risposta, e questo avviene in funzione degli scopi dell’indagine. In un questionario di opinione, ad esempio, si useranno di preferenza domande a risposta aperta, mentre in una prova di conoscenza si ricorrerà a domande strutturate. 3a tappa Dopo aver stabilito il tipo di dati che si vogliono ottenere è necessario decidere quale tipo di comunicazione si vuole attivare con le persona da contattare e scegliere il mezzo più idoneo fra i diversi tipi di questionario possibili: colloquio personale, questionario da restituire compilato, questionario postale, questionario telefonico.. La corretta gestione dei passaggi illustrati dovrebbe mettere il ricercatore in condizione di raggiungere lo scopo di ottenere informazioni precise. Perché ciò si realizzi chi predispone il questionario deve essere particolarmente attento a tre aspetti: il vocabolario utilizzato nella domanda, la lunghezza della domanda, la sua disposizione nel corpo dello strumento. La scelta dei termini con i quali formulare le domande deve tenere conto dei destinatari ed essere commisurata alle loro conoscenze e competenze. Occorre quindi usare vocaboli semplici, che non abbiano bisogno di chiarimenti per essere compresi. Questa regola vale se l’inchiesta si rivolge a un pubblico ampio, con il quale è bene evitare l’impiego di termini tecnici, sia se si costruisce una prova di verifica in classe; in questo caso l’insegnate che ha costruito lo strumento avrà cura di servirsi delle parole usate nelle spiegazioni o contenute nel testo di riferimento. L’uso di termini tecnici è giustificato quando la somministrazione avviene in un ambiente nel quale essi sono parte del linguaggio comunemente utilizzato per descrivere le attività che vi si svolgono. In questo caso la semplificazione di espressioni specifiche potrebbe produrre una deleteria indeterminatezza del linguaggio. Incide negativamente sulla chiarezza delle formulazioni anche l’uso di parole che, esprimendo concetti molto ampi, hanno significati molteplici, che possono mutare a seconda del contesto in cui vengono espressi, oppure del quadro di valori e di convinzioni al quale fanno riferimento le diverse persone intervistate. Supponiamo di voler condurre un’inchiesta sulla diffusione degli atti di bullismo (http://www.smontailbullo.it/;http://www.edscuola.it/archivio/statistiche/bullismo.html

http://www.edscuola.it/archivio/interlinea/bullismo.html in una certa popolazione scolastica. Una domanda del tipo “Ci sono bulli nella sua scuola?” è estremamente imprecisa. Sappiamo infatti che la definizione di bullismo risente molto del contesto culturale di riferimento e quindi è soggetta ad una varietà di interpretazioni che variano non solo da persona a persona ma anche da un territorio all’altro, e perfino da un quartiere all’altro nella stessa città. Nell’approntare uno strumento utile ai fini di una simile inchiesta si dovrà quindi fornire una

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

15

definizione del fenomeno in oggetto, in questo caso del bullismo, e proporre quesiti che ne indaghino i diversi aspetti ricorrendo a un linguaggio operativo, riferibile cioè ad azioni concrete. Anche nel caso in cui si voglia verificare l’esistenza di comportamenti socialmente adeguati, come ad esempio la capacità di prestare aiuto, occorrerà esplicitare le categorie e i comportamenti che esprimono questa capacità. L’aiuto può essere infatti verbale o fisico, e ha ovviamente caratteristiche diverse; può essere dato incoraggiando o sostituendosi all’altro; può essere un aiuto reale o un esibizione di aiuto e così via. Un elemento che disorienta chi deve rispondere ad una domanda è il fatto che essa contenga una negazione o una doppia negazione, come ad esempio: «Gli alunni non hanno collaborato all’allestimento della recita, hanno chiacchierato e disturbato durante la preparazione?» «Non ritiene sia opportuno non assegnare compiti di recupero agli allievi che sistematicamente non raggiungono gli obiettivi?». Domande poste con questi toni possono essere percepite come una minaccia per il soggetto stesso o per l’immagine che fornirà del suo ambiente. Esse non favoriscono perciò un atteggiamento collaborativo da parte dell’intervistato; questo vale anche per le domande tendenziose nelle quali l’intervistatore introduce un giudizio di valore. Proponiamo un esempio riprendendone uno dei due precedenti: «Non ritiene sia opportuno non assegnare compiti di recupero agli allievi che sistematicamente non raggiungono gli obiettivi perché questo è inutile?». Un problema che affligge chi si trova a dover costruire un questionario, soprattutto se non ha una consolidata esperienza in merito, è quello della lunghezza opportuna sia del questionario che dei singoli quesiti. A questo proposito non esiste una precisa regolamentazione fondata su valutazioni statistiche che valutino l’incidenza della lunghezza delle domande, né è possibile indicarne il numero massimo da includere in uno strumento; tuttavia si hanno delle indicazioni generali che l’esperienza ha dimostrato valide. Sulla lunghezza dello strumento incidono il soggetto dell’inchiesta, il luogo in cui si svolge, la popolazione interessata, l’interesse che lo studio ha per tale popolazione. È ovvio che se l’argomento dell’inchiesta è difficile e richiede ai soggetti riflessioni lunghe il numero di domande dovrà essere contenuto, per evitare che la stanchezza incida negativamente sui risultati. Allo stesso modo dovrà necessariamente essere breve una serie di quesiti somministrati in un luogo pubblico. La disponibilità a investire tempo e fatica nella partecipazione a una indagine può essere poi influenzata dal livello culturale delle persone coinvolte; persone con un grado di scolarizzazione più elevato sono probabilmente avvezze ad essere interrogate e quindi tollerano maggiormente un questionario lungo. Tuttavia occorre anche considerare l’incidenza delle aspettative che si ingenerano in chi partecipa all’inchiesta. Se gli intervistati prevedono di ricevere dai risultati del questionario indicazioni pratiche che facilitino lo svolgimento di attività quotidiane saranno ben disposti verso un questionario che presenti un numero di domande considerevoli. Facciamo due esempi. Siamo in presenza di adulti ai quali viene proposto di compilare un questionario per la rilevazione delle loro abilità di studio. Se essi debbano affrontare un percorso formativo per il superamento di un esame dal quale dipenderà l’evoluzione della loro posizione professionale la lunghezza del questionario e il conseguente onere del lavoro non costituiranno un problema. L’aspettativa è infatti di ricevere indicazioni strategiche e metodologiche utili per condurre lo studio necessario economizzzando tempo ed energie. Se gli adulti interessati non hanno questo obiettivo pratico che crea il terreno favorevole l’interesse per il questionario sarà meno vivo e il fattore stanchezza interverrà più rapidamente. Per quanto riguarda la lunghezza della domanda è bene considerare che quanto più essa è lunga tanto più aumenta il rischio che la risposta non sia valida. Una formulazione troppo estesa può essere dispersiva e incidere negativamente sulla comprensione; questo avviene sia in caso di domanda scritta che di quesito orale.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

16

Anche la disposizione delle domande influenza la precisione delle risposte. È perciò opportuno presentare i quesiti con una forma grafica che renda rapida la scelta dell’opzione e faciliti lo spoglio dei dati. Le domande possono essere presente in forma di tabelle Dove si possono svolgere le seguenti attività?

oppure secondo le modalità indicate nel capitolo precedente a proposito dei quesiti a risposta chiusa e a risposta strutturata. È frequente che le persone alle quali viene somministrato uno strumento manifestino ansia, e a volte reticenza, nell’assolvere il compito. Per predisporli a una produttiva collaborazione non bastano generiche rassicurazioni ma occorre spiegare loro in modo chiaro ed esauriente il motivo per cui se ne richiede la partecipazione all’indagine. Lo strumento deve quindi essere preceduto da una presentazione che espliciti lo scopo per cui l’argomento in oggetto viene studiato e indichi le modalità di risposta corretta. Occorre inoltre precisare se il questionario è anonimo oppure se l’intervistato deve indicare i dati personali. In questo secondo caso deve essere assicurata la riservatezza dei dati, come che del resto impone a ogni ricercatore, senza possibilità di deroga, la deontologia professionale. Restando nell’ambito delle indagini sullo studio, che ci ha già offerto alcune possibilità di esemplificazione, possiamo formulare la seguente presentazione: Il questionario che vi proponiamo ha lo scopo di aiutarvi a riflettere sul modo in cui studiate e sui problemi che incontrate a scuola. Nel questionario troverete domande di tipo diverso su voi stessi, sulla vostra famiglia, sulla vostra esperienza scolastica, sul vostro rapporto con i compagni. Le domande del questionario sono seguite da più risposte. Per rispondere tracciate una crocetta sulla casella corrispondente alla vostra risposta, come nell’esempio che segue. Ricordo meglio se posso: � servirmi di schemi, di grafici o di tabelle già predisposti � costruirmi schemi, grafici o tabelle riassuntive � ripetere più volte la lezione da solo � ripetere più volte la lezione insieme a un compagno Non esistono risposte giuste o risposte sbagliate perché lo strumento vuole aiutarvi a conoscere meglio voi stessi. Ciò che conta è che rispondiate con sincerità a tutte le situazioni descritte evitando omissioni. Vi ricordo che i questionari sono anonimi oppure Vi ricordo che le vostre risposte sono strettamente confidenziali.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

17

3. Raccolta e trattamento dei dati valutativi

3.1 La raccolta e l’elaborazione dei dati La fase intermedia tra la rilevazione e l’elaborazione dei dati è data dalla raccolta e dallo spoglio di questi. Durante l’operazione di raccolta si operano una revisione e una organizzazione del materiale per eliminare errori che possono essersi verificati durante la rilevazione, come: la duplicazione di quesiti che portano alla rilevazione ripetuta dello stesso dato, la rilevazione di informazioni sbagliate, lacune dovute a mancate risposte. È facile intuire che l’accuratezza di una rilevazione è fortemente condizionata dalla frequenza con cui questi tipi di errore si manifestano. Il materiale raccolto e revisionato viene tabulato, cioè inserito in tabelle. In questi prospetti di spoglio si indica nella prima colonna la variabile indagata, nella seconda colonna si traccia una sbarra in corrispondenza della variabile scelta, nella terza colonna si riporta la frequenza della scelta. Facciamo un esempio di tabella per lo spoglio dei dati sul profilo socio-economico dei genitori degli allievi di una certa scuola e consideriamo la variabile “grado di istruzione della madre”.

Lo spoglio consiste appunto nella enumerazione delle unità rilevate. Per ogni gruppo di cinque rilevazioni le prime quattro vengono segnate con trattini allineati mentre la quinta sbarra l’insieme. Supponiamo ora di aver somministrato a scuola una prova oggettiva, stabilendo degli intervalli di punteggio, e di aver ricavato la seguente tabella:

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

18

Vogliamo mettere in relazione i punteggi ottenuti dagli allievi con il grado di istruzione della madre. Elaboreremo allora una tabella a doppia entrata, che è il metodo più comune per tabulare i dati facilitando la successiva elaborazione e l’eventuale immissione dei dati nel computer.

Quando il numero delle unità da rilevare è elevato o sono molto numerose le tabelle da costruire lo spoglio manuale dei dati diventa impossibile e si ricorre ai programmi informatici. Questi consentono l’inserimento di enormi quantità di informazioni, immesse sotto forma di codici, i più semplici dei quali sono i codici numerici. Facciamo degli esempi di codifica piuttosto elementari a scopo esemplificativo. Un codice è una convenzione; pertanto per immettere nel computer la variabile “sesso” possiamo stabilire, come generalmente avviene, che: maschio = 1; femmina = 2. La codifica per la variabile “istruzione” potrà essere: analfabeta/istruzione elementare = 1; licenza media inferiore = 2; licenza superiore = 3; laurea = 4. Lo stesso vale per la variabile “stato civile”: nubile/celibe = 1; coniugato/a = 2; divorziato = 3; vedovo = 4. Se si devono codificare risposte chiuse tipo SI/NO si attribuirà codice 1 a SI e codice 2 a NO. La codifica attraverso numeri può essere utilizzata anche per risposte chiuse con un maggior numero di alternative e per le risposte

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

19

strutturate. Come abbiamo detto in precedenza le risposte aperte vengono ricondotte a categorie e a queste è possibile attribuire un codice numerico. Facciamo un esempio. Nel caso in cui abbiamo somministrato delle domande aperte per verificare quale sia lo stile educativo prevalente in genitori di una data età, potremo codificare come segue: autorevole = 1; autoritario = 2; lassista = 3; iperprotettivo = 4. Avere a disposizione una massa più o meno ampia di dati di ricerca non autorizza a trarre delle conclusioni; occorre procedere alla loro elaborazione, cioè vederne la rilevanza in relazione alle ipotesi poste. La quantificazione che è stata operata nello spoglio consente di stabilire dei confronti che possono orientare le scelte future; questo vale nell’indagine di mercato dalla quale ci si aspettano, ad esempio, informazioni per migliorare la rete di vendita, ma vale anche in campo didattico. I dati numerici, che hanno la loro tipica espressione nei voti o nei giudizi, sono infatti essenziali per compiere scelte didattiche mirate al conseguimento di un progresso didattico reale, misurabile e verificabile. Per superare la soggettività e l’approssimazione delle interpretazioni si ricorre ai metodi statistici, che grazie all’informatica sono accessibili anche ai non specialisti del settore, fermo restando che occorrono le competenze, sia pur minime, per scegliere il test più adatto alla situazione e per leggere gli elaborati. Con l’impiego dei metodi statistici opportuni ci si può rendere conto di dove i risultati vanno a concentrarsi, come avviene quando si calcolano la media aritmetica, la moda o la mediana, che offrono le cosiddette misure di tendenza centrale. La media aritmetica si ottiene sommando i valori di tutte le misure e dividendo poi questo risultato per il numero delle misure sommate; la moda corrisponde alla misura il cui valore è apparso più frequentemente; la mediana corrisponde alla misura che occupa la posizione centrale se si ordinano tutte le misure secondo un ordine crescente, cioè dalla più bassa alla più alta. Attraverso i test statistici è possibile vedere come si correlano le variabili, vale a dire come si accordano o si oppongono, e quali sono le cause alle quali si possono far risalire le correlazioni. 3.2 Analisi e interpretazione dei dati 3.2.1 Attribuzione dei punteggi e correzione Approfondiamo ora il discorso facendo riferimento ad un ambito prettamente didattico. Ogni insegnante, nello svolgimento della propria attività didattica, è cosciente del fatto che nella correzione di un tema subentrano molti più elementi di quelli di cui si è esplicitamente consapevoli. Quindi, oltre a confrontare la prestazione avvenuta con le precedenti, l’impegno messo nel compito, la corrispondenza tra prestazione e attesa, il docente deve tener conto anche del proprio stato d’animo; della noia e fatica che comporta il lavoro di correzione; la lettura dell’ennesimo compito pieno di errori, o al contrario del primo che presenta spunti originali e chiarezza espositiva. Proprio dall’insieme di questi elementi consapevoli e inconsapevoli, nel giudizio deriva la scarsa attendibilità delle verifiche. La qualità dei giudizi potrebbe migliorare se, una parte almeno degli elementi, su cui poggia il giudizio fosse costituita, invece che da interpretazioni dell’insegnante, da misure. Esistono quattro modi distinti per attuare la misurazione utilizzando una scala nominale, una ordinale, una di rapporti oppure una ad intervalli. I punteggi attribuiti alle prove oggettive di profitto appartengono alla scala ad intervalli. Secondo quest’ultima la risoluzione del test dà luogo ad un punteggio numerico; a gruppi di punteggio costante corrisponde un voto progressivo. Il voto conseguito concerne esclusivamente l’obiettivo prefissato e pertanto definisce l’abilità dell’allievo in quell’ambito. Simili valutazioni in seguito potranno servire da paragone ed essere comparate con nuovi esiti ottenuti sulla stessa abilità.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

20

3.2.2 Il punteggio grezzo L’attribuzione dei punteggi da parte degli insegnanti presuppone la decisione degli stessi di penalizzare o meno l’errore. Consideriamo una prova ad un unica tipologia di quesito e per la quale si penalizzi l’errore (allo scopo di indurre gli studenti a dare le risposte alle domande solo quando siano sicuri o abbastanza sicuri dell’esattezza della scelta); è possibile calcolare il punteggio finale della stessa nel seguente modo:

dove: P = punteggio E = numero delle risposte esatte S = numero delle risposte sbagliate n = numero delle alternative di risposta presenti per ogni domanda K = punteggio attribuito ad ogni item Si sottrae cioè al punteggio, per ogni errore, una frazione di punto equivalente alla probabilità che si ha per quell’item di soluzione casuale. Quando, invece, non si opera la penalizzazione, il punteggio complessivo sarà dato moltiplicando il numero delle risposte esatte con il corrispondente valore dato a quel tipo di quesito prima della somministrazione, sommando poi tutti i punteggi parziali. Se ad esempio una prova è formata da 10 item a scelta multipla, con quattro alternative ad una soluzione e vengono assegnati 2 punti ad ogni risposta esatta; nel caso in cui un allievo risponda bene a 7 domande e compia 3 errori si avranno i seguenti punteggi:

Alcune indagini sperimentali dimostrano che il comportamento degli allievi non cambia in modo significativo se preventivamente informati della penalizzazione dell’errore. È quindi consigliabile non penalizzare l’errore, salvo il caso in cui si operi su macrosistema. Il punteggio che risulta da questa serie di scelte, a prescindere dal criterio adottato, prende il nome di punteggio grezzo, il cui aggettivo sta ad indicare le ulteriori operazioni che si reputano necessarie sia per confronti diacronici (punteggi diversi ottenuti da uno stesso allievo in prove diverse), che sincronici (da allievi diversi nella stessa o in prove diverse). Per la somministrazione di un test sommativo con 40 item, si prevede una durata di 50’ e 30’ per quello formativo che consti di 25 item. Occorre far seguire allo svolgimento della prova una immediata correzione che permette all’insegnante di individuare facilmente i punti deboli del singolo allievo, avendo a disposizione, in questo modo, le indicazioni utili per attuare una più efficace azione di recupero. Alla valutazione assoluta della singola prova – che comunque permette e richiede il confronto con i risultati pregressi – si può affiancare la lettura della stessa, in relazione ai risultati complessivi del

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

21

gruppo. Nel primo caso parliamo di valutazione criteriale, ovvero la misurazione per standard assoluto, mirata alle abilità-criterio da verificare. Nel secondo caso – auspicabile integrazione della prima – parliamo, invece, di valutazione normativa per standard relativi. Essa permette, infatti, di avere informazioni più analitiche circa l’andamento del gruppo di allievi. Per il giudizio finale, tuttavia, è la valutazione criteriale quella decisiva, infatti, essa misura le prestazioni dell’allievo rispetto agli obiettivi prefissati. Qualora si facesse eccessivo affidamento sulla valutazione normativa, si correrebbe il rischio, ad esempio, di considerare mediocre un alunno che, pur avendo acquisito le conoscenze essenziali, risulti in ritardo rispetto alla media della classe. La valutazione criteriale presenta notevoli vantaggi nelle funzioni diagnostica, formativa e sommativa dei singoli gruppi classe, mentre la normativa è più adatta quando si fa riferimento ai grandi numeri, viste le sue articolate capacità statistiche. È soltanto dalla ponderazione di pregi e difetti di entrambe queste strade che può derivare una scelta accurata, che tiene conto delle finalità che l’insegnante si prefigge di raggiungere. 3.2.3 Le misure di tendenza centrale Come abbiamo più volte affermato, lo scopo della somministrazione di una particolare prova è quello di fornire all’insegnante indicazioni circa l’efficacia e l’efficienza della proposta didattica fornita agli studenti. In altre parole i docenti possono, in questo modo, controllare sistematicamente l’andamento o gli esiti dell’apprendimento rispetto agli obiettivi prefissati e, disporre anche di strumenti validi che permettono il confronto della prestazione del singolo con quelle dell’intero gruppo di appartenenza. Premesso ciò, dopo l’attribuzione del punteggio grezzo ad ogni prova, espresso dalla scala ad intervalli, l’insegnante può eseguire una serie di operazioni che lo agevolano nell’analisi dei dati raccolti. Dopo aver sistemato i punteggi ottenuti in ordine crescente o decrescente, l’insegnante può iniziare a muoversi nella direzione del controllo della tendenza complessiva degli apprendimenti della classe o del gruppo. Le misure di tendenza centrale, che la scala ad intervalli ci permette di calcolare sono: la media aritmetica, la mediana e la moda . Supponiamo che l’insegnante abbia già operato la sistemazione crescente dei punteggi conseguiti con le prove, e che la distribuzione risulti: 15 20 27 28 29 31 33 34 36 36 36 38 38 39 40 Nel caso presentato, la media aritmetica Xm, che esprime la somma dell’insieme dei punteggi, divisa per il numero degli stessi, è data da:

dove: S = simbolo di sommatoria xi = singoli punteggi n = numero dei punteggi Utilizzando la stessa distribuzione si può calcolare la mediana m, che ne rappresenta il valore centrale. Nel nostro caso m = 34, poiché, essendo dispari il numero dei punteggi e ponendosi al centro della distribuzione, corrisponde all’ottava posizione. In questo modo, il valore 34 coincide al

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

22

reale punteggio conseguito da qualche allievo. Avendo invece n pari, essa verrà espressa dalla media aritmetica dei due punteggi centrali, con la variante di poter anche non corrispondere al punteggio realmente assegnato. Il valore che compare nella serie indicata con maggiore frequenza è il 36 e viene chiamato moda. Ipotizzando che quella analizzata finora sia una distribuzione di punteggi risultante dalla somministrazione di una prova di verifica, appare evidentemente auspicabile che la moda si collochi verso i valori più alti. Molto spesso, invece, gli insegnanti nel condurre questo tipo di analisi sui dati, si trovano ad avere due mode, di cui, una per così dire positiva (verso i risultati migliori) e un’altra negativa (verso punteggi più bassi). Ciò fungerebbe da spia di un cattivo esito dell’attività formativa proposta dal docente, poiché la classe risulterebbe spaccata in due gruppi caratterizzati da apprendimenti diversi. Già solamente avendo a disposizione queste misure, i docenti avrebbero informazioni sufficienti per attivare una prima analisi e interpretazione dei dati. Tuttavia, è possibile anche operare delle comparazioni tra le stesse. Confronto tra media aritmetica e massimo teorico Un confronto di questo tipo permette all’esaminatore di valutare il grado di coincidenza o la differenza tra risultati conseguiti e quelli che si sperava di ottenere. Ad esempio, se l’ipotetica distribuzione sopracitata fosse stata composta da 15 item a scelta multipla, per i quali si fosse stabilito un punteggio pari a 3 per ogni risposta esatta, e 0 per ogni errore o omissione, in tal caso il punteggio massimo teorico sarebbe dato da 45 (15 x 3 = 45). Considerando la media aritmetica risultante dalla stessa serie indicata (Xm = 32), dalla proporzione 32 : 45 = Xm% : 100 si avrà che Xm% sarà uguale a 71% MT. Si può allora affermare in questo caso che le conoscenze complessive dell’intero gruppo, soggetto a controllo, rappresentano il 71% dei risultati attesi. Il campione ha raggiunto quindi più della metà degli obiettivi cognitivi che l’insegnante si era prefissato conseguendo buoni risultati, frutto di un corretto processo di istruzione. Confronto tra media aritmetica e mediana Questo secondo tipo di comparazione permette di avere indicazioni circa il conseguimento di punteggi più alti, più bassi o pari a quelli medi, della maggior parte degli studenti. Le situazioni che possono portare a risultati significativi sono quelli di una mediana più alta o più bassa della media. Nel primo caso la lettura che l’insegnante può dare è quella che più della metà degli allievi ha conseguito risultati superiori a quelli medi del gruppo, come dimostrato, nel nostro caso, 34 > 32; viceversa, la situazione sarà completamente opposta. Quanto detto finora configura un’analisi complessa ed articolata dei dati risultanti dalla somministrazione di una prova alla classe. Esaurite queste operazioni però, si rende necessaria per l’insegnante una comparazione con le verifiche precedenti. Non è possibile procedere al confronto ricorrendo alle sole misure di tendenza centrale. I risultati delle singole prove, infatti, anche quando espresse secondo tali misurazioni, possono non essere omogenei tra di loro, in quanto relativi a situazioni diverse. Nasce allora l’esigenza di una misurazione standard che renda omogenee e comparabili le valutazioni. 3.2.4 Come misurare la dispersione

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

23

Utilizzando ancora le scale ad intervalli, indicazioni utili possono aversi con le misure di dispersione. La deviazione standard (s) o scarto quadratico medio, che ne rappresenta la misura fondamentale, indica quanto mediamente ciascun punteggio si allontana dal valore medio. Quanto più numerosa è la classe cui si fa riferimento tanto maggiore è la possibilità di diversificazione dei risultati. La relazione che esprime questa nuova grandezza statistica è:

dove: S = simbolo di sommatoria da 1 a n (dal primo all’ultimo studente) xi = punteggi singoli x_ = media aritmetica dei punteggi n = numero dei punteggi Prendendo in considerazione la distribuzione dei punteggi degli studenti, indicata come esempio, avremo una situazione identica a quella risultante dalla tabella che segue:

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

24

Per cogliere meglio il significato di questi due parametri della distribuzione considerata, ovvero media e deviazione standard, si utilizza il coefficiente di variazione:

dove: cv = coefficiente di variazione s = sigma o deviazione standard x_ = media aritmetica Il risultato che scaturisce da questa formula è un valore di percentuale che varia da 0 a 100 e che indica la dispersione dei punteggi. Quanto più alto è questo valore tanto più i punteggi sono dispersi rispetto alla media, per cui avremo: cv = 6,9/32 x 100 = 21% Quando il coefficiente di variazione è superiore al valore di 15-20% (come nel nostro caso) possiamo dire che i punteggi sono significativamente poco omogenei e che quindi la nostra ipotetica classe prevede studenti con punteggi molto al di sotto e molto al di sopra della media. L’insegnante, trovandosi di fronte ad un valore alto di s, avrà informazioni utili sul grado di disomogeneità del gruppo controllato e potrà preparare la propria azione di recupero. Viceversa, quando lo scarto quadratico medio non supera il 10 – 15% del valore assunto dalla media, i punteggi conseguiti dagli studenti possono considerarsi abbastanza omogenei. Naturalmente questa omogeneità non rappresenta la conditio sine qua non per garantire l’accettabilità degli esiti di una prova, poiché è necessario che i risultati tra loro simili si accostino il più possibile al punteggio massimo teorico della prova stessa. Le misure di dispersione, insieme a quelle di tendenza centrale, permettono al gruppo docente una più agevole comparazione e la disponibilità di strumenti efficaci per verificare la prestazione complessiva del gruppo di allievi presi in esame. 3.2.5 La distribuzione pentenaria La deviazione standard rappresenta l’unità di misura dei punteggi standardizzati. Questa standardizzazione si rende necessaria poiché, come abbiamo visto più volte, le prove tradizionali, in misura particolare i voti, non consentono all’insegnante di confrontare le diverse prestazioni di un singolo allievo. D’altra parte neanche i punteggi grezzi, ricavati dai risultati delle prove oggettive, rappresentano in questo caso la soluzione “felice”, visto che ad una prova diversa corrisponde un diverso punteggio massimo teorico. Dalle considerazioni fatte emerge l’esigenza di una trasformazione, in termini di standardizzazione, dei punteggi grezzi, che può avvenire con la distribuzione pentenaria e con i punti Z e T (par. 3.2.6). Mentre media (par. 3.2.3) e deviazione standard (par. 3.2.4) dei punteggi ci consentono di avere gli elementi necessari per valutare i risultati complessivi, tra i principali obiettivi e vantaggi di una misurazione fatta attraverso prove oggettive vi è la rilevazione delle fasce di livello di abilità per i singoli studenti.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

25

Nella distribuzione pentenaria i punteggi grezzi conseguiti vengono ripartiti in cinque fasce: A – B – C – D – E, individuate rispetto a media aritmetica e deviazione standard. In altre parole questo strumento si basa sul principio della suddivisione dei punteggi in intervalli dell’ampiezza di una deviazione standard a partire dal valore della media. La seguente rappresentazione grafica offre, avendo a disposizione i risultati degli allievi, la possibilità di individuare gruppi di studenti che sono al di sotto o al di sopra della media della classe.

La fascia centrale C è costituita da tutti i punteggi che hanno una distanza dal valore della media aritmetica inferiore a mezza deviazione standard. In questo modo i docenti possono individuare i punteggi che sono molto vicini alla media aritmetica. Le fasce simmetriche B e D, hanno una distanza dalla media aritmetica, rispettivamente positiva o negativa, compresa tra 0,5s e 1,5s. Le fasce A e D, anch’esse simmetriche, sono costituite dai restanti punteggi, rispettivamente verso i valori più alti o più bassi. La fascia E, comprende i punteggi molto inferiori alla sufficienza, ovvero inferiori a (x – 1,5s) Supponiamo di avere, per un campione di 20 allievi, la seguente distribuzione di punteggi: 3, 3, 4, 5, 9, 9, 9, 10, 12, 12, 12, 12, 14, 14, 16, 18, 20, 22, 22, 22 Xm = 12,4 e s = 6

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

26

Le fasce saranno così composte: C = punteggi tra 9,4 (12,4 – 3) e 15,4 (12,4 + 3), precisamente il 10, i quattro 12 e i due 14; B = punteggi tra 15,4 (12,4 + 3) e 21,4 (12,4 + 9), precisamente il 16, il 18 e il 20; A = punteggi superiori a 21,4, precisamente i tre 22; D = punteggi tra 9,4 (12,4 – 3) e 3,4 (12,4 – 9), precisamente i tre 9, il 5 e il 4; E = punteggi inferiori a 3,4, precisamente i due 3 come mostra il grafico che segue:

Si evidenzia perciò che due soli studenti si trovano nella fascia E, quella dei punteggi molto al di sotto della media della classe. A questo punto, per operare un recupero mirato, è indispensabile che l’insegnante verifichi quali sono i problemi che i due allievi incontrano. A tale scopo è possibile tornare alle prove e individuare le risposte sbagliate dello studente, analizzando il tipo di domande e quindi gli obiettivi prefissati ma che non sono stati raggiunti. Solo dopo una verifica di questo tipo l’insegnante può impostare un piano di recupero individualizzato o nel caso di più studenti, per gruppi classe. Con questo particolare tipo di procedura gli insegnanti riescono a riconoscere le più evidenti attitudini di ogni allievo. Sulla base delle informazioni ottenute essi saranno in grado sia di attuare un autentico processo di orientamento e di supporto allo studente, in tutto il suo percorso scolastico, sia di individuare, sulla base di un’accorta discriminazione positiva, le competenze possedute in alcune discipline, così da poterle utilizzare in ambiti di apprendimento problematici. 3.2.6 Punti Z e punti T Abbiamo già potuto constatare come, calcolando la media (par. 3.2.3) e la deviazione standard (par. 3.2.4), possiamo verificare l’andamento complessivo della classe in una determinata prova. Tuttavia, spesso gli insegnanti si trovano di fronte all’esigenza di dover confrontare punteggi conseguiti dagli allievi in prove diverse sia per la tipologia degli item che per il loro numero. Nel caso in questione serve a ben poco comparare i punteggi e le medie che si fondano su sistemi di misura diversi. Si rende pertanto necessaria la trasformazione dei punteggi grezzi in punteggi standardizzati. Si tratta della conversione dei punteggi grezzi rispetto ad uno standard che può ad esempio essere la media di punteggio alla singola prova. Nel novero dei punti standardizzati rientrano anche i punti Z e i punti T. Essi consentono di attuare il confronto tra punteggi conseguiti in prove diverse dallo stesso allievo o da allievi diversi in tempi dissimili. Ad ogni punteggio grezzo viene associato un punto Z, e la relazione che ne risulta indica la distanza che separa il punteggio grezzo xi dalla media, distanza espressa in termini di deviazione standard. L’espressione che li caratterizza è:

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

27

Essa può essere letta nel senso che alla migliore prestazione corrisponde il più alto punteggio Z. Tuttavia, questo tipo di strumento ha il difetto di comprendere anche valori negativi. Per far fronte a tale limite vengono introdotti i punti T. Per il loro calcolo si pone per convenzione la media aritmetica della distribuzione dei punteggi conseguiti pari a 50 e la deviazione standard uguale a 10, in modo da garantire tutti risultati positivi anche se diversi tra di loro:

Nel caso si trasformi direttamente un punto Z in un punto T avremo: T = 50 + 10 (Z) In sintesi, entrambi le tipologie di punti consentono ai docenti di avere chiaro il successo o l’insuccesso di un allievo in una determinata materia o in discipline diverse. Per avere indicazioni sulla validità della prova somministrata, invece, l’insegnante dovrà soffermarsi ad analizzare la qualità degli item presentati. 3.2.7 Item Analysis Le prove oggettive (par. 2.1) per essere considerate uno strumento affidabile di misura debbono essere sottoposte ad un’analisi che ne verifichi il reale funzionamento di tutte le sue domande. Questa standardizzazione della prova è meglio conosciuta con il nome di Item Analysis. Infatti, quando l’insegnante si trova ad operare con prove oggettive di profitto, è gioco forza valutare accuratamente non solo gli obiettivi prefissati, ma anche la qualità delle domande da porre agli studenti. Questo secondo momento è reso agevole proprio dalla tecnica dell’Item Analysis che consente di controllare i quesiti e le relative risposte precostituite, analizzando le scelte operate da tutti gli allievi. In altre parole, con questo particolare tipo di analisi l’insegnante è in grado di aggiustare il tiro valutando attentamente la difficoltà o banalità e l’ambiguità degli item; accertando l’avvenuta verifica degli obiettivi prefissati e controllando la presenza di distrattori troppo forti o eccessivamente deboli. Poiché la procedura da seguire per attuare questa analisi comporta un largo dispendio di tempo, gli insegnanti possono operare lavorando su una sorta di griglia, di cui la seguente vuole essere un esempio grafico per meglio chiarirne la natura. Nel modello riportato si dà conto solo di una ipotetica scheda per una prova con solo item a scelta multipla. Si parte innanzitutto dai punteggi grezzi degli studenti. Attribuendo il punteggio definito alle risposte esatte, rispetto ad ogni forma di item presa in considerazione, si calcola il punteggio complessivo di ogni allievo alla prova. A questo punto si ordinano le prove dal valore totale più basso a quello più alto.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

28

Sull’asse orizzontale delle ascisse si riportano i numeri di codice degli allievi, oppure il loro nome, ordinandoli in base al punteggio: dal più basso al più alto. Invece, sull’asse verticale delle ordinate vanno indicati i numeri progressivi dei singoli item. Nel punto in cui si incrocia il numero del quesito con il codice dello studente si trascrive la lettera scelta dall’allievo come risposta. È sufficiente indicare solo le risposte errate. Nel caso in cui l’allievo non rispondesse alla domanda si indica la lettera o a significare omissione. L’ultima colonna della tabella serve per le chiavi di risposta. Dalla lettura di questa semplice scheda si può rilevare una concentrazione di errori nella parte sinistra della tabella in corrispondenza dei punteggi più bassi. L’insieme dei punteggi degli studenti viene riportato sull’ultima riga orizzontale. Utilizzando questo semplice foglio di lavoro, gli insegnanti sono in grado di accertare velocemente eventuali errori su alcune risposte, la ricorrenza di uno stesso errore su di una risposta. Per avvalorare questa prima “lettura” è necessario che gli insegnanti, lavorando con classi di 15-20 allievi, prendano in considerazione alcuni indici specifici. Gli indici controllabili dalla tecnica dell’Item Analysis sono oltre 60, tuttavia, in questa sede la loro trattazione sarà limitata a quelli basilari che non richiedono eccessivi calcoli. Quando l’esaminatore seleziona i quesiti da immettere in un test, fra i tanti problemi che deve affrontare, due in particolar modo richiedono la sua attenzione: indice di difficoltà (D%) e di discriminatività (d) degli item. In questo caso per difficoltà di un quesito si intende la percentuale delle risposte sbagliate date da tutti gli allievi: la difficoltà cresce al crescere della percentuale d’errore. Tuttavia, quando questo valore si avvicina al 100%, indica la presenza di item mal formulati, oppure sottolinea quesiti per i quali è avvenuta una cattiva valutazione delle abilità realmente richieste agli allievi. Un esito pari allo 0,1, invece, dimostra l’esistenza di domande troppo facili sia nei contenuti che nella formulazione. Il valore che solitamente si consiglia per l’indice di difficoltà è quello che si attesta intorno al 50%. Per il calcolo dell’indice di difficoltà è sufficiente impostare una proporzione: x : n° risposte errate = 100 : totale allievi

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

29

Il valore discriminante di un item, invece, permette agli insegnanti di arrivare ad una discriminazione automatica tra allievi che possiedono le abilità che il docente ha voluto rilevare con il quesito e quelli che invece ne sono privi. Il valore numerico che tale indice può assumere oscilla da +1 a –1. Lo 0 indica nessuna discriminazione, ovvero sia il gruppo degli studenti bravi sia quello dei meno bravi rispondono all’item esattamente in ugual misura. Generalmente quando l’indice di discriminatività è compreso tra 0.30 e 0.60 si può ritenere che l’item ha una buona capacità nel discriminare i due gruppi di studenti, e quindi la domanda può essere considerata ben costruita. Il valore discriminante di un item, invece, permette agli insegnanti di arrivare ad una discriminazione automatica tra allievi che possiedono le abilità che il docente ha voluto rilevare con il quesito e quelli che invece ne sono privi. Il valore numerico che tale indice può assumere oscilla da +1 a –1. Lo 0 indica nessuna discriminazione, ovvero sia il gruppo degli studenti bravi sia quello dei meno bravi rispondono all’item esattamente in ugual misura. Generalmente quando l’indice di discriminatività è compreso tra 0.30 e 0.60 si può ritenere che l’item ha una buona capacità nel discriminare i due gruppi di studenti, e quindi la domanda può essere considerata ben costruita. La formula che ne esprime il contenuto è:

dove: E sup = numero di risposte esatte dell’estremo superiore E inf = numero delle risposte esatte dell’estremo inferiore n = numero di studenti di un estremo Si parla di diversi gruppi perché è necessario dividere l’intero gruppo di studenti in tre sottogruppi composti dallo stesso numero di soggetti: solamente il gruppo centrale può risultare costituito da 1 o 2 studenti in più. Per il calcolo dell’indice di discriminatività si prendono in considerazione il gruppo superiore e quello inferiore.

L’indice di discriminatività, in pratica, ci dice se il successo o insuccesso in un item è diversificato rispetto all’andamento complessivo degli studenti nei confronti della prova.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

30

Attraverso la lettura veloce dei punteggi disposti in un’apposita tabella e dei valori di difficoltà e discriminatività, l’insegnante avrà modo di individuare subito gli item che presentano imprecisioni formali e di migliorare la proposta didattica e, dove serve, iniziare l’attività di recupero. 3.2.8 La rappresentazione grafica La composizione di un campione rispetto ai diversi valori che una variabile può assumere (es.: età, livello di istruzione, rendimento scolastico, motivazione ecc.) può essere visualizzata con rappresentazioni grafiche che ne mostrano la distribuzione di frequenza. La composizione del campione può essere espressa in due modi: attraverso la frequenza, cioè contando il numero di volte in cui un certo valore o una data categoria appaiono nel campione, oppure mediante la percentuale; questa si calcola dividendo la frequenza relativa a una categoria per il totale delle frequenze e moltiplicando questo risultato per 100. La traduzione delle frequenze in percentuali è necessaria in particolare quando si vogliono paragonare gruppi di diversa composizione numerica e rappresentare graficamente i risultati (fig. 1).

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

31

Le rappresentazioni grafiche più usate sono il grafico a barre, il grafico detto “torta”, l’istogramma e il poligono delle frequenze. Il grafico a barre (fig.2) viene usato per la rappresentazione di variabili discrete, cioè quelle variabili i cui valori non sono continui, come ad esempio, il numero di errori commesso nell’esecuzione di un compito, il numero dei figli ecc., oppure di mutabili, ovvero di quelle variabili che assumono valori categoriali o qualitativi.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

32

Il grafico riporta sull’asse delle ascisse le categorie o i valori che costituiscono i livelli della variabile, e sull’asse delle ordinate la frequenza con cui ogni categoria o valore si presenta nel campione indagato. Nel grafico a barre che abbiamo appena visto la variabile considerata è il raggruppamento socio-economico: in ascissa sono riportati i tre raggruppamenti, e la frequenza con cui ciascuno di essi compare all’interno del campione considerato è indicata dalle tre barre del grafico. Gli stessi dati possono essere riportati in un grafico a “torta” (fig. 3): ciascuno spicchio rappresenta la percentuale di dati che ricadono nelle diverse categorie.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

33

Per la rappresentazione di variabili continue, cioè di quelle variabili che possono assumere un numero infinito di valori all’interno di un intervallo compreso fra un minimo e un massimo, quali ad esempio l’età o il tempo impiegato per rispondere a una prova, si usano in genere gli istogrammi. Questi sono simili ai grafici a barre: i dati si dispongono in ascissa e in ordinata secondo le stesse modalità, e la lunghezza delle barre ne indica la frequenza di comparsa. Tuttavia le barre sono contigue tra loro poiché rappresentano valori continui. L’istogramma della fig. 4 rappresenta la situazione d’ingresso di una campione di 181 allievi di terza media relativamente alla variabile “comprensione” nella lettura. Analogo all’istogramma è il poligono di frequenza; questo si disegna unendo con una linea i punti centrali dei lati superiori dei rettangoli di un istogramma. Altri tipi di grafici che possono essere impiegati nella descrizione della distribuzione delle variabili in un campione sono gli ideogrammi e i grafici polari.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

34

Gli ideogrammi (fig. 5) sono costruiti utilizzando rappresentazioni simboliche schematiche. I disegni sono disposti su una riga che rappresenta un numero di unità stabilito per convenzione. Il contrasto tra le righe evidenzia immediatamente il contrasto tra le proporzioni paragonate. Possiamo rappresentare con un ideogramma la distribuzione degli allievi di un certo campione rispetto alla variabile “professione paterna”. I grafici polari (fig. 6) hanno una struttura caratteristica, simile a un ragno. Essi permettono di rappresentare più dimensioni di un soggetto o di una situazione e aiutano a tracciarne un profilo. Le dimensioni sono rappresentate da segmenti che si dipartono da un centro, partendo dal quale vengono segnati i risultati o i livelli raggiunti in determinate prove. Il profilo si ottiene unendo i punti relativi ai punteggi segnati sui raggi. Supponendo di aver indagato attraverso prove opportune lo stile di apprendimento di un allievo e di volerlo rendere visivamente con un grafico polare potremmo ottenere una rappresentazione di questo tipo:

3.3 Dall’interpretazione dei dati valutativi alla decisione didattica . Oggi le linee di riflessione predominanti sul tema della valutazione si raccolgono intorno a due filoni. Da un lato il filone docimologico, si pone l’obiettivo di un approccio oggettivistico ai fenomeni. In questa prospettiva si ritiene possibile con opportuni strumenti avere l’istantanea della realtà indagata, a prescindere dal soggetto che valuta. Su un altro lato, l’indirizzo di pensiero fenomenologico si muove con il convincimento che una parte consistente della valutazione faccia capo alle modalità di relazione. Si conosce e si apprende se si attiva un processo di conoscenza che ha comunque al centro la memoria di se stessi. Dall’unione di queste due impostazioni scaturisce che la valutazione richiede ai docenti la lettura e l’interpretazione della serie di dati ottenuti dalle operazioni statistiche chiamate in causa nel momento della verifica. Il rigore delle metodologie di verifica adottate e la capacità di leggere oltre sterili risultati numerici sono elementi imprescindibili, necessari per assumere decisioni coerenti con gli obiettivi prefissati e con gli interventi didattici attuati e/o da attuare. Alla base di una didattica efficace c’è la consapevolezza delle scelte. E tale

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

35

consapevolezza può essere conseguita solo a condizione di utilizzare al meglio gli elementi di informazione ottenuti dalle analisi svolte. Tuttavia, per non incorrere in errori è necessario disporre di un criterio per assumere e per organizzare le informazioni. La valutazione si configura, dunque, come elemento fondamentale di un processo decisionale a carattere squisitamente strategico, che stabilisce in modo chiaro le finalità da raggiungere e pianifica le attività necessarie a verificare in quale misura gli obiettivi sono stati perseguiti. È proprio, infatti, nella prospettiva dell’autonomia che la questione relativa al decision making, ovvero al prendere decisioni, occupa un posto importante, sia per la discrezionalità che genera una scuola che si connota oramai come un sistema “a legami deboli”, sia per la sempre più incalzante esigenza di una decisionalità partecipante per far fronte a tutta la serie di problemi ed istanze locali che l’unità educativa si trova ad affrontare. L’utilità di legare concettualmente il tema della valutazione con quello del decision making può essere giustificata da diverse ragioni: • perché proprio per la sua componente strategica, le caratteristiche della valutazione devono essere chiaramente finalizzate alla decisione; • perché questa sua valutazione permette di individuare un criterio chiaro per la scelta degli obiettivi e delle priorità della valutazione. Quando si valutano istituzioni o organizzazioni complesse è estremamente difficile individuare un solo decision maker, questo fondamentalmente perché si ha a che fare con un processo cumulativo nel quale tutte le parti, sia interne che esterne al sistema scolastico, partecipano attivamente nell’assunzione di decisioni. Ciò vuol dire che sia i dirigenti scolastici che i docenti possono trovarsi a dover misurare la qualità delle loro scelte sulla base della capacità di ognuno di decidere in tempi brevi ma con azioni efficaci, oppure di scegliere soluzioni di breve periodo ma significative a lungo termine. Per evitare che situazioni di questo tipo vadano ad inficiare il rigore che dovrebbe contraddistinguere ciascun processo decisionale, facendoci incappare in decisioni inerziali, prese meccanicamente, è necessario per il dirigente scolastico e per l’équipe educativa operare in situazioni di simulazione della realtà. Se, in effetti, ogni decisione consapevole non può essere presa senza rendere operativo un processo di anticipazione dei risultati di ciascuna delle possibili scelte, è altrettanto vero che tale operazione avviene solitamente a livello empirico, approssimativo. Tuttavia, esistono dei modelli di simulazione in grado di rappresentare in modo semplificato la realtà di riferimento e di acquisire consapevolezza dei risultati iniziali, intermedi e finali prodotti dalle azioni compiute. Ci riferiamo ai giochi di simulazione, gaming simulation, alla simulazione di scelta, choise simulation e alla simulazione operativa, operational simulation, utilizzati diffusamente per scopi orientativo-formativi e in ambito didattico. Supporto molto utile alla decisionalità nel sistema scolastico è rappresentato dal case study, ovvero la simulazione di contesti e procedure verosimili entro i quali è necessario assumere decisioni dopo averne prefigurato conseguenze, vantaggi e svantaggi. Questo strumento può essere utilizzato anche affiancato dal gioco dei ruoli, role playing, in cui ciascun decisore recita una parte del caso oggetto di studio. La necessità di dover rendere conto internamente ed esternamente a ciascuna unità scolastica dei risultati conseguiti, insieme alla volontà di migliorare il clima di istituto, costituiscono due validi motivi affinché tutte le strategie vengano decise sulla base di scelte ponderate, mirate, di cui tutti rispondano nei termini di responsabilità. È noto che l’assunzione di decisioni efficaci denota anche implicitamente la capacità per ciascuna scuola di risolvere i propri problemi a partire dall’analisi dei mezzi di comunicazione necessari e sufficienti per prenderne coscienza, dalle risorse umane e materiali, interne ed esterne disponibili, e di sottoporre l’intero processo a valutazione.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

36

Per compiere tali operazioni e fornire anche una risposta in termini di qualità educativa, l’autovalutazione di istituto rappresenta lo strumento privilegiato per un’efficace azione didattico-formativa. 4. Il trattamento sincronico e diacronico dei dati e delle informazioni 4.1 Dati e informazioni nella scuola La scuola produce e “consuma” molta più informazione che nel passato; in parte si tratta di un processo consapevole connesso all’ autonomia delle istituzioni scolastiche e alle nuove responsabilità assunte, in parte di effetti non controllati della “società dell’informazione”, che amplifica attraverso l’impiego diffuso delle nuove tecnologie i flussi informativi. Cosicché la scuola, come ogni altra istituzione o singolo individuo, è costantemente rifornita di una crescente mole d’informazioni: talvolta necessarie, talvolta utili, talvolta inutili e ingombranti. Per queste ragioni, non è difficile constatare come spesso anche la scuola mostri difficoltà nella gestione dell’informazione, non solo di quella che proviene dall’esterno ma anche e soprattutto dell’informazione che produce e che solo in talune esperienze di eccellenza si traduce in risorsa per il miglioramento. Basti considerare che il patrimonio di dati di ogni singola scuola è vastissimo: si pensi, per esempio, alle serie storiche di dati valutativi relative agli alunni. Ma, come ben sappiamo, spesso si tratta di dati d’archivio, conservati per dovere d’ufficio e che solitamente non vengono sottoposti ad alcuna analisi valutativa. I dati prodotti e a disposizione non “dialogano” con altri dati, non costituiscono quasi mai un patrimonio conoscitivo, sono isolati e per di più difficilmente reperibili. Di solito si tende a distinguere il dato dall’informazione, attribuendo al primo un legame molto debole con un contesto di riferimento e quindi con una possibile analisi interpretativa, ossia, come si suol dire con una battuta, “il dato non è dato, va preso”, nel senso che deve essere necessariamente acquisito e sottoposto ad elaborazione ed interpretazione, processo che serve a trasformare il dato o i dati, appunto, in informazione. Potremmo quindi affermare, sia pure in termini lapidari, che nella scuola i molti dati disponibili debbono tradursi in informazione, ossia essere sottoposti al necessario trattamento che dia loro “forma”, in modo da poter rappresentare, descrivere il fenomeno indagato, favorendone la conoscenza. Quindi, si prospetta sempre più nettamente per la scuola la necessità di concepire i flussi informativi come una risorsa strategica e di investire nella costituzione di un vero e proprio sistema informativo orientato a supportare il management scolastico attraverso processi di autovalutazione in una complessiva ottica di miglioramento. Come ben si comprende è opportuno parlare di flussi informativi, piuttosto che di informazioni, in modo da sottolineare esplicitamente il carattere di continuità e dinamicità che le informazioni debbono avere, così come il concetto di sistema informativo (definito come un insieme di strumenti, procedure, risorse umane, flussi informativi, norme organizzative, orientato alla gestione delle informazioni di interesse di una fascia di utenti per il conseguimento dei propri fini) contribuisce a sottolineare il carattere di integrazione delle risorse che la gestione funzionale dell’informazione richiede. Il che si traduce all’interno di una scuola, per tutti gli “attori” coinvolti, nella piena responsabilizzazione e condivisione collettiva delle procedure per l’acquisizione dei dati, dei criteri di elaborazione, dei possibili risultati e delle chiavi di lettura delle informazioni disponibili.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

37

4.2 La rilevazione dei dati nell’autovalutazione d’istituto Come è noto, l’autovalutazione d’istituto consente di indirizzare la scuola verso il miglioramento continuo della qualità e dell’efficacia dell’offerta formativa e del servizio offerto attraverso la rilevazione e l’analisi di dati valutativi. Naturalmente raccolta, elaborazione e analisi dei dati sono in funzione del disegno di “ricerca” o di indagine conoscitiva che si vuole attuare e da questo dipende la individuazione degli indicatori da rilevare rispetto alle variabili di contesto, di input-risorse, di processo e di prodotto. Il che vuole anche significare che il modello di autovalutazione dovrà essere adeguato alle risorse disponibili, e che nelle diverse fasi, dalla predisposizione degli strumenti per la raccolta dei dati, alla successiva elaborazione, pubblicazione ed interpretazione degli stessi, le azioni dovranno essere commisurate alla effettiva disponibilità di risorse che possano garantire la completa espletazione di tutte le fasi del processo, onde evitare, come spesso accade, che progetti troppo ambiziosi siano di fatto inefficaci perché incapaci di restituire, in tempo utile, quelle informazioni che consentono di tracciare un profilo di autoanalisi orientato alle scelte per il miglioramento. Non sempre, ed anzi solo in rari casi esemplari, è possibile avviare una procedura di autoanalisi che tenga conto, in maniera esaustiva, o quasi, della molteplicità delle variabili ed indicatori necessari a restituire un quadro esauriente dei processi educativi, didattici e gestionali della scuola. Nella maggior parte dei casi, in particolare quando si tratta di singole unità, sarà opportuno definire un quadro di priorità, porre una particolare attenzione alla scelta di indicatori strategici, ossia di quelli che risultano maggiormente significativi rispetto alla analisi delle funzioni che si intende sottoporre a monitoraggio. Ed in tal senso sarebbe quanto mai opportuno prendere le mosse da una sistematizzazione delle procedure di raccolta, conservazione ed elaborazione di tutti quei dati valutativi che ogni singolo docente ed ogni classe periodicamente elaborano. Naturalmente ciò implica una condivisione delle metodologie poste alla base della compilazione, somministrazione e analisi delle prove valutative che implica a sua volta una esplicitazione e, per quanto possibile, condivisione dei principi e degli strumenti docimologici adottati. Ossia per riassumere brevemente il concetto, poiché qualsivoglia processo di autovalutazione deve considerare come proprio nucleo fondante gli esiti di apprendimento conseguiti dagli allievi e poiché la medesima prospettiva è centrale in ogni attività didattica, è razionalmente auspicabile integrare, più di quanto non avvenga, la consueta valutazione degli apprendimenti degli allievi, con la raccolta di dati, aventi medesima funzione, orientati alla autovalutazione d’istituto. Peraltro non essendo al momento possibile la comparazione con standard definiti a livello nazionale, venendo perciò meno qualsiasi vincolo, la scelta degli strumenti e delle procedure di rilevazione dovrebbe di fatto coincidere con quelli abitualmente utilizzati. Stabilito quindi che una parte significativa dei dati necessari per l’autovalutazione d’istituto, e cioè quelli che danno conto dei progressi in termini di apprendimento da parte degli allievi, è già patrimonio della quotidiana pratica scolastica, è opportuno lavorare nel verso della applicazione di procedure scientificamente fondate in grado di garantire il rispetto dei requisiti docimologici nella raccolta ed elaborazione dei dati stessi. Quel che invece può accadere è che il processo di autovalutazione d’istituto possa essere percepito come “aggiuntivo” rispetto alle azioni consuete della scuola. Invece, è addirittura superfluo sottolineare che potrebbe e dovrebbe costituire una occasione di validazione scientifica e condivisione degli strumenti valutativi utilizzati e delle conseguenti analisi. Dalla individuazione degli indicatori che si vogliono prendere in esame deriva la costruzione degli strumenti (questionari, check list, interviste, test) necessari a raccogliere dati relativi a tutti gli

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

38

“attori” del processo educativo, in particolare: alunni, docenti, famiglie, dirigente scolastico, osservatori privilegiati. Anche nella costruzione degli strumenti è necessario riflettere preliminarmente sul trattamento successivo, onde evitare, nel momento della elaborazione ed analisi, di dover constatare che sarebbe necessario disporre di dati ulteriori, ma anche che eventuali informazioni raccolte siano sovrabbondanti o addirittura inutili. Peraltro, un’accorta parametrazione degli strumenti al disegno della ricerca, è tanto più una condizione necessaria ove le risorse siano limitate. Può essere tuttavia opportuno in taluni casi, quando, ad esempio, ci si ponga in una prospettiva di ricerca longitudinale, raccogliere informazioni che già si è deciso di sottoporre ad elaborazione in un momento successivo, magari per la eventuale costruzione di serie storiche di indicatori che riflettano una particolare significatività in un arco temporale pluriennale. La rilevazione dei dati che possano tradursi in indicatori sintetici per l’autovalutazione d’istituto deve rispettare un giusto equilibrio tra significatività e congruità. Ossia risultano evidenti due importanti esigenze: la prima è quella di dimensionare natura e quantità dei dati raccolti, processi di elaborazione ed analisi, alle risorse della scuola e ai reali linguaggi, attività, strumenti, che la scuola utilizza, consentire cioè tutte quelle approssimazioni dettate dalla migliore esperienza e dal buon senso che consentono di circoscrivere il bisogno di informazioni a quelle realmente significative, elaborabili ed utilizzabili; la seconda è quella di scongiurare un rischio implicito nella prima, ossia quello di operare delle scelte che, in ragione di una logica di buon senso ed efficienza, finiscano per riprodurre informazioni scontate su ciò che di fatto è evidente, noto e condiviso. Sarebbe cioè egualmente inopportuno tanto impostare l’analisi secondo un disegno talmente articolato e complesso da creare di fatto problemi di gestione all’istituto, quanto muoversi su un piano di approssimazione e scarso rigore scientifico che non consentirebbe di individuare i reali punti di forza e carenza delle azioni intraprese. Con una certa approssimazione, ma con necessario senso pratico, a livello di singolo istituto è opportuno concentrare l’analisi valutativa e quindi la raccolta di dati significativi su: – livelli di apprendimento degli allievi, ed in particolare sul cosiddetto valore aggiunto, ossia lo scarto tra il livello di profitto atteso, rispetto alle condizioni ambientali, e quello realmente raggiunto; – clima scolastico complessivo e di classe, processi di insegnamento-apprendimento e comportamento docente, processi di strutturazione delle decisioni e leadership; – partecipazione e condivisione delle famiglie al processo educativo, livelli di soddisfazione per l’operato della scuola. Solitamente gli esiti valutativi restituiscono, oltre alle informazioni che servono a conoscere meglio l’oggetto di indagine, anche un buon numero di ulteriori domande, necessità di approfondimenti oppure la individuazione di nuove problematiche. In tal senso il processo di autovalutazione deve essere concepito come un processo a spirale che consente di mettere progressivamente a fuoco obiettivi, strumenti e metodologie di ricerca, configurandosi anche come pratica riflessiva. 4.3. Procedure di elaborazione dei dati per l’autoanalisi L’elaborazione statistica dei dati dipende naturalmente dalla quantità e qualità dei dati rilevati: per tale ragione, come è stato accennato precedentemente, è necessario avere chiaro un quadro preliminare delle operazioni di elaborazione. Ed in questo è necessario poter disporre della supervisione di esperti in grado di assicurare il necessario rigore scientifico. È inoltre quanto mai opportuno avvalersi di adeguati strumenti hardware e software per l’acquisizione, elaborazione e pubblicazione dei dati. Non è affatto raro imbattersi in situazioni per

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

39

le quali i compiti di elaborazione sono stati abbondantemente sottostimati. C’è anche da dire che l’apporto che può venire in tal senso dall’uso di computer e di software specifici può essere determinante. Gli sviluppi di tecnologie, tanto negli strumenti, quali lettori ottici, quanto di software dedicato, consentono oggi, anche al singolo istituto, di gestire in proprio un centro di elaborazione per acquisire dati rilevati attraverso questionari, chek-list o test di profitto. Naturalmente, come è stato già detto, si tratta di operazioni che non possono essere improvvisate e che richiedono la consulenza di esperti rispetto a tutte le fasi del processo: dalla preparazione degli strumenti e delle opportune modalità di codifica, alla acquisizione automatica, alla elaborazione statistica dei dati. I dati raccolti possono essere sottoposti a varie elaborazioni o singolarmente in forma descrittiva, si parla in tal caso di analisi monovariata, oppure quando si associano alcune variabili ad altre, con analisi multivariata. Da una analisi monovariata si ricavano solitamente le cosiddette misure di sintesi per ciascuno degli indicatori presi in esame. Potrebbe essere il caso della media aritmetica e delle altre misure di tendenza centrale e di dispersione, nel caso di un test di apprendimento. Tuttavia anche in questo caso è opportuno ricordare che le elaborazioni ed operazioni consentite dipendono dalla scala di misura utilizzata nella rivelazione. Un classico errore in tal senso è il calcolo delle medie aritmetiche sui tradizionali voti scolastici. Ritorna quindi la necessità di contare sulla supervisione di esperti che possano garantire il necessario rigore scientifico. Una analisi descrittiva è quindi in grado di restituire un quadro parcellizzato per ciascuno degli indicatori in esame. Quadro che può essere già largamente significativo, fornendoci informazioni ai livelli di contesto, di input-risorse, di processo, di output-outcome, ad esempio: • sui livelli di apprendimento degli allievi tanto a livello d’istituto quanto a livello di singola classe, sia complessivamente sia per ambiti disciplinari; • sulle modalità di interazione didattica e valutativa, l’uso o meno di particolari strumenti e metodologie; ecc,; • sulle caratteristiche socio-culturali dell’ambiente di riferimento e delle famiglie, ecc.; • sulle risorse disponibili, sulle modalità di costruzione delle decisioni, ecc.; • sui livelli di soddisfazione del servizio offerto da parte degli studenti e delle famiglie. Di particolare rilievo, ad esempio, è confrontare i livelli di apprendimento degli allievi in ingresso ed in uscita. Supponiamo di aver somministrato a tutti gli allievi delle classi prime di una scuola media un certo numero di prove in grado di registrare la situazione di apprendimento all’inizio dell’anno scolastico e al termine, in ambito matematico e logico-linguistico. Già da un confronto operato attraverso le cosiddette misure di tendenza centrale è possibile avere indicazioni significative sui progressi di apprendimento degli allievi sia complessivamente, a livello di istituto, sia tra le diversi classi. Il primo dato da prendere in considerazione è quello del rapporto tra media e massimo teorico (3.2...). Supponiamo ad esempio che nel test di matematica il massimo teorico sia di 26 punti e la media sia di 16. Come è stato ampiamente illustrato in precedenza, abbiamo un indice che ci dà sinteticamente conto della situazione, ci dice cioè che mediamente gli allievi si collocano intorno al valore del 60% del punteggio massimo. Un confronto anche con moda e mediana può offrirci ulteriori spunti di riflessione. In particolare con la mediana possiamo subito individuare se sono più numerosi gli allievi che ottengono punteggi superiori o inferiori alla media. Se ad esempio la mediana, che come ricordiamo segna il punto di mezzo in una distribuzione, con la metà quindi dei soggetti da una parte e l’altra metà dall’altra, assumesse il valore di 17 potremmo essere certi che oltre la metà degli allievi ha conseguito punteggi superiori alla media, che è appunto di 16. Naturalmente, come ben sappiamo, è importante conoscere in modo più preciso come sono distribuiti i punteggi. Per una analisi di questo tipo ricorriamo alla deviazione standard che ci indica appunto di quanto mediamente i punteggi sono distanti dalla media. Con un indice di dispersione contenuto, ad esempio intorno al 10%, possiamo dedurre che mediamente gli allievi conseguono

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

40

risultati piuttosto omogenei, diversamente con un indice di dispersione alto, 20% ed oltre, dobbiamo dedurre che sussistono rilevanti differenze tra gli allievi. Sempre attraverso una analisi delle misure di tendenza centrale e di dispersione si possono porre a confronto i risultati ottenuti dagli allievi all’inizio e al termine dell’anno scolastico. Da un confronto tra le medie dei punteggi conseguiti dagli allievi si può ottenere una indicazione di sintesi dei progressi ottenuti, sarebbe anzi opportuno poter confrontare i risultati per contenuti omogenei, ad esempio: abilità nel calcolo, soluzione di problemi….ecc. Naturalmente è altrettanto importante valutare le differenze in termini di distribuzione dei punteggi ossia se le differenze tra soggetti sono più o meno accentuate. Tuttavia, una elaborazione descrittiva, monovariata, sugli indicatori non è in grado di restituire relazioni tra le variabili, se ad esempio i livelli di comprensione della lettura sono influenzati dalla presenza o meno di una biblioteca di classe, oppure se i livelli di apprendimento possono essere correlati o meno all’uso di determinati strumenti valutativi ecc. Per consentire analisi di questo tipo è necessario mettere in relazione tra loro più variabili (analisi multivariata), nel qual caso è opportuno ricorrere ad una elaborazione statistica più sofisticata e per la quale si dimostra indispensabile, sebbene le procedure di calcolo possano essere completamente automatizzate, il supporto tecnico scientifico di esperti. Naturalmente con questo non si vuole dire che la scuola non possa coltivare al proprio interno il necessario know-how (anzi tutte le forme di collaborazione con enti ed istituti di ricerca dovrebbero essere improntate al trasferimento delle competenze all’interno della scuola assicurando una necessaria supervisione) ma che sono da scongiurare forme di approssimazione e scarso rigore scientifico perché non potrebbero garantire alcun esito e quindi risulterebbero, in ultima analisi, un dispendio di risorse. Pari livello di complessità deve essere garantito nella fase di interpretazione delle informazioni, in modo che sia possibile restituire a tutti gli attori del processo un quadro significativo e leggibile degli esiti. Non si dovrebbe infatti mai perdere di vista che l’obiettivo della autovalutazione è quello del controllo per il miglioramento dei processi e che quindi gli esiti dovrebbero essere largamente condivisi per consentire quindi una migliore consapevolezza nella assunzione di decisioni adeguate. Scopo principale è quindi quello di consentire confronti che consentano di porre in relazione il servizio offerto, le azioni effettivamente realizzate tanto a livello didattico quanto a livello organizzativo con gli esiti raggiunti, in particolare esiti relativi ai livelli di apprendimento degli allievi. Per tale ragione è importante un confronto non tanto in termini di prestazioni “assolute” quanto in termini di valore formativo aggiunto. Come ben sanno i docenti, infatti, i livelli di apprendimento degli allievi, non dipendono unicamente dalla offerta formativa della scuola, il contesto di provenienza ed in particolare il livello socio-culturale della famiglia hanno spesso un ruolo fortemente discriminante. Il valore formativo aggiunto costituisce appunto una sorta di effettiva risultante della offerta formativa, misurata in termine di scarto tra gli effettivi livelli di apprendimento raggiunti dagli allievi rispetto a quelli attesi, dato un certo insieme di caratteristiche ambientali. È opportuno in questo, aprire confronti tra più istituti al fine di arrivare a definire in termini realistici le aspettative sugli allievi, anche al fine di evitare un effetto Pigmalione rovesciato. Ossia attendersi dagli allievi risultati molto scadenti al fine di registrare come un successo dell’offerta formativa il superamento di tale soglia che finirebbe per essere autoconsolatoria e tendente al ribasso. Per questo è essenziale per le scuole arrivare a costituire accordi di rete che oltre a dare una maggiore significatività al confronto possono consentire interessanti economie di scala.

5. Verifica e valutazione interna/esterna

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

41

5.1 Una variabile cruciale per l’autovalutazione: il prodotto scolastico Come si è potuto constatare, tanto i processi di eterovalutazione nella scuola, attuabili dall’INValSI, quanto quelli di autovalutazione non possono non fare riferimento alle variabili di contesto, di input, di risorse, di processo, di prodotto e di outcome. Com’è noto, tutte queste variabili sono fondamentali per effettuare un efficace percorso di autovalutazione, tuttavia essendo la finalità della scuola principalmente quella di promuovere negli allievi abilità e conoscenze significative, sarebbe ben difficile migliorare la qualità dell’istruzione offerta senza tener conto delle variabili di prodotto. Il prodotto scolastico, infatti, è importantissimo per poter esprimere un giudizio sul funzionamento della scuola, sulle scelte adottate e sulle decisioni assunte, se non venisse considerato si correrebbe il rischio di assumere decisioni sulla base di un quadro informativo incompleto. Pertanto, all’interno di ogni unità scolastica, le variabili di prodotto costituiscono il cardine del percorso di autovalutazione, poiché rapportandole alle variabili di input e di processo, consentono soprattutto ai docenti di evidenziare quelle azioni che non si sono rivelate efficaci per migliorare la qualità del servizio offerto. 5.2 Le variabili di prodotto Come i docenti sanno, prendendo in considerazione ed esaminando tutti i dati disponibili sui diversi esiti formativi, è possibile fare un bilancio di ciò che, durante un anno scolastico, un corso o un ciclo di studi, la scuola è riuscita a produrre. È cioè possibile ottenere una serie di informazioni relative alla realizzazione degli obiettivi formativi prefissati, alla qualità dell’offerta formativa e al grado di soddisfazione dell’utenza scolastica, dei genitori e dei docenti stessi. Sono molte le variabili di prodotto che i docenti possono analizzare e monitorare per riuscire ad effettuare una efficace valutazione sull’unità scolastica. Prima fra tutte è il livello di apprendimento promosso. Infatti, tale variabile di prodotto è un elemento cruciale all’interno del processo di autovalutazione poiché consente di rivedere la strategia didattica elaborata e attuata nella scuola. Ciò vuol dire, soprattutto per gli insegnanti, avere la possibilità di confermare quelle scelte didattiche che si sono dimostrate, in quel contesto, efficaci e pertinenti, e di poter modificare le scelte rivelatesi meno efficaci e più deboli. È evidente che se la rilevazione non permette di disporre di informazioni affidabili, essi non possono strutturare decisioni che consentono di migliorare il servizio offerto dalla scuola. Proprio per questo è importante utilizzare degli strumenti adeguati che permettano di fare delle rilevazioni valide ed attendibili, come le prove oggettive o strutturate e le prove semistrutturate. Come si è già sottolineato in precedenza, la validità di una prova di verifica si ha quando i risultati ottenuti dalla sua somministrazione sono congruenti con gli scopi che si vogliono perseguire, mentre l’attendibilità si ha quando i risultati che si ottengono con la sua somministrazione rimangono costanti sia al variare del soggetto che le rileva o delle condizioni in cui vengono rilevate, sia al ripetersi della prova stessa. Pertanto, riuscendo ad elaborare e a somministrare tali tipi di prove nella maniera più adeguata si ricavano dei dati o punteggi attraverso i quali è possibile elaborare dei veri e propri indicatori che possono facilitare il percorso di autovalutazione che l’unità scolastica mette in atto: punteggi medi conseguiti per ogni disciplina; rapporto tra i punteggi conseguiti nei test, rapporto tra il punteggio conseguito nella prova di verifica iniziale e il punteggio conseguito nella prova di verifica finale, ecc.(G. Allulli, 2001).

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

42

Come si è già diffusamente detto, oltre a valutare i saperi, le abilità e le competenze promossi negli allievi, è utile analizzare anche un’altra variabile di prodotto molto importante: gli atteggiamenti e le disposizioni affettivo-motivazionali verso la scuola e verso l’apprendimento autonomo fatti sviluppare negli studenti. Gli insegnanti sanno bene quanto l’aspetto affettivo-motivazionale interagisca strettamente con l’aspetto cognitivo fino a condizionare positivamente o negativamente gli stessi risultati scolastici. I soggetti, infatti, a seconda della loro esperienza scolastica, possono sviluppare diversi atteggiamenti, da quelli di rifiuto delle proposte formative a quelli di sfida verso nuovi compiti di apprendimento; da quelli di sicurezza di sé a quelli di inadeguatezza e di sfiducia nelle proprie capacità. La qualità e l’impegno soggettivo che deriva da tali differenti atteggiamenti può favorire o al contrario inibire l’attivazione dell’energia necessaria per svolgere un’azione o un’attività, nonché la continuità e lo sforzo per la loro attuazione. Proprio per questo è necessario verificare, attraverso l’utilizzazione di appositi questionari e/o interviste, la capacità della scuola di riuscire a sviluppare negli allievi un atteggiamento e una disposizione positiva verso l’apprendimento. Le informazioni acquisite possono così dar conto non solo sul cosa si è insegnato, permettendo così un’oculata revisione delle strategie formative adottate. Altre variabili importanti sono il livello di soddisfazione dei docenti e delle famiglie, anch’esse rilevabili con specifici questionari e/o interviste. La consapevolezza del proprio operato permette ai docenti di confrontarsi più facilmente con i colleghi nel prendere decisioni comuni ed elaborare strategie didattiche che facciano riferimento a linee d’azione condivise. La conoscenza dei punti di vista dei genitori sulla qualità del servizio offerto dalla scuola, permette, analogamente, di consolidare gli aspetti che già riscuotono il consenso e migliorare quelli che costituiscono oggetto di critiche ben argomentate e giustificate. Ai fini dell’autovalutazione, è necessario conoscere, infine, ma non per ordine di importanza, i punti di vista degli alunni, le loro percezioni dell’esperienza scolastica ecc. (G. Barzanò, S. Mosca, J. Scheerens, 2000). È evidente che senza mettere in relazione gli esiti della formazione con le caratteristiche cognitive e affettivo-motivazionali della popolazione scolastica in ingresso, le risorse materiali e finanziarie a disposizione, il contesto territoriale di partenza in cui la scuola si è trovata ad operare e i processi attivati, diventa impossibile qualunque valutazione della funzionalità delle scelte e degli assetti scolastici. Solo l’analisi delle differenze tra le condizioni d’ingresso e i saperi promossi in uscita può contribuire a precisare il valore aggiunto prodotto dalla scuola in termini di formazione. 5.3 Il valore formativo aggiunto Il valore formativo aggiunto, come si sa, indica “il differenziale conoscitivo, di atteggiamenti e disposizioni motivazionali verso nuovi apprendimenti auto o eterodeterminati, prodotto complessivamente dall’azione intenzionale di una struttura educativa in tutta la propria utenza scolastica” (G. Domenici, 2000). Esso, in altri termini, indica la differenza tra il prima e il dopo l’esperienza scolastica, tra la situazione d’ingresso di una popolazione di studenti in un corso o ciclo di studi e la situazione d’uscita dallo stesso. Si può ritenere l’indicatore che consente maggiormente di sapere quanto i processi scolastici abbiano inciso, durante un percorso formativo, sulle caratteristiche individuali e collettive degli allievi. Per poter conoscere il valore formativo aggiunto occorre che la scuola disponga degli esiti di una serie di rilevazioni affidabili compiute, con prove strutturate e semistrutturate, sia all’inizio che alla fine del percorso scolastico. Anche se non è semplice rilevare tale valore, poiché non è possibile

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

43

misurare il peso di tutte quelle variabili, soprattutto non scolastiche, che intervengono durante un ciclo di studi, tuttavia la sua ampiezza può essere misurata con una buona approssimazione. D’altra parte, non può essere fatto nessun confronto tra le scuole senza fare riferimento all’entità di tale valore; infatti, i migliori risultati in uscita di una scuola rispetto ad un’altra non sono di per sé rappresentativi di una sua superiorità. Soltanto facendo la differenza tra il prima e il dopo l’azione dell’unità scolastica si può dar conto dell’effettiva capacità della scuola di produrre cambiamenti significativi nei propri allievi. Ovviamente, per poter valutare il valore formativo aggiunto prodotto da una determinata scuola come di alta o bassa qualità, dobbiamo fare sempre riferimento agli standard formativi d’istituto e a quelli nazionali, fatto che permette tra l’altro un rapporto dialogico tra la valutazione interna, svolta dagli stessi insegnanti, e la valutazione esterna, attuata dall’Istituto Nazionale di Valutazione del Sistema di Istruzione. . 5.4 Dalle variabili di prodotto agli indicatori di prodotto Una volta individuati, attraverso l’utilizzazione di strumenti appropriati, i dati relativi alle variabili del prodotto scolastico è possibile ricavare da essi dei veri e propri indicatori. Gli indicatori possono essere definiti come il rapporto tra due grandezze statistiche. Tra le cinque principali tipologie di rapporti che i docenti possono utilizzare per monitorare aspetti importanti della scuola quali i rapporti di composizione, di derivazione, di coesistenza, i rapporti medi e i numeri indici (E. Lombardo, 1993) gli ultimi due sono senza dubbio i più importanti. Si può definire rapporto di composizione ogni rapporto tra una frequenza o una quantità della distribuzione e il totale delle frequenze. Tale tipo di rapporto potrebbe essere utilizzato, per esempio, per avere informazioni sulla riuscita scolastica degli allievi alla fine delle scuole secondarie superiori: – nell’anno scolastico 1989-90, alla fine del corso di studi sono stati esaminati 469.762 fra ragazzi e ragazze; di questi 439.044 sono stati licenziati, ossia hanno superato l’esame di maturità. Se rapportiamo la seconda cifra alla prima possiamo venire a conoscenza della percentuale di studenti che hanno superato la prova, ovvero possiamo ottenere un indicatore di prodotto; 439.044 I l,e = 0,9346 = 93,46% 469.762 I numeri indici, invece, sono quei rapporti che servono per confrontare le intensità di uno stesso fenomeno in due situazioni diverse. Esso si dice semplice quando il rapporto è tra due numeri, si dice complesso quando si confrontano più coppie di numeri. I numeri indici possono essere impiegati per fare un’analisi evolutiva nel tempo del fenomeno che si sta analizzando; potrebbero essere utilizzati per fare un confronto tra i risultati di una prova d’ingresso e i risultati di una prova finale. Per esempio, facendo un rapporto tra la prova iniziale e la prova d’uscita, potremmo calcolare per ogni alunno la differenza tra il prima e il dopo il percorso formativo, ottenendo un indicatore che consente di disporre di informazioni su quali e quante competenze e abilità abbia promosso la scuola nell’allievo rispetto all’inizio dell’itinerario scolastico. È evidente che per facilitare il percorso di autovalutazione che la scuola dovrebbe avviare per migliorare la qualità dell’istruzione, non è sufficiente solo l’elaborazione degli indicatori del prodotto scolastico, ma occorre fare riferimento a quelli di input, di contesto, di risorse e di processo.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

44

Infatti, l’unità scolastica solo disponendo di un sistema di indicatori che consente di avere un quadro informativo completo può revisionare il proprio operato, correggendosi e migliorandosi nel tempo. 5.5 Quando la scuola ha un buon “valore formativo aggiunto”? Nel processo di autovalutazione d’istituto, la conoscenza del “valore formativo aggiunto” consente ai decisori politici (a livello di macrosistema) e ai principali operatori educativi, che operano nel mesosistema scolastico, di avere consapevolezza della pertinenza e dell’efficacia delle decisioni assunte, della conseguente loro messa in discussione, funzionale tutto alla promozione nel bacino d’utenza del servizio formativo, di competenze “alte”, contestualizzabili e ricontestualizzabili, necessarie al futuro cittadino per orientarsi nel cambiamento. In modo specifico, una unità scolastica può, approssimativamente, essere considerata con un buon valore formativo aggiunto, quando opera in funzione del miglioramento della qualità dell’offerta formativa e dei suoi risultati e quando la punta più elevata di questo valore si colloca sullo stesso livello dei traguardi d’istruzione irrinunciabili a livello nazionale e locale, ossia degli standard formativi nazionali e gli standard formativi d’istituto. Per quanto riguarda la prima tipologia di standard, si fa riferimento alle competenze che gli studenti dovrebbero possedere al termine di ogni ciclo scolastico e, quindi, al termine del percorso d’istruzione dell’obbligo; si tratta, cioè, di saperi chiave, dei nuclei concettuali e procedurali rappresentativi della struttura portante di una, più o tutte le discipline, che costituiscono il curricolo obbligatorio. Per quanto concerne, invece, gli standard formativi d’istituto, si indicano le competenze che gli allievi in uscita da quella particolare unità scolastica dovranno possedere, con riferimento alla capacità di impiego delle abilità e conoscenze nel particolare contesto in cui la scuola opera. La conoscenza per i docenti, per gli studenti e per i genitori di questi standard è fondamentale poiché consente l’orientamento dell’attività educativa che ogni attore è chiamato a svolgere per innalzare la qualità del processo d’istruzione. Necessariamente, la possibilità di conoscere il grado di avvicinamento agli standard in tempi intermedi e la conoscenza a posteriori di quali e quanti allievi li hanno raggiunti, permetterebbero di rendersi conto di quanto le scelte effettuate a livello didattico-organizzativo siano coerenti con gli esiti attesi e con il prodotto formativo. Rilevando, invece, la differenza delle conoscenze prodotte in uscita nella popolazione studentesca rispetto a quelle rilevate in ingresso, con gli indici di dispersione e di variabilità, si può precisare il valore formativo aggiunto prodotto da quella scuola. Tutte le scuole e, di conseguenza, tutti i sistemi scolastici, dovrebbero abituarsi a ragionare in termini di “valore aggiunto”, poiché la valutazione offre la possibilità di sviluppare strategie ad hoc del sistema; spinge alla presa di coscienza degli effetti del lavoro intrapreso, a riconoscere i risultati di ciò che viene fatto. Come si sarà però compreso, gli strumenti da utilizzare per rilevare il valore aggiunto sono principalmente Questionari, Schemi di interviste, Prove strutturate e semistrutturate. Partendo dal presupposto che anche il miglior strumento d’indagine risulta del tutto inutile se non si sa in anticipo a che cosa servono i dati che s’intendono raccogliere, è necessario individuare con precisione le aree su cui si necessitano informazioni. 5.6 Le variabili di outcome Come è stato più volte detto, il rapporto tra la situazione di partenza, le risorse impiegate dalla scuola e i risultati finali raggiunti da uno studente, fa emergere il grado dell’efficacia formativa. La conoscenza della variabile “riuscita” può permettere perciò un adeguamento della programmazione

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

45

didattica in base agli esiti formativi registrati e in base alla verifica della coerenza della carriera scolastica professionale intrapresa da uno studente con il percorso degli studi svolto. Questa variabile, definita di outcome è alla base del calcolo degli indicatori della qualità dell’istruzione. Occorre comunque tener presente che gli indicatori hanno un fine valutativo e non semplicemente misurativo; il valore di un indicatore deve, infatti, essere messo in relazione con un punto di riferimento che può essere reale (una norma, uno standard), oppure ideale (l’idea di come quella dimensione “dovrebbe essere”), misurabile anche a livello di scala ordinale (per ogni caratteristica deve essere, cioè, possibile rilevare il grado di presenza di una certa qualità che dai punti estremi di accordo o disaccordo passa da posizioni intermedie). Infatti, il successo delle attività formative quando è vero successo dura lungo l’asse del tempo; se una scuola forma davvero gli esiti saranno soddisfacenti. Il sapere scolastico e le competenze acquisite da ciascuno studente devono, in altri termini, evolversi da saper fare a saper essere. Il docente deve cioè insegnare ad apprendere, a rendere funzionale il sapere affinché sia saper fare, e garantire una formazione che consenta, agli studenti in uscita dalla scuola, di acquisire quella flessibilità che permetta loro di trasferire le proprie competenze anche in ambiti diversi e di apprendere dall’esperienza quotidiana (lifelong-learning). All’interno delle strategie di autovalutazione d’istituto, tra gli indicatori da considerarsi vi sono perciò anche quelli che rimandano alle variabili di outcome, capaci di indicare, appunto, quegli esiti che derivano dall’interazione tra l’output e l’utilizzazione dello stesso, a medio e lungo termine nelle scuole successive o nel mondo del lavoro. Un indicatore di outcome costituisce lo scarto tra le aspettative e il livello di output raggiunto. Detto in altri termini, tale variabile rappresenta, in qualche modo, i risultati ottenuti nel passaggio dalla scuola elementare alla scuola media, da quest’ultima alla scuola superiore e da questa all’università o al lavoro. Ovviamente si riscontrano non poche difficoltà nella rilevazione di tali variabili e nel calcolo dei corrispondenti indicatori. Cosa significa, infatti, riuscita scolastica? Quali potrebbero essere gli elementi capaci di dar conto della qualità degli esiti scolastici attraverso la conoscenza della carriera professionale, a distanza di due o tre anni dalla fine degli studi? Gli indicatori di outcome sono in qualche modo legati alle aspettative che la società nutre nei confronti della scuola, come la possibilità di formare cittadini autonomi e capaci di svolgere un lavoro; coerente con il tipo di istruzione ricevuta, ovvero di scuola o corso frequentati, con le competenze che si possiedono. Come si può operare praticamente? Innanzitutto attraverso l’impiego di appositi questionari, o interviste con gli studenti “usciti” dalla scuola che vuole rilevare le proprie variabili di outcome. Il problema è di facile soluzione se si opera in ambito scolastico obbligatorio. È relativamente agevole, infatti, raccogliere informazioni dalle scuole di ordine successivo dello stesso bacino territoriale, circa il successo dei propri ex allievi o almeno di un campione di essi. Le questioni si complicano a livello di secondaria superiore. In questo caso occorre raggiungere direttamente o indirettamente gli allievi che sono o disoccupati o occupati o iscritti a corsi di studio professionale e/o universitari. La raccolta dei dati diventa più complessa. Le variabili di outcome, per quanto importanti, sono tuttavia da considerarsi come indicative e non totalmente rappresentative della qualità dell’istruzione. Quando è possibile è bene che entrino a far parte dei dati sulla cui base si esprimeranno giudizi valutativi circa l’efficacia formativa della scuola, sempre al fine di incrementarla. Occorre però considerare che la riuscita scolastica (scuola d’ordine successivo) o universitaria così come quella sociale o occupazionale deriva non solo e non tanto dalle variabili scolastiche quanto soprattutto da variabili appunto d’ordine sociale, e soprattutto famigliare (culturale più che economica). Non solo gli studi, ma anche l’occupazione dipendono fortemente da variabili socio-economiche-culturali del contesto generale e particolare (famiglia) in cui il soggetto opera.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

46

A questo proposito presentiamo alcuni dati di una indagine statistica dell’ISTAT che evidenziano tali questioni davvero cruciali. L’obiettivo dell’indagine è stato quello di verificare quale sia il rapporto tra il percorso scolastico e le scelte successive al diploma, siano esse di studio o di lavoro, nonché la capacità predittiva della valutazione scolastica rispetto al “successo” futuro dei giovani. I quesiti posti riguardavano il tipo di scuola frequentata, il voto di diploma, l’area territoriale di appartenenza ecc. Nel 2001 l’Istituto Nazionale di Statistica ha svolto infatti la seconda indagine sui percorsi di studio e di lavoro dei diplomati, volta a conoscere le condizioni di studio o di lavoro dei giovani a poco più di tre anni dal conseguimento del diploma di scuola secondaria superiore. Sono stati intervistati i giovani che nel 1998 avevano conseguito un diploma di scuola secondaria superiore. Dopo poco più di tre anni dal conseguimento del titolo, risulta che più della metà dei 478.904 giovani diplomatisi nel 1998 svolge un’attività lavorativa, quasi il 17% cerca un’occupazione e circa un quarto studia. Tra il tipo di studi concluso e la condizione di occupato esiste una correlazione elevata. La percentuale di quanti svolgono un’attività lavorativa aumenta quanto più spiccato è il taglio professionalizzante degli studi conclusi. La più alta percentuale di giovani che lavorano si registra, infatti, tra quanti hanno conseguito una maturità professionale (75,7%), seguiti dai giovani provenienti dagli Istituti tecnici (67,3%); da ultimo, i liceali con il 28,6% di occupati. Le buone performance degli Istituti professionali dipendono sia dalle caratteristiche curriculari di questi corsi, più orientati di altri al mercato del lavoro, sia dal fatto che i giovani che scelgono questo tipo di scuola, in genere, non intendono proseguire gli studi: solo il 5,2% di questi infatti, a tre anni dalla conclusione della scuola secondaria superiore, ha scelto di studiare come condizione esclusiva. Tra i diplomati dei licei, invece, la situazione è opposta: dopo poco più di tre anni dal diploma, più orientati a una formazione culturale generale, risultano per lo più studenti (53,9%) e solo nel 28,6% dei casi occupati, in quanto il titolo posseduto non costituisce un requisito necessario per il lavoro (61%). Per alcuni tipi di scuola, come ad esempio gli istituti tecnici e magistrali, è più facile trovare un lavoro per il quale il diploma, spesso un diploma specifico, costituisce un requisito per l’accesso (il diploma è richiesto rispettivamente nel 61,6% e nel 63,7% dei casi). Per i giovani che hanno concluso questo tipo di studi, però, l’inserimento diretto nel mondo del lavoro non va necessariamente visto come un esito positivo, considerato che proprio i licei vedono piuttosto nell’università una loro logica conclusione: si deve ritenere, quindi, che il loro impatto con il mercato del lavoro sia di fatto rimandato una volta conclusi gli studi universitari. Anche l’area territoriale ha un deciso impatto sui tassi di occupazione che si assestano a livelli notevolmente differenti nelle diverse zone del Paese: si passa dal 65,9% al Nord, al 55,6% al Centro, al 47% nel Mezzogiorno. Una variabile che influenza la condizione occupazionale dei giovani diplomati e che dal punto di vista qui preso in esame deve far riflettere, è il voto di diploma. I giovani con voti di diploma più alti si mostrano più selettivi degli altri nei confronti del lavoro e spesso preferiscono continuare la propria formazione rimandando il momento dell’inserimento nella vita attiva. In generale all’aumentare del voto di diploma diminuiscono sia il tasso di occupazione (dal 66,3% nella classe 36-41 al 39,1% in quella 54-60), sia la quota di quanti cercano lavoro (dal 17,9% al 13,8%) mentre aumenta la percentuale di studenti (dal 12,4% al 45,3%). Quando l’investimento formativo fatto è di “qualità”, i giovani vogliono che renda e sono portati a posticipare l’inizio di un’attività lavorativa continuando ad impegnarsi negli studi.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

47

Sulla base di quanto è stato sopra accennato si comprende che per quanto indicative, le variabili di outcome assumono un certo rilievo di conoscenza utile per migliorare l’offerta formativa scolastica.

6. Valutazione e metavalutazione; decisione e metadecisione Come è facile a questo punto comprendere, un aspetto estremamente rilevante, per non dire basilare, da prendere in considerazione a conclusione dei processi di verifica e valutazione in campo educativo è quello della “riprogettazione” dell’offerta formativa stessa, cui si è fatto cenno qua e là in questo lavoro, ma piuttosto fugacemente. L’approccio concettuale e la realizzazione della molteplicità degli aspetti e dei procedimenti individuati e analizzati nei capitoli precedenti, impostati secondo un disegno operativo che concepisce il mondo della formazione nel contempo come teoria e prassi, ricerca e azione, risulterebbero in qualche modo fine a se stessi e quasi dimidiati nelle loro reali potenzialità se la finalità ultima da proporsi non fosse quella di un processo continuativo verso la maturazione e l’acquisizione di strategie e tattiche sempre più e meglio adeguate alle diverse situazioni che tempi e circostanze di volta in volta presentano, non certo per inseguire pedissequamente le mode del momento, ma per essere in grado di proporre un’offerta migliore e sempre più qualificata rispetto alle necessità. In altri termini, il poderoso impegno di conoscenza e di razionalizzazione, quindi di valutazione dei dati e delle informazioni a vario titolo raccolte, il notevole impegno che si richiede nel monitoraggio continuativo tanto del micro- quanto del macrosistema postulano la necessità di essere riferiti ad un sistema duttile e dinamico, non certo fisso e irremovibile, con il conseguente corollario della necessità di “aggiustare il tiro” dell’azione educativa tutte le volte che se ne ravvisi l’esigenza. E’ in questo senso che si parla di metavalutazione: la valutazione, per così dire, valuta se stessa, i propri criteri, i propri strumenti, i risultati ottenuti; la valutazione mette in discussione se stessa facendo un bilancio delle realizzazioni effettuate. Ovvio che, se il bilancio è negativo o comunque suscettibile di miglioramenti, chi opera in campo formativo deve riconsiderare la decisione che ha determinato e modulato l’azione educativa da lui intrapresa, innescando così un processo di metadecisione: chi ha assunto la decisione torna su se stesso, analizza gli esiti del proprio operare, si rende disponibile ad apportarne correzioni là dove necessario. La decisione così si configura a propria volta non come qualcosa di dogmaticamente immutabile bensì come strumento duttile al fine dell’efficacia la più ampia possibile del progetto educativo. Ma osserviamo più da vicino queste dinamiche. E’ stato già ampiamente detto come nei processi formativi sia fondamentale perseguire il raggiungimento di competenze. La competenza è, secondo l’espressione del Cede, “..una capacità portata a compimento...il soggetto sa, sa fare e sa anche come fare...esplica, esercita, contestualizza in ambienti diversi le personali conoscenze sviluppate durante il percorso di apprendimento” (Cede, 1995); oppure “...piena capacità operativa di orientarsi e di risolvere i problemi nei diversi contesti in un dato campo. La competenza è riconosciuta o riconoscibile attraverso specifici comportamenti, prestazioni e atteggiamenti messi in atto in situazioni operative diverse, duraturi e consolidati nel tempo” (Cede, 1996). Competente quindi, secondo l’espressione di C. Argyris, 1982, è colui che “è capace di progettare e realizzare corrispondenza tra intenzioni e risultati dell’azione, e di scoprire e correggere gli errori”. E’ evidente come tali definizioni possano attagliarsi a singoli come a gruppi di lavoro o addirittura a istituzioni; in altri termini, dallo scolaro alle prese con le prime basilari acquisizioni, al docente e al consiglio di classe o all’istituzione scolastica che devono essere in grado di produrre offerte formative efficaci, fino al macrosistema cui compete il compito di erogare servizi a una collettività complessa, è indispensabile che ognuno o ogni gruppo o équipe di lavoro, a qualsiasi livello operi, manifesti e utilizzi le competenze che possiede.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

48

Ma chi valuta l’effettiva esistenza e produttività di tali competenze? Nel caso dell’allievo, la risposta è molto semplice: i suoi insegnanti; nel caso di un singolo istituto educativo, ma anche di sistemi più complessi, i procedimenti di monitoraggio e autovalutazione adottati; a tale proposito si è parlato ampiamente, in precedenza, delle varie strategie e della molteplicità degli strumenti per la raccolta, il trattamento e la valutazione dei dati e delle informazioni. Ma chi valuta la congruità degli obiettivi, delle modalità e degli strumenti stessi adottati per la valutazione? E’ per questo che, ai vari livelli di azione, si rende necessario il procedimento di metavalutazione. Esso implica due ordini di questioni. Innanzitutto comporta un’attenta analisi in itinere ed ex post dell’adeguatezza delle procedure e degli strumenti alle finalità intenzionalmente perseguite; si ribadisce cioè l’esigenza, già in precedenza segnalata, di porre molta attenzione sia, da una parte, alla formulazione degli obiettivi da perseguire sia, dall’altra, all’adozione stessa delle modalità di rilevazione dei dati. Si sottopongono così a un processo di metavalutazione le stesse competenze relative alla capacità di organizzare e verificare un curriculum scolastico, o un’offerta formativa d’istituto, o una gestione istituzionale, o un indirizzo di politica dell’istruzione. In secondo luogo, oltre all’approccio analitico, è molto utile ed opportuno procedere a una verifica olistica della funzione valutativa nel suo insieme, ponendosi domande del tipo: questa valutazione davvero serve? E ancora: potrebbe essere cambiata? e come? In particolare a questi due ultimi interrogativi è possibile rispondere in modo adeguato coinvolgendo nel giudizio coloro che sono oggetto della valutazione; infatti solo attraverso la condivisione piena delle finalità complessive della valutazione è possibile rimodularne gli obiettivi, le procedure, gli strumenti stessi. E’ evidente, a questo punto, che tali operazioni possono avere, e hanno, un effetto di coinvolgimento e “trascinamento” non solo di quelli che sono gli aspetti, in qualche modo, conclusivi del processo formativo – appunto quelli valutativi – ma del progetto educativo nel suo insieme. Può essere necessario allora ritornare sulla decisione intrapresa, riflettere sulla sua natura e sui suoi limiti, attraverso una presa di coscienza dinamica ed proattiva (cioè capace di indicare le azioni necessarie per il raggiungimento di nuovi o più specifici obiettivi condivisi), che chiamiamo metadecisione. Quest’ultima, a sua volta, può implicare l’opportunità o la necessità di una vera e propria “riprogettazione”, parziale o all’occorrenza totale, del piano intrapreso. Come è evidente, in questa direzione devono tendere le attività di autovalutazione di istituto, nonché quelle volte alla valutazione dell’intero sistema dell’istruzione, in ambito sia nazionale sia internazionale (europeo e non solo): avere termini di riferimento certi e condivisi per controllare risultati e operare confronti sia in dimensione sincronica che diacronica, al fine di vagliare e valutare il proprio operato, in funzione di un continuo adeguamento dell’offerta non solo alla effettiva richiesta della collettività, ma anche, o soprattutto, all’evolversi e al maturare della coscienza critica dei singoli e della società. Il processo è indubbiamente complesso, richiede tempi e risorse non indifferenti, soprattutto ha necessità di avvalersi di competenze certe e comprovate, ma in particolare dell’attitudine ad accettare le sfide della modernità in modo consapevole e cooperativo, ancorché non subalterno o superficiale.

7. Bibliografia - Sitografia

Sull'applicazione del concetto di qualità al campo educativo si consiglia la lettura di: • ALLULI A., Le misure della qualità. Un modello di valutazione della suola dell'autonomia,

Roma, Seam, 2000

Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

________________________________________________________________________________

AA.VV., La qualità della scuola, in “Studi e documenti degli Annali della Pubblica

Istruzione”, numero monografico, anno XLI, n. 1-2, 1995

AA. VV., Progetto qualità, in “Studi e documenti degli Annali della Pubblica Istruzione”

numero monografico, anno XLI, n. 1-2, 1995

AA.VV., Progetto qualità, in “Studi e documenti degli Annali della Pubblica Istruzione”, n.

84, aprile,1999

AZZALI F. (a cura di), La qualità nella scuola, in “Dirigenti Scuola”, numero monografico,

anno XIV, giugno-luglio 1994

BALDIERI V., BARZANO' G. (a cura di), L'efficacia della suola. Contributi al dibattito

internazionale, Firenze, Moretti e Vitali, 1993

CENSIS, Speciale valutazione. Politiche pubbliche e controllo di qualità, CENSIS. Note e

commenti, n. 7, 1992

CENSIS, Valutazione-scuola. La qualità del sistema di istruzione, CENSIS. Note e

commenti, n. 7, 1992

DELORS J. (a cura di), nell'educazione un tesoro. Rapporto UNESCO della Commissione

Internazionale sull'Educazione per il ventunesimo secolo, Roma, Armando, 1997

DOMENICI G., Progettare e governare l'autonomia, in G. Domenici (a cura di), Progettare

e governare l'autonomia scolastica, Napoli, Tecnodid, 1999

GATTICO E., MANTOVANI S. (a cura di), La ricerca sul campo in educazione. I metodi

qualitativi, Milano, Bruno Mondatori, 1998

NEGRO G., Qualità totale a scuola. Didattica, organizzazione scolastica e nuovi modelli

“manageriali”, Milano, Il Sole 24ore Libri, 199

NIRCHI S., SIMEONE D., La qualità della valutazione scolastica. Valutazione e verifica

degli apprendimenti, Anicia, Roma 2004

UNI – ENTE NAZIONALE ITALIANO DI UNIFICAZIONE, Sistemi Qualità. Linee Guida

per lo sviluppo e l'adozione di un sistema di qualità negli organismi di formazione secondo

la norma Uni En ISO 9001, Milano, Uni, 1998

VERTECCHI B., Se la qualità diventa la parola d'ordine, Il Sole 24ore Scuola, Anno IV, n.

8, 19 apr.-2 maggio 2002

Sulle problematiche generali della riflessione pedagogica in merito alla valutazione si possono

consultare:

BECCHI E., VERTECCHI B., Manuale critico della sperimentazione e della ricerca

educativa, Milano, Angeli, 1990

BLOOM B. S., Caratteristiche umane e apprendimento scolastico, Roma, Armando, 1979

CAJOLA L., DOMENICI G., Organizzazione didattica e valutazione, Monolite, Roma 2005

CALONGHI L., Valutare, Novara, De Agostini, 1983

CORNOLDI C., Metacognizione e apprendimento, Bologna, Il Mulino, 1995

DE LANDSHEERE G., Introduzione alla ricerca in educazione, Firenze, La nuova Italia,

1989

DOMENICI G., in C. Nanni (a cura di), La ricerca pedagogico-didattica. Problemi,

acquisizioni e prospettive, LAS, Roma 1977

DOMENICI G. (a cura di), La valutazione come risorsa, Napoli, Tecnodid, 2000

DOMENICI G., Ragioni e strumenti della valutazione, Napoli, Tecnodid, 2009

LAENG M. , Pedagogia sperimentale, Firenze, La Nuova Italia, 1992

LICHTNER M., Valutare l’apprendimento: teorie e metodi, F. Angeli, Milano 2004

MAGRI P., ROSSI L., L'osservazione nella scuola, Torino, Paravia, 1998

MANTOVANI S. (a cura di), La ricerca sul campo in educazione, Milano, Mondatori, 1995

Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

________________________________________________________________________________

MELCHIORI R., Pedagogia. Teoria della valutazione, Pensa multimedia, Lecce 2009

VERTECCHI B., Manuale della valutazione. Analisi degli apprendimenti, Roma, Ed.

Riuniti, 1984

VERTECCHI B., Verso la definizione di standard per la formazione scolastica, CEDE, 1997

VISALBERGHI A., MARAGLIANO A., VERTECCHI B., Pedagogia e scienze

dell'educazione, Milano, Mondadori, 1990

sito www.lebasidellapprendimento.it

Sui principali problemi della valutazione sia da un punto di vista di sistema scolastico che di singola

unità classe , e sull'importanza che gli strumenti di verifica rivestono per un efficace controllo degli

apprendimenti, si consiglia la lettura dei segg. Volumi:

AA.VV., Valutare l'insegnamento. Per una scuola che conti, Roma, Armando, 1995

BALDACCI M., Personalizzazione o individualizzazione?, Erickson, Trento 2005

BARZANO’ G. (a cura di), Imparare e insegnare. Teorie, strumenti, esempi, Bruno

Mondatori, Milano 2009

BONCORI L., Teoria e tecniche dei test, Torino, Boringhieri, 1993

BOTTANI N., BENADUSI L., Uguaglianza e equità nella scuola, Erickson, Trento 2006

BOTTERO E., Del valutare: dal mito dell'oggetto a una cultura fenomenologico-

ermeneutica, in P. Bertolini (acura di), La valutazione possibile, Firenze, La Nuova Italia,

1999, pp.107-133

CALONGHI L., Valutazione delle competenze scritte, Roma, Armando, 197

CAPOGNA S., CIRACI A.M., Certificazione delle competenze e strategie didattiche.

Opportunità formative per l’equità sociale, Monolite, Roma 2007

CASTOLDI M., Valutare le competenze, Carocci, Roma 2009

CHIAPPETTA CAJOLA L., DOMENICI G., Didattica e valutazione, Roma, Monolite,

2005

DE LANDSHEERE V., Far riuscire far fallire. La competenza minima e la sua valutazione,

Roma, Armando, 1991

DOMENICI G., Gli strumenti della valutazione, Napoli, Tecnodid, 1991

DOMENICI G., Manuale della valutazione scolastica, Bari, Laterza 1993

DOMENICI G., MORETTI G., Il portfolio dell’alunno. Autonomia, equità e regolazione

dei processi formativi, Anicia, Roma 2006

DOMENICI G., FABBRONI F. (a cura di), Indicazioni per il curricolo. Scuola dell’infanzia,

primaria e secondaria di primo grado. Erickson, Trieste 2007

DOMENICI G. (a cura di), Nuove indicazioni per il curricolo. La prova sul campo. Anicia,

Roma 2008

DOMENICI G., Manuale dell'orientamento e della didattica modulare, Roma-Bari, Laterza,

2009

FABBRONI F., Il laboratorio per imparare a imparare, Tecnodid, Napoli 2005

FIERLI M., Tecnologie per l’educazione, Roma-Bari, Laterza, 2003

GUASTI L., Valutazione e innovazione, Novara, De Agostani, 1998

LANEVE C., Per una teoria della didattica, Brescia, La Scuola, 2004

MOE’ A., Motivazione e apprendimento, Il Mulino, Bologna 2006

MORETTI G., QUAGLIATA A., Strumenti per la valutazione degli apprendimenti, Roma,

Monolite, 1999

NIRCHI S., Didattica modulare: dalla linearità alla reticolarità, su

http://www.paramond.it/old/art/0012_nirchi/index.shtml?print , Paravia Bruno Mondadori, 5

dicembre 2000

PELLEREY M., Dirigere il proprio apprendimento, La Scuola, Brescia, 2006

Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

________________________________________________________________________________

PELLEREY M. & ORIO F., La diagnosi delle strategie cognitive, affettive e motivazionali

coinvolte nell'apprendimento scolastico. Costruzione, validazione e standardizzazione di un

questionario di autovalutazione, in “Orientamenti pedagogici”, n. 42, 1995, pp. 683-726

ROSATI N., Didattica modulare, Roma, Anicia, 2003

TIRITICCO M. (a cura di), L’obbligo decennale di istruzione, Tecnodid, Napoli 2007

Per un approfondimento più specifico delle tematiche relative alle varie tipologie di prove :

oggettive , strutturate e semistrutturate, si rimanda a:

AA. VV., I giochi di simulazione nella scuola, Bologna, Zanichelli, 1987

BENOIT A., L'arte della sintesi, Milano, F. Angeli, 1993

BENVENUTO G., insegnare a riassumere, Torino, Loescher, 1987

BENVENUTO G., Le prove oggettive di profitto, in E. Lastrucci-P. Lucisano (a cura di),

Apprendere ad insegnare per insegnare ad apprendere, Roma, Borla, 1998

CALONGHI L., Valutazione delle composizioni scritte, Roma, Armando, 1978

CAMBI F., Saperi e competenze, Roma-Bari, Laterza, 2004

CAPELLO C., D'AMBROSIO P., TESIO E. (a cura di), Testi, contesti, pretesti. Per una

formazione al colloquio, Torino, Utet, 1995

CECCHINI A. INDOVINA F., Simulazione, Milano, F. Angeli, 1989

CECCHINI A., Giochi di Simulazione nella scuola, Bologna, Zanichelli, 1987

CECCHINI A., TAYLOR J.L. (a cura di), La simulazione giocata, Milano, F. Angeli, 1987

CORNO D., La scrittura. Scrivere, riscrivere, sapere di sapere, Catanzaro, Rubbettino, 1999

CORNOLDI C., Metacognizione e apprendimento, Bologna, Il Mulino, 1995

CREMASCOLI F., Guida alla scrittura nel triennio, Firenze, La Nuova Italia, 1997

DE BARTOLOMEO M., Esami, in Cerini G., Spinosi M. (a cura di), Voci della scuola

Duemilatre, Napoli, Tecnodid, 2002

DOMENICI G., Le prove strutturate di conoscenza, Teramo, Giunti e Lisciani, 1992

DOMENICI G., MORETTI G., QUAGLIATA A., Le prove semistrutturate, Unità didattica

n. 2, Convenzione Dipartimento di Scienze dell'Educazione dell'università degli Studi di

Roma Tre, Ministero della Pubblica Istruzione, Direzione generale Istruzione Professionale,

Roma, Monolite, 1995

DOMENICI G., Prove strutturate e semistrutturate di verifica finale dell'apprendimento per

il biennio della scuola secondaria superiore, Convenzione tra il Ministero della Pubblica

Istruzione, istruzione Professionale di Stato “F. Datini” di Prato e l'Università di Roma Tre-

Dipartimento di Scienze dell'Educazione, Roma, Monolite, 1997

DOMENICI G., Conoscere, simulare, scegliere, Brgamo, Juvenilia, 1989

DOMENICI G., Le prove semistrutturate di verifica degli apprendimenti, Torino, UTET,

2005

GEA, Gioco di simulazione sulle relazioni Energia e Ambiente, Roma, Enea, 1992

LIS A., VENUTI P., DE ZORDO M.R. (a cura di), Il colloquio come strumento psicologico,

Firenze, Giunti, 1991

LUCISANO P. /a cura di), Alfabetizzazione e lettura in Italia e nel mondo, Napoli,

Tecnodid, 1994

MONTANDON A., Le forme brevi, Roma, Armando, 2001

MORETTI G., QUAGLIATA A., Strumenti per la valutazione degli apprendimenti. Le

prove di verifica strutturate e semistrutturate, Roma, Monolite, 1999

Osservatorio Nazionale sugli Esami di Stato-MPI, AA. VV., Elementi di stile. Riflettendo

sugli orali, Milano, F. Angeli, 2000

Osservatorio Nazionale sugli Esami di Stato, Proposte per le terze prove 2001, Milano, F.

Angeli, 2001

Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

________________________________________________________________________________

PARISI D., Simulazioni, Bologna, Il Mulino, 2001

PONTECORVO C., AIELLO A.M., ZUCCHERMAGLIO C. (a cura di), I contesti sociali

dell'apprendimento, Milano, Led, 1995

PULCINI E., Scrivere, lineare, comunicare per il Web, Milano, F. Angeli, 2001

TRENTIN G. (a cura di), Manuale del colloquio e dell'intervista, Torino, Utet, 1995

VERTECCHI B., Sui test una raffica di equivoci, in Il Sole 24ore Scuola, Anno IV, n. 7, 5-

18 aprile, 2002

ZAMMUNER V.L., Cosa diceva quell'articolo? Espressione e ri-costruzione delle idee

principali di un testo, in “Età evolutiva”, n. 38, febbraio 1991, pp.82-100

ZAMMUNER V.L., Tecniche dell'intervista e del questionario, Bologna, Il Mulino, 1998

ZANNIELLO G. , Prove oggettive di lingua italiana, Roma, Armando, 1997

Sui problemi relativi ai rapporti tra nuove tecnologie e formazione e all'organizzazione delle

informazioni e dei dati valutativi si rimanda a:

ALLULI G., Le misure della qualità, Roma, Seam, 2000

BARZANO' G., MOSCA S., SCHEERENS J. (a cura di), L'autovalutazione nella scuola,

Milano, Mondadori, 2000

CHOMSKY N., Conoscenza e libertà, Milano, Il saggiatore, 2004

DOMENICI G., Gli strumenti della valutazione, Napoli, Tecnodid,1991

DOMENICI G. (a cura di), Progettare e governare l'autonomia scolastica, Napoli, Tecnidid,

1999

DOMENICI G. (a cura di), Valutazione e autovalutazione per la qualificazione dei processi

formativi e-learning, Pensa multimedia, Lecce 2009

GALLIANI L., La scuola in rete, Roma-Bari, Laterza, 2004

ISTAT, Atti del convegno sull'informazione statistica e i processi decisionali, Roma, Istat,

1987

MARAGLIANO R. (a cura di), Pedagogie dell’e-learning, Laterza, Roma-Bari 2004

MARGOTTINI M., Formazione e-learning. Teorie e modelli didattici della scuola,

Monolite, Roma 2005

VERTECCHI B. (a cura di), Archivio docimologico per l'autovalutazione delle scuole,

Milano, F. Angeli, 1999

SITI WEB: www.cede.it ; www.istruzione.it ; www.bdp.it ; www.europa.eu.int ;

www.istat.it ; www.oecd.org ; www.unesco.org .

Sulle problematiche concernenti l' autovalutazione d'istituto e di sistema si possono

utilmente consultare:

ALLULI G., Le misure della qualità. Un modello di valutazione della scuola dell'autonomia,

Roma, Seam, 2000

BARZANO' G., MOSCA S., SCHEERENS J. (a cura di), L'autovalutazione nella suola,

Milano, Bruno Mondatori, 2000

BECK U., GIDDENS A., LASH S., Mordenizzazione riflessiva, Trieste, Asterios, 1999

BONDIOLI A., FERRARI M. (a cura di), manuale di valutazione del contesto educativo:

teorie, modelli, studi per la rilevazione della qualità della scuola, Milano, F. Angeli, 2000

BOTTANI N., CENERINI A., Una pagella per la scuola, Trento, Erickson, 2003

CASTOLDI M. (a cura di), L'efficacia dell'insegnamento. Percorsi e strumenti per

l'autovalutazione, IRRE Lombardia, Milano, F. Angeli, 2002

DOMENICI G. (a cura di), progettare e governare l'autonomia scolastica, Napoli, Tecnodid,

1999

DOMENICI G. (a cura di), La valutazione come risorsa. Analisi degli apprendimenti e

autovalutazione di istituto, Napoli, Tecnodid, 2000

Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

________________________________________________________________________________

LIPARI D., Logiche di azione formativa nelle organizzazioni, Milano, Guerini e Associati,

2002

MARTINI A. (a cura di), Autovalutazione e valutazione degli istituti scolastici, napoli,

Tecnodid, 2002

MINISTERO DELL’ECONOMIA E DELLA FINANZA-MINISTERO DELLA

PUBBLICA ISTRUZIONE, Quaderno bianco sulla scuola, 2007

NIRCHI S., Autovalutazione d'Istituto: analisi del prodotto scolastico, su

http://www.paramond.it/old/art/0106_nirchi/index.shtml?print , Paravia Bruno Mondadori

Editori, 5 dicembre 2000

NUTI S., La scuola si valuta. Strumenti e metodi per l'autoanalisi di istituto, Firenze, Giunti,

2000

PISELLI F. (a cura di), Reti. L'analisi di network nelle scienze sociali, roma, Donzelli, 1995

RIBOLZI L., MARASCHIELLO A., VANETTI R. (a cura di), L'autovalutazione nella

scuola dell'autonomia, Brescia, La Scuola, 2002

http://www.retestresa.it/

Per un approfondimento dei diversi aspetti relativi alle variabili di prodotto si segnalano i seguenti

volumi:

ALLULI G., Le misure della qualità – Un modello di valutazione della scuola

dell'autonomia, Formello, (RM), SEAM, 2001

DOMENICI G., Manuale della valutazione scolastica, Bari, Laterza, 2001

DOMENICI G., (a cura di), La valutazione come risorsa, Napoli, Tecnodid, 2000

DOMENICI G., Manuale dell'orientamento e della didattica modulare, Bari, Laterza, 1998

OCSE, Gli indicatori internazionali dell'istruzione – Una struttura per l'analisi, Roma,

Armando, 1994

CERI-OCSE, Valutare l'insegnamento, Roma, Armando, 1994

LOMBARDO E., I dati statistici in pedagogia, Firenze, La Nuova Italia, 1993

LETI G., Statistica descrittiva, Bologna, Mulino, 1983

NIRCHI S., Autovalutazione d'Istituto: analisi del prodotto scolastico, su

http://www.paramond.it/old/art/0106_nirchi/index.shtml?print , Paravia Bruno Mondadori

Editori, 5 dicembre 2000

SCHEERENS J., Autovalutazione e uso delle informazioni nella scuola orientata ai risultati,

in Barzanò G., Mosca S., Scheerens J., (a cura di), L'autovalutazione nella scuola, Milano,

Mondadori, 2000

STOLL L., MORTIMORE P., School effectiveness and school improvement, London ,

institute of Education, June, 1995

Per un approfondimento relativo alla funzione dell'indicatore “ valore formativo aggiunto ” nel

processo di autovalutazione sono di utile consultazione:

DOMENICI G., Progettare e governare l'autonomia scolatica, Napoli, Tecnodid, 1999

BONDIOLI A., FERRARI M., Manuale della valutazione di contesto dei processi educativi,

Franco Angeli, Milano, 2000

BRAMANTI D. (a cura di), Progettazione formativa e valutazione, Carocci Editore, Roma,

1998

FABBRIS L., CIVALDI M., Valutazione della didattica con sistemi computer- assisted,

Padova, Cleup, 2000

MANTOVANI S. (a cura di), La ricerca sul campo in educazione. I metodi qualitativi,

Milano, Bruno Mondadori, 1998

MANTOVANI S., GATTICO E. (a cura di), La ricerca sul campo in educazione. I metodi

quantitativi, Milano, Bruno Mondadori, 1998.

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

53

. Domande di approfondimento Le domande che vi proponiamo costituiscono spunti di riflessione sulla UD 11: “Verifica, Valutazione, Riprogettazione”, da condividere e approfondire attraverso il Forum tematico. 1) In campo educativo è frequente imbattersi nelle problematiche inerenti il rapporto qualità-quantità nell’ambito delle procedure di misurazione che ai diversi livelli possono, o devono, effettuarsi, poiché questi due aspetti sono, nella realtà concettuale ed operativa, strettamente correlati ed interagenti.

• A suo parere, quali difficoltà o, per contro, opportunità comporta la consapevolezza di dover coniugare qualità e quantità nei vari aspetti della vita scolastica e, in particolare, nella pratica didattica, in merito ai processi valutativi?

• Quali problematiche inerenti a tale argomento ritiene siano più diffuse ed effettivamente presenti, in linea teorica e pratica, tra coloro che operano in campo educativo?

2) La necessità di assumere dati affidabili per l’espressione di giudizi effettivamente circostanziati e motivati è un’esigenza fondamentale nei processi valutativi. Per questo è necessario avere chiari gli elementi che si vogliono rilevare e misurare, in relazione agli obiettivi che ci si è prefissati.

• Sulla base della sua esperienza professionale esprima un parere in merito a questo tema. • In che modo, a suo giudizio, può essere sollecitata ed incrementata anche presso gli utenti

del servizio dell’istruzione la consapevolezza della stretta connessione tra obiettivi perseguiti e modalità adottate per rilevarne l’acquisizione?

3) L’importanza di dotarsi di mezzi adeguati per la rilevazione e la misurazione dei dati valutativi comporta che coloro che operano in campo educativo siano consapevoli della molteplicità e pluralità degli strumenti disponibili per tali scopi.

• A tal fine, quali competenze ritiene indispensabili negli educatori per la realizzazione di efficaci procedimenti di raccolta, analisi e interpretazione di dati valutativi?

__________________________________________________________________________________________________________________ Università degli Studi Roma Tre – Master di II livello – LEADERSHIP E MANAGEMENT IN EDUCAZIONE – Unità di studio 11

__________________________________________________________________________________________________________________

54

• Cosa si potrebbe fare, a suo giudizio, per favorire la progettazione e un impiego condiviso di questi strumenti?

4) L’utilizzazione di dati e informazioni a livello sia sincronico che diacronico mette in luce la trasversalità del sistema di cui è necessario dotarsi per la loro acquisizione e chiarisce, altresì, il ruolo chiave che i processi di monitoraggio e valutazione sono deputati a svolgere in campo educativo.

• Quali osservazioni e commenti le suggerisce la sostanziale omogeneità dei criteri di raccolta, misurazione e valutazione dei dati ai vari livelli del sistema educativo?

• Facendo riferimento alla sua esperienza professionale, illustri aspetti e circostanze che a tale proposito le sembrano significativi.

5) L’autoreferenzialità che ha a lungo caratterizzato il mondo della scuola e di cui esso è stato, altrettanto a lungo, accusato è ormai in fase di definitivo superamento, grazie a specifiche normative e pratiche e stili operativi che lo hanno aperto a un confronto diretto e continuo con il circostante. Tuttavia, indubbiamente gli aspetti che si rivelano più significativi nella dialettica interno-esterno sono quelli relativi al “prodotto scolastico”.

• A suo giudizio, secondo quali criteri andrebbe considerato e valutato il “prodotto scolastico”?

• Quali sono, a suo parere, gli elementi e i fattori che determinano la riuscita di un “prodotto scolastico”?

6) Pratiche valutative correttamente impostate comportano una necessaria riflessione su strategie, tattiche e risultati di determinate azioni educative. Ciò significa destinare tempo e risorse a questo specifico scopo e, soprattutto, maturare una disposizione all’autocritica e al cambiamento, qualora se ne ravvisi l’opportunità o la necessità.

• Le pare che tale esigenza abbia un sufficiente riscontro nella prassi organizzativa della scuola?

• A suo parere, con quali modalità, cadenze temporali e risorse si potrebbero organizzare in un’istituzione scolastica azioni di monitoraggio e valutazione espressamente destinate ad innescare processi di metavalutazione e metadecisione?