Post on 28-Jun-2020
SOMMARIO
Introduzione ............................................................................................ 1
Capitolo 1
La Customer Satisfaction nel marketing ................................................... 5
La Customer Satisfaction: aspetti definitori ................................................................. 7
La Customer Satisfaction: il rapporto con la qualità ..................................................... 8
La Customer Satisfaction: i vantaggi generati e le conseguenze dell'insoddisfazione 11
Perchè stimare la Customer Satisfaction ..................................................................... 13
Alcuni strumenti di rilevazione dei dati per l'analisi della Customer Satisfaction ...... 15
Dalla Customer satisfaction alla CRM ......................................................................... 20
Capitolo 2
Verso i Modelli di Equazioni Strutturali SEM, dagli approcci tradizionali ai
modelli di seconda generazione ............................................................ 23
Il modello statistico ...................................................................................................... 23
Breve evoluzione storica dell'analisi Multivariate ....................................................... 27
L'analisi Fattoriale ............................................................................................... 27
Analisi Fattoriale Esplorativa .............................................................................. 29
Analisi Fattoriale Confermativa e il Modello Causale .......................................... 30
Dall’Analisi fattoriale e Path Analysis alla SEM ................................................... 31
Differenti approcci alla SEM ........................................................................................ 34
Origini ed Evoluzioni del "Partial Least Squares PLS" .................................................. 36
PLS Regression VS PLS-SEM ......................................................................................... 37
Capitolo 3
I Modelli di Equazioni Strutturali ......................................................... 41
3.1 Cosa sono i Modelli di Equazioni Strutturali .......................................................... 41
3.2 Considerazioni basilari per i modelli di equazioni strutturali ................................ 43
I PLS-SEM ...................................................................................................................... 45
CB-SEM vs PLS-SEM ...................................................................................................... 48
Capitolo 4
Dati, ipotesi, condizioni, stime e la costruzione dell'algoritmo PLS-SEM 55
Il Modello strutturale ................................................................................................... 55
Il modello di misurazione ............................................................................................. 59
Le misure Singolo Elemento (single-item) ................................................................... 62
La raccolta dei dati ....................................................................................................... 62
L'algoritmo PLS-SEM .................................................................................................... 64
Capitolo 5
Le valutazioni e la validazione dei risultati della PLS-SEM ...................... 69
La valutazione del modello di misurazione .................................................................. 70
La valutazione dei risultati nei modelli di misurazione riflessivi ......................... 71
La valutazione dei risultati nei modelli di misurazione formativi ........................ 73
La procedura del Bootstrapping .................................................................................. 75
La valutazione del modello strutturale ........................................................................ 76
Capitolo 6
La PLS-SEM nell'analisi delle opinioni degli studenti dell'Università di
Gazi di Ankara in Turchia ....................................................................... 81
La Valutazione del Data Set ......................................................................................... 83
La Costruzione del Modello di Base (Prototipo) ed eventuali Ipotesi di sviluppo ....... 93
Dal Modello di algoritmo globale al modello su misura per singola indagine ..........102
Ulteriore Analisi sugli indicatori di Soddisfazione .....................................................106
Conclusioni ......................................................................................... 117
Bibliografia ......................................................................................... 121
1
Introduzione
Oggi stiamo vivendo in un mondo dove industrie, aziende, governi ed individui si
confrontano con un’esplosione di dati. Questi emergono ormai da diverse fonti come
ad esempio dal traffico web, interazioni dei social network, i sensori che tracciano i
fornitori, i clienti, le spedizioni, i sistemi GPS in grado di monitorare il traffico, etc.
Questa tendenza, spesso definita l’età dei big data, sta spingendo il mondo verso
scoperte basate sui dati e il loro processo decisionale.
Questa abbondanza di dati presenta sia opportunità sia sfide per gli analisti,
professionisti e Police maker. Mentre più dati sono disponibili, non ci sono abbastanza
persone capaci di analizzarle e comprenderle. L’analisi statistica oggi rappresenta una
grande abilità insieme alla capacità computazionale delle macchine che oggi sono
presenti nel mercato. Lo sviluppo recente di software user-friendly (sempre più
efficienti e convenienti in termini di tempo e denaro) rendono i sistemi informatici
capaci di gestire grandi quantità di dati aprendo la strada allo sviluppo di tecniche
sempre più avanzate di nuova generazione.
Nel marketing e nelle scienze sociali negli ultimi anni si fa sempre più uso di strumenti
di analisi statistica per confermare i risultati di apposite ricerca. L'applicazione di
metodi statistici di prima generazione ha dominato il panorama della ricerca degli inizi
degli anni 80. Ma fin dai primi anni 90, metodi di seconda generazione si stanno
rapidamente sviluppando, ed addirittura in alcune discipline rappresentano quasi il
50% degli strumenti statistici applicati nella ricerca empirica. Oggigiorno gli strumenti
di seconda generazione emergenti sono i Modelli di Equazioni Strutturali in particolar
modo quelli che si basano sui Minimi Quadrati Parziali in inglese identificati con la sigla
PLS-SEM spesso identificata con il nome di PLS Path-Modeling.
Nel presente elaborato si è affrontato quello che ormai è diventato una delle nozioni di
base del marketing: la cosiddetta "Customer Satisfaction" vista anche dal punto di vista
di elaborazione dei dati attraverso moderne metodologie statistiche. La soddisfazione
del cliente o utente è il risultato di numerosi aspetti che vanno dalla qualità oggettiva
assicurata dai processi produttivi dei un azienda, alle caratteristiche psico-sociali
dell'individuo che usufruisce del prodotto o del servizio.
2
Nel Capitolo 1 si è cercato, sia pur brevemente, di affrontare il tema della Customer
Satisfaction nel marketing, delineando gli obiettivi e le motivazioni di fondo della
necessità di un orientamento al cliente come strategia continua. Inoltre sono riportati
focus sull'importanza di saper anticipare e gestire le aspettative dei consumatori, il
rapporto con la qualità, i vantaggi generati e le motivazioni del perché stimare la CS. La
conclusione del capitolo si concentra sul passaggio che si sta attuando in questi ultimi
anni dalla CS alla CRM (Customer Relationship Management).
Nel Capitolo 2 si è focalizza su excursus anche storici dell'evoluzione delle tecniche di
analisi multivariate sino ad arrivare ai moderni modelli di seconda generazione come i
modelli di equazioni strutturali. Questa parte dell'elaborato si è concertata sulla
definizione di cosa è un modello statistico delineando anche alcune importanti
classificazioni delle SEM.
Nel Capitolo 3 si è presentata una rassegna abbastanza robusta di cosa sono nel
concreto i Modelli di Equazione Strutturali entrando nello specifico delle varie modalità
attualmente esistenti, definendo la funzionalità e la struttura.
Nel Capitolo 4 si è posta l'attenzione su come impostare i dati e le ipotesi per
strutturare l'algoritmo iterativo di un modello di equazioni strutturali che utilizza
Partial Least Squares definendo cosa sia e come è composto il modello strutturale e il
modello di misurazione.
Il Capitolo 5 si incentra tutto sulla questione della valutazione e validazione dei risultati
dei PLS-SEM cioè quanto bene la teoria si possa adattare ai dati. Si delineano in questa
parte dell'elaborato tutta una serie di procedure tecniche per la valutazione
dell'affidabilità del modello e la validità statistica delle misure dei costrutti (elementi
che compongono il modello).
Infine il Capitolo 6 si presenta uno specifico caso di applicazione dei PLS-SEM per
comprendere al meglio la funzionalità e la potenzialità applicata alla Customer
Satifaction. Si è sviluppare un’analisi sulle opinioni degli studenti dell'Università di Gazi
di Ankara in Turchia. L'idea iniziale era quella di utilizzare come base di analisi della CS
sulle opinioni degli studenti il database che l'Università IULM possiede in quanto ai
3
propri studenti si richiede di compilare un questionario valutativo di ogni singolo corso
prima di prenotarsi per sostenere un esame e metterli a confronto con almeno un altro
database di altre Università. Per motivi legati a politiche sulla privacy dell'università,
non abbiamo avuto l'opportunità di elaborare tali dati. Per questa esigenza abbiamo
optato, per compiere la nostra analisi, l'adozione di un database di pubblico dominio.
4
5
Capitolo 1 - La Customer Satisfaction nel marketing
La Customer Satisfaction (CS) ovvero la soddisfazione del cliente rappresenta un tema
di grande attualità. L'importanza che le imprese affidano alla CS costituisce la
premessa indispensabile per riuscire a creare un rapporto duraturo, basato sulla
fiducia, che permetta di raggiungere buone performance economiche e di mercato. La
presenza di un portafoglio clienti costituisce in effetti un punto di forza importante,
utile per riuscire a contrastare le spinte competitive, per garantire la sopravvivenza e lo
sviluppo dell'azienda.
Oggigiorno le imprese devono riuscire a comprendere a fondo cosa si aspetta la
propria clientela, al fine di poter offrire un prodotto e servizio di valore; oltre a ciò,
devono svolgere un costante monitoraggio sul grado di soddisfazione/insoddisfazione
dei propri clienti, cercando di comprendere gli eventuali motivi all'origine di malumori,
generatori di situazione di insoddisfazione che rappresentano delle vere e proprie
minacce in grado di ostacolare gli obiettivi aziendali. Gestire correttamente la relazione
con la clientela, valorizzandola al massimo per riuscire non solo a comprendere a
fondo le necessità di quest'ultima ma anche per poter definire azioni mirate e
personalizzate sfruttando al meglio le soluzioni tecnologiche e informatiche che oggi
sono disponibili (Angelini, 2011).
L'obiettivo di creazione valore rappresenta per qualsiasi impresa un traguardo verso
cui tendere. Il cliente, del resto, decreta il successo o l'insuccesso dell'offerta
aziendale. L'affermazione "il cliente è il re" sintetizza bene questo concetto. Se da un
lato il cliente cerca un prodotto/servizio di valore in grado di appagare le sue
aspettative sia in termini prestazionali/funzionali, che psicologici, sociali ecc; dall'altro
lato l'impresa sarà orientata alla produzione di valore e quindi di profitto nel medio-
lungo periodo. Si tratta quindi di obiettivi strettamente correlati tra loro. Esprimendola
in termini economici, possiamo dire che l'offerta proposta al mercato è giudicata
competitiva se è in grado di soddisfare le aspettative della domanda tanto da fare
preferire quella data offerta ad altre presenti sul mercato.
6
Come abbiamo sottolineato precedentemente, il cliente deve essere posto al centro
delle strategie e ai processi aziendali poiché rappresenta il vero "tesoro" dell'impresa.
Come ogni tesoro, molti sono interessati a detenerlo ed una volta conquistato a
tenerlo stretto. Per le imprese dunque si impone oggigiorno di adottare un
orientamento cosiddetto al cliente basato sulla soddisfazione del cliente come
strategia continua. Tale orientamento non è in realtà un concetto nuovo. Levitt già agli
inizi degli anni 60 affermava che "la soddisfazione del cliente è lo scopo ultimo di ogni
impresa" (Levitt, 1960).
L'attenzione perciò si deve porre sulla capacità dell'impresa di saper gestire ed
anticipare le aspettative dei consumatori, sviluppando una forte cultura dell'ascolto e
della relazione, per creare una relazione duratura basato sulla soddisfazione e sulla
fiducia (Lambin, 2000). In realtà oggi non è stato ancora dimostrato con certezza che
un determinato livello di soddisfazione implichi un certo grado di fedeltà ad un'azienda
o ad una marca. Se non tutti i consumatori soddisfatti sono fedeli, è stato dimostrato
che non tutti i consumatori "scontenti" sono infedeli (Jones & Sasser, 1995).
La competizione tra aziende non si gioca più solo in termini di market share, tipica del
marketing tradizionale, ma si gioca in termini di share of customer, tipica del marketing
relazionale. La battaglia competitiva sarà pertanto vinta da quelle imprese che meglio
delle altre sapranno gestire questo rapporto relazionale con la propria clientela e tutto
ciò che esso comporta a livello non solo di marketing ma anche e soprattutto a livello
produttivo e organizzativo. Infatti l'adozione di un approccio al cliente deve
coinvolgere tutta l'impresa: dalla cultura alla missione, ma anche la struttura, le
conoscenze e i processi aziendali (Valdani & Busacca, 1995).
Sono proprio i clienti i veri generatori del cambiamento, ma sta all'azienda la volontà e
la lungimiranza di anticipare desideri e bisogni dei clienti senza, ovviamente, mettere
in discussione l'identità aziendale e valorizzando al massimo il complesso di risorse
competenze possedute dall'azienda. Il cliente non è pertanto considerato
semplicemente come un soggetto da conquistare e mantenere, ma come un vero
partner da ascoltare, spesso in modo anche molto discreto, all'insaputa del cliente
stesso, e con il quale possono essere messe in atto forme di collaborazione.
7
Quello che ormai è indubbio è che all'origine del vantaggio competitivo dell'impresa
moderna oggi non sono tanto le risorse tangibili quali mobili, macchinari, arredi, ecc.
quanto quelli intangibili. Si tratta di una serie di fattori (persone, know-how, relazioni
con i vari stakeholder e con i clienti in particolare, conoscenze, sistemi informativi,
ecc,) che non appaiono nello stato patrimoniale o nel conto economico di un'impresa
ma contribuiscono in maniera decisiva alla produzione di valore e al raggiungimento di
elevate performance economico-finanziarie e di mercato. In altri termini, tali risorse
rappresentano la vera fonte del vantaggio competitivo "invisibile", che costituiscono la
vera primaria garanzia della durabilità di tale vantaggio (Low & Cohen, 2003).
Concentrando l'attenzione sul consumatore si riesce ad identificare i desideri e le
necessità, e se attraverso la fornitura di prodotti e servizi si riesce anche a soddisfarli,
un'azienda sicuramente avrà successo. Ma tutto ciò presuppone l'adozione di un
sistema informativo "evoluto" ossia in grado di intuire cambiamenti in modo veloce ed
efficace, per poi trasmettere questi input all'interno dell'organizzazione in modo da
poter sfruttare queste conoscenze per la predisposizione di offerte competitive.
Solo una gestione oculata di tutti questi beni materiali può in effetti permettere una
generazione complessiva di valore. Per esempio, non è pensabile gestire bene la
relazione con i clienti senza un sistema informativo adeguato, che fornisca input
essenziale sul profilo del cliente da utilizzare per impostare politiche personalizzabili ed
efficace; così come non è pensabile gestire bene le relazioni con i clienti senza aver
azione uno status professionale motivato. Questo aspetto è soprattutto importante
nell'ambito dei servizi, dove la prestazione erogata dipende in larga misura da chi
fornisce servizi (Angelini, 2011).
1.1 La Customer Satisfaction: aspetti definitori
Oggi le imprese si trovano ad operare su mercati diventati sempre più competitivi e
con un consumatore diventato particolarmente esigente ed informato, anche grazie
allo sviluppo delle soluzioni informatiche e di Internet. Ciò ha spinto le imprese verso
un crescente livello di varietà e di ampiezza dell'offerta, puntando sulla qualità e sulla
8
velocità di risposta alle sollecitazioni del mercato, cercando, quando possibile, di
anticipare il mercato attraverso un'attenta analisi e codifica di segnali deboli catturati
dal mercato.
Del resto come sostiene uno dei più importanti esperti di marketing a livello mondiale,
"il fine del marketing è rendere superflua la vendita. Il fine è conoscere e capire i clienti
così bene e che si adatta a loro perfettamente che si vende da solo" (Druker, 1973).
Questo non significa che le promozioni e le azioni di marketing non sono importanti;
significa solo che tali attività devono essere collocate all'interno di un piano aziendale,
formato da un insieme di strumenti che energicamente producono clienti soddisfatti e
fedeli.
Infatti si è sviluppato, negli ultimi 15 anni, il concetto di cliente come prodotto
(Varaldo & Guido, 1997): le imprese, in altri termini, producono clienti la cui
soddisfazione dipende dalla capacità di far fronte ai loro desideri e aspettative. Ed è
come l'impresa si propone al mercato e da come il cliente percepisce il livello di qualità
del prodotto o/e servizio che si misura la soddisfazione (Angelini, 2011). Da quanto
detto si comprende come diventa strategico per ogni impresa produrre "clienti di
qualità cioè clienti soddisfatti, secondo parametri che l'impresa stessa contribuisce a
stabilire". Il focus di tutta l'azione dell'impresa risponde pertanto dalla qualità del
prodotto/servizio e dalla qualità del cliente, intesa come soddisfazione del cliente
(Brand, 1988).
1.2 La Customer Satisfaction: il rapporto con la qualità
Come già indicato in precedenza, la soddisfazione cliente costituisce un obiettivo che
potremmo definire intermedio, cioè una tappa da raggiungere per poter vedere
concretizzare i risultati economico-finanziari di mercato obiettivo.
Si tratta ora di comprendere quanto possiamo affermare che la nostra clientela è
soddisfatta una volta acquistato e consumato il prodotto e/o servizi e solo in seguito si
manifesta nel soggetto una sensazione di soddisfazione o di insoddisfazione. L'una o
l'altra situazione dipende dalla relazione esistente fra le aspettative del consumatore e
9
le prestazioni percepite rispetto al prodotto acquistato (La Barbara & Marzursky,
1983). Ovviamente possono essere sperimentati diversi livelli di soddisfazione: se la
performance di prodotto è inferiore alle aspettative, il cliente manifesta una situazione
di insoddisfazione; se invece è superiore, il cliente resta molto soddisfatto. Tutto si
gioca su ciò che il cliente si aspettava e ciò che ritiene di aver ricevuto (Parasuraman,
Zeithmal, & Berry, 1985).
Possiamo affermare che la customer satisfaction è proprio quella sensazione da parte
del cliente di veder realizzate, o superate, le aspettative. In altri termini è uno stile di
comportamento che esplicita la capacità di generare valore per il cliente gestendo le
loro aspettative e dimostrando, in tutte le scelte strategiche, tattiche, competenze e
responsabilità per soddisfare i loro bisogni (Gerson, 1995).
Dalla definizione precedente si sottolinea come la soddisfazione sia un fenomeno
soggettivo, strettamente legato alla specifica situazione che un determinato soggetto
ha affrontato e sa affrontare. Le conseguenze che possono derivare da questi livelli di
soddisfazione sono ovviamente diverse. In caso di prestazione superiore alle attese,
essendo il cliente entusiasta dall'esperienza fatta, tenderà a manifestare un
atteggiamento estremamente favorevole nei confronti di una determinata offerta e a
legarsi molto a lungo. Il cliente non ha in questo caso nessun motivo per allontanarsi
ma al contrario ha tutto l'interesse a manifestare nei suoi confronti un atteggiamento
fedele. Caso del tutto opposto è l'insoddisfazione. In questa fattispecie il cliente
rimane deluso. La sua riconquista è alquanto remota ed è meno costoso conquistare
un cliente nuovo. Infine se le attese coincidono con le prestazioni ricevute, il cliente
non rimane particolarmente colpito dall'esperienza fatta. Questa sensazione è
rischiosa poiché tale cliente è conquistabile dalla concorrenza. Perciò non si tratta
pertanto di classificare i clienti come fedeli ma piuttosto di classificarli come
soddisfazione o meno (Angelini, 2011).
I primi studi in materia di customer satisfaction hanno posto particolare enfasi sul
concetto di qualità. La soddisfazione inizialmente veniva definita come "il grado di
accordo tra aspettative del cliente sulla qualità di un certo prodotto e/o servizio e il
livello di qualità percepita. Compare quindi il concetto di qualità, la quale è stata a sua
10
volta definita come il grado di soddisfazione che un prodotto/servizio può dare ai
bisogni, attese e desideri di uno specifico cliente" (Quartapelle, 1994). Sulla base di
questa definizione possiamo affermare che un soggetto può riuscire ad esprimere un
giudizio sulla qualità di un prodotto e/o servizio solo dopo averlo provato. Si tratta di
un valore soggettivo che terrà anche conto della sua partecipazione. E' proprio per
sottolineare questo carattere di soggettività che anziché parlare di qualità in termini
generici si fa riferimento al concetto di qualità percepita (Orsingher, 2003).
Altri studi successivi hanno preso questi concetti e hanno legato la soddisfazione ad
una precisa esperienza del soggetto e come essa sia condizionata dallo stato emotivo
in cui si trova nel momento in cui usufruisce del prodotto e/o servizio. La qualità
percepita, da questo punto di vista, appare come un concetto ben diverso. Pertanto, è
possibile affermare che la soddisfazione è legata ad una specifica funzione mentre la
qualità piuttosto ad uno stato mentale più stabile (Oliver, 1997).
Nel caso della customer satisfaction invece, il confronto avviene tra ciò che il cliente ha
sperimentato e ciò che egli si aspettava che accadesse secondo previsioni formulate in
modo convincente. È chiaro che tra customer satisfaction e qualità esiste un rapporto
di interdipendenza: un'elevata qualità percepita produce un'influenza positiva sul
livello di customer satisfaction che va ad aggiungersi ad altri precedenti positive
esperienze, influenzando positivamente il giudizio sulla qualità del prodotto e/o
servizio (Costabile & Marzocchi, 1995). Si individua pertanto un rapporto circolare, in
grado di generare, se ben gestito, un importante e strategico vantaggio competitivo.
L'adozione di una strategia di customer satisfaction che tenga conto solo della qualità,
e non delle variabili che influenzano la soddisfazione del cliente, parte fallimentare.
Un'azienda potrebbe, ad esempio, cercare di migliorare il livello di customer
satisfaction puntando sul miglioramento di alcuni elementi dell'offerta (qualità del
servizio). A questo riguardo, la scelta degli elementi suddetti appare fondamentale per
il buon esito dell'operazione. Se la scelta dovesse ricadere su aspetti ritenuti dal
consumatore non rilevanti, la customer satisfaction potrebbe risultare addirittura
danneggiata; ciò si verificherebbe nel caso in cui l'azienda decidesse di aumentare il
prezzo del servizio per coprire i maggiori costi. Questo aumento potrebbe apparire alla
11
clientela non giustificato e non necessario, anzi superfluo. Ciò può portare ad una
dissociazione tra qualità offerte l'interesse qualità desiderata (Angelini, 2011).
1.3 La Customer Satisfaction: i vantaggi generati e le conseguenze
dell'insoddisfazione
Dal raggiungimento di una situazione di soddisfazione discendono una serie di vantaggi
che si possono ricondurre ad aumenti di ricavi, gestione dei costi e miglioramenti del
livello di patrimonio aziendale.
Per quanto concerne gli effetti positivi sui ricavi, possiamo affermare che un cliente
soddisfatto non ha motivo per cambiare il proprio fornitore. Questo ha effetti positivi
nella longevità media di utilizzo di un'offerta proposta dell'azienda. Aumentando la
durata della relazione tra aziende e clienti è possibile inoltre ammortizzare i costi con
impatti positivi sulla redditività (Falbo, 1998). Oltre a queste è possibile che un cliente
soddisfatto acquisti sempre meglio e più, estendendo la scelta anche verso altri
prodotti della stessa azienda (si tratta di vendite cross-selling).
Occorre però sottolineare che non tutti i clienti sono uguali. L'impresa deve
massimizzare i propri sforzi per sensibilizzare i clienti più profittevoli e per attirare i
clienti ad elevata profittabilità (Hallberg, 1999). Infatti uno degli obiettivi principali
dell'azienda è quello di attrarre e mantenere i clienti profittevoli e per far ciò è
innanzitutto necessario individuarli e, di seguito, predisporre le azioni più opportune.
I clienti possono essere definiti strategici non solo quando generano una significativa
percentuale del fatturato ma anche quando il loro acquisto avviene con regolarità.
Occorre, considerare anche altri aspetti quali la redditività degli acquisti, la coerenza
con la cultura, i valori, il livello di partecipazione e di integrazione, il livello di maturità
e di evoluzione del cliente (Grandis & Negro, 2006).
Anche il livello di partecipazione nei processo di fruizione del servizio o utilizzo del
prodotto è quanto mai importante in quanto contribuisce a definire il suo grado di
soddisfazione. In caso di elevata partecipazione, il cliente svolgerà alcuna attività e
12
questo far sì che questa condizione sia perfettamente in linea con quanto da lui
desiderato (Angelini, 2011).
Abbiamo in precedenza fatto riferimento anche ai costi. In effetti, la gestione di un
portafoglio di clienti soddisfatti appare meno problematica e meno onerosa poiché
essi sono ben conosciuti dall'impresa, se ne conoscono le abitudini di acquisto, di gusti,
e dunque risulta ancora più semplice definire un'offerta in grado di soddisfarli.
Non bisogna inoltre trascurare l'attività di passaparola (word of mouth) dei clienti
soddisfatti. Tale fenomeno, che per l'azienda rappresenta le più efficaci forme di
comunicazione, tra l'altro non a pagamento, si sviluppa in particolare quando il cliente
riceve delle prestazioni superiore alle attese (Angelini, 2011). In questo caso, infatti il
cliente rimane, in senso positivo, sorpreso dalle esperienze fatte ed è voglioso di
comunicare ad altri (amici, parenti, conoscenti) l'esperienza fatta e questo potrebbe
avvicinare all'offerta dell'impresa altre persone proprio a seguito di questo "contatto".
In particolare l'efficacia di questa forma di comunicazione risiede nel fatto che chi la
riceve non interpreta che essa sia una indiretta azione di marketing. Infatti non ha
motivo di dubitare sulla veridicità di quello che gli viene detto dall'amico/conoscente,
soprattutto se il legame affettivo con tale persona è forte.
Tutto ciò ha delle conseguenze positive anche sul livello di patrimonio aziendale. In
caso di soddisfazioni della clientela, infatti, tutta l'immagine aziendale ne trae
vantaggio, creando le premesse per un continuo e crescente miglioramento della
stessa.
Se è vero che soddisfare la clientela è fondamentale per produrre vantaggi economico-
finanziari di mercato, altrettanto vero è che la presenza di clienti insoddisfatti può
minare la stessa sopravvivenza dell'impresa. Il cliente insoddisfatto è, in effetti, una
voce che si leva dal mercato contro l'impresa, con impatti che possono essere definiti a
dir poco disastrosi. In effetti, l'insoddisfazione produce effetti negativi in quanto non
solo si perdono delle opportunità, ovviamente nei confronti di quei clienti che
l'impresa non è riuscita a soddisfare, ma sorgono anche dei costi legati alla gestione
degli insoddisfatti (Angelini, 2011).
13
Il comportamento negativo messo in atto da un cliente insoddisfatto produce effetti
negativi anche sul "passaparola". Infatti essi producono effetti negativi sui clienti, sia
vecchi e nuovi, provocando minori ricavi e minori profitti nel futuro, incrementando la
difficoltà ad attrarre nuovi clienti, che avranno anche effetti negativi non solo
sull'immagine aziendale ma anche sui dipendenti.
L'obiettivo delle imprese orientate alla customer satisfaction non è dunque solo quello
di fornire al cliente qualche cosa che va oltre le sue aspettative o al limite di
eguagliarla, ma anche quella di fare emergere le situazione di insoddisfazione
(Angelini, 2011). Occorre dunque evitare che tali situazione rimangano sconosciute alle
aziende perché in questo caso non possono essere messe in atto le azioni correttive
rivolte a fronteggiare le situazioni a vantaggio sia del cliente che dell'impresa.
1.4 Perchè stimare la Customer Satisfaction
Per conquistare o mantenere una situazione di vantaggio competitivo durevole, è
essenziale acquisire una profonda conoscenza del mercato, delle aspettative, dei
desideri dei consumatori e monitorare nel tempo il grado di customer satisfaction
raggiunto. A questo scopo le imprese possono utilizzare diverse soluzioni, prevedendo
il coinvolgimento della propria clientela oppure utilizzando dati già reperiti
precedentemente per altre finalità.
In questa parte dell'elaborato faremo una breve e sicuramente non esaustiva
descrizione di alcune tecniche utilizzate che permettono la stima del livello di customer
satisfaction. Descriveremo brevemente sia metodi diretti che indiretti. Come abbiamo
detto precedentemente la relazione con il cliente è diventato un'area strategica sulla
quale operare per riuscire a differenziare l'offerta oltre che per cercare di legare in
modo durevole il cliente all'impresa.
Riuscire a comprendere se ed in quale misura i nostri clienti sono soddisfatti
dell'offerta proposta rappresenta, sulla base di quanto già esposto, un obiettivo
fondamentale. Avendo la piena consapevolezza di ciò che viene particolarmente
apprezzato dalla clientela o ciò che al contrario non è all'altezza delle aspettative è
14
possibile pianificare un complesso di azioni volte ad incidere sul contenuto dell'offerta.
Per riuscire a far ciò è necessario munirsi di, e utilizzare, appositi strumenti di
misurazione, alcuni dei quali spesso hanno un elevato livello di complessità. In questo
elaborato affronteremo un metodo molto sofisticato di creazione di indici della
customer satisfaction per analizzare l'andamento esperienziale di utenti all'interno
delle università.
Quali strumenti di misurazione permettono di acquisire informazioni su una serie di
aspetti molto rilevanti tra i quali:
• bisogni ed aspettative del cliente. Si tratta infatti di capire ciò che i clienti
desiderano ricevere al fine di soddisfare i propri bisogni; scoprire che cosa
avrebbe piacere di ricevere in merito alle specifiche di prodotti/servizi e quali
sono le migliori modalità di erogazione per predisporre un'offerta in grado di
generare soddisfazione.
• Impressioni dei clienti, sia a livello di aggregato che del singolo, su ciò che è
stato ricevuto. Ciò che è importante non è infatti solo il dato medio ma anche le
singole impressioni dei clienti, dalle quali poter ottenere informazioni puntuali
e significative; per esempio, può essere interessante avere ben chiaro che cosa
cerca il cliente nell'offerta, quali criteri considera nel pregiudicare la
performance della qualità di un servizio, che cosa l'ha indotta a cambiare in
passato, ecc.
• Eventuali scostamenti negativi da eliminare. Si tratta di comprendere le cause
all'origine di eventuali generatori di insoddisfazione e attraverso ciò,
predisporre le misure più opportune per una loro rimozione.
• Indicazioni sul comportamento aziendale. Conoscere come l'azienda si sta
muovendo all'interno del proprio settore e i risultati che sta conseguendo, non
solo per comprendere se le strategie passate stanno producendo effetti ma
anche per progettare le strategie delle azioni future.
• Processo di miglioramento continuo. Le aziende, in altri termini, devono
puntare ad una crescita qualitativa della propria proposta. In effetti può essere
utile interpellare con sistematicità gli acquirenti al fine di acquisire delle idee
15
utili, oltre che eventuali proposte di raccomandazioni di miglioramento
(Gerson, 1995).
L'analisi costante e sistematica di misurazione del grado di customer satisfaction è
diventata una necessità più che un'opportunità. Solo attraverso tale analisi l’impresa
sarà in grado di comprendere se e in che misura la propria attività è apprezzata.
1.5 Alcuni strumenti di rilevazione dei dati per l'analisi della Customer
Satisfaction
Per esprimere un giudizio sul grado di Customer Satisfaction e per effettuare il
monitoraggio, occorre avere a disposizione una serie di dati che possono provenire da
fonti diverse. Le analisi dei dati possono essere distinti in due categorie:
• metodi indiretti, che utilizzano i dati interni dell'azienda, contenuti nel proprio
sistema informativo, eventualmente arricchiti con informazioni provenienti da
alcune fonti esterne;
• metodi diretti, che prevedono lo svolgimento di apposite ricerche, con il diretto
coinvolgimento della clientela, al fine di raccogliere informazioni molto puntuali
sull'aspetto che si intende indagare.
I metodi indiretti, in genere, hanno un valore inferiore ai fini dell'analisi rispetto a
quelli diretti poiché fanno solo riferimento a misura oggettiva ovvero a risultati di
indagini condotte in passato. Tuttavia sono molto più veloci ed economiche, potendo
risultare comunque molto utili nel caso in cui l'impresa le ritenga sufficientemente
adeguate.
I dati utili per la rilevazione del grado di soddisfazione della clientela possono essere
classificati ulteriormente in altre due importanti categorie. Nella prima possono essere
ricondotti a dati secondari, che sono input (informazioni, dati, ecc.) acquisiti per uno
scopo diverso da quello attuale. Le fonti di acquisizione di tali dati potrebbero essere,
ad esempio la registrazione effettuata dai clienti, organizzazione di ricerca, reporter,
ecc... L'utilizzo dei dati secondari ha il vantaggio del risparmio del tempo, essendo
16
informazioni già esistenti. Gli svantaggi sono che non sempre si adattano
perfettamente alla situazione che interessa approfondire (soddisfazione del cliente),
talvolta non sono molto aggiornati oppure non sono abbastanza curati. Di solito si
consiglia di utilizzarli congiuntamente a dati primari per avere un quadro
sufficientemente chiaro della situazione (Iasevoli, 1995).
I dati primari sono informazioni raccolte direttamente in relazione al progetto di
ricerca che l'impresa intende realizzare. Per acquisire dati primari vengono condotte
delle interviste ai clienti, secondo diverse modalità e un diverso livello di dettaglio,
oppure può essere adottata la tecnica dell'osservazione che prevede lo studio del loro
comportamento. In quest'ultimo caso il cliente non viene interpellato ma si osserva il
suo comportamento durante il processo d'acquisto. Queste informazioni sono utili per
le definizioni delle popolazioni da intraprendere, oltre che per avere alcuni input di
fatto sul comportamento attuale del cliente di fronte ai prodotti concorrenti. Oggi il
digitale aiuta molto questo processo di indagine. Attraverso tali dati è inoltre possibile
risalire all'atteggiamento, all'opinione, alle preferenze, ai comportamenti delle
personalità dei target verso cui l'azienda si rivolge, oltre che per classificarli in diverse
categorie, ottenendo così il profilo delle persone che rispondono alle iniziative
aziendali.
Altro strumento molto importante è il sondaggio. Esso rappresenta una delle tecniche
più diffuse di raccolta dei dati. Sono generalmente condotti ponendo una serie di
domande aperte o chiuse nella stesura di un questionario opportuno ma bisogna fare
particolare attenzione alla definizione delle domande, sia in termini di contenuto che
di format (user friendly, facili da capire e alle quali poter dare una risposta chiara e
precisa, non eccessivamente lungo, ecc.). Possono anche essere condotte delle
interviste dirette, più o meno strutturate (Angelini, 2011).
A partire dagli anni 60 negli Stati Uniti e in Europa sono stati elaborati diversi modelli
per misurare, nel modo molto più attendibile possibile, il grado di soddisfazione dei
clienti, ciascuno dei quali presenta pregi e difetti. E’ anche per tale motivo che spesso
si ricorre a più metodi contemporaneamente al fine di giungere ad un quadro
sufficientemente veritiero e approfondito. Ne sono un esempio l’European Customer
17
Satisfaction Index (ECSI) e l’American Customer Satisfaction Index (ACSI). Come
abbiamo già sottolineato precedentemente nella misurazione della CS si possono
distinguere due categorie, diretti e indiretti.
I metodi indiretti si basano sull'impiego di opportuni indicatori che consentono di
correlare diversi risultati operativi a livello di soddisfazione. Essi prevedono un reale
coinvolgimento della clientela alla quale viene chiesto di esprimere un giudizio sul
problema della soddisfazione relativo alla specifica esperienza di acquisto o di
consumo. Un primo indicatore può essere il fatturato di vendita, suddiviso per aree
geografiche, periodi temporali e clienti serviti. Questi indicatori forniscono solamente
un'informazione di base ed è necessario però arricchirla con ulteriori informazioni. Un
altro strumento interessante è la gestione dei reclami in quanto esso rappresenta la
comunicazione formale di un disservizio con cui l'azienda viene a conoscenza di
eventuali motivi di insoddisfazione (Angelini, 2011). L'esame del numero dei motivi di
reclami è una base di analisi per verificare il grado di customer satifaction. Un altro
indicatore per la raccolta dei dati sono i commenti, ma in questo caso l'azienda deve
spingere i cliente a scrivere su appositi modelli o schede sul servizio ricevuto. Infine un
altro indicatore utile è l'indice di customer retention, che esprime il numero di clienti
rimasti fedeli fino a un determinato periodo di tempo stabilito dall'azienda. Si tratta di
un indicatore importante in quanto considera la capacità dell'impresa di trattenere la
clientela a lungo. L'esame di questi indicatori indiretti può fornire solo una base di
partenza utile per valutare la soddisfazione raggiunta dell'impresa nei confronti della
propria clientela. Se utilizzato da solo non permette di avere un quadro
sufficientemente chiaro, infatti si richiedendo l'applicazione di uno o più metodologie
di analisi che prevedono il diretto coinvolgimento della clientela.
Per questo scopo può essere utile adottare metodi diretti di misurazione della
soddisfazione. Non entreremo nello specifico per motivi di ordine tematico ma tra i più
noti e utilizzati sicuramente citiamo: critical incident tecnique, problem detecion
system, customer satisfacton survey, metodo Servqual e modello di Kano.
La critical incident tecnique considera gli episodi (i cosiddetti critical incident) legati
all'utilizzazione/erogazione di un prodotto/servizio che ha determinato una particolare
18
situazione di soddisfazione o di insoddisfazione del cliente e che dunque egli ricorda
particolarmente bene. La tecnica prevede di porre alla clientela questi quesiti: quali
sono gli episodi che sono avvenuti durante l'utilizzazione o erogazione del
prodotto/servizio che sono stati vissuti in modo molto positivo o negativo? Quando si
sono manifestati questi episodi? Quali sono le circostanze specifiche che hanno
portato a ritenere gli episodi cosiddetti critici? Al cliente vengono fatte semplici
domande, che richiedono una descrizione puntuale di ciò che è accaduto. Tale
interpretazione verrà analizzata e si cercherà di comprendere quali particolari elementi
del servizio potrebbero essere migliorati (Quartapelle, 1994). Si tratta di una tecnica
semplice e facile da utilizzare anche da parte delle realtà più piccole. Essa tuttavia non
fornisce dati completi, con la difficoltà di riuscire in seguito a interpretarli.
Il problem detection system parte dall'individuazione dei problemi incontrati e dei
limiti nell'uso del servizio; dopo averli individuati, viene valutato il grado di importanza
associato dai clienti per arrivare a stimare in che misura tali soluzioni di uno specifico
problema siano in grado di influenzare il comportamento di acquisto o di fruizione. I
problemi percepiti dai clienti vengono suddivisi in tre categorie (problemi legati al
prodotto servizio, problemi legati all'utilizzo e problemi legati allo stile di vita del
cliente) e, dopo ulteriori operazioni di aggregazione volti a eliminare i problemi
ripetuti, vengono effettuate le interviste ai clienti utilizzando un apposito questionario.
Lo scopo è quello di avere alla fine ben chiari la frequenza di accadimento percepita, il
grado di fastidio o danno percepito ed infine il grado di soluzione percepito
(Quartapelle, 1994). L'impresa in effetti con tali informazioni potrà concentrare i propri
sforzi sui problemi che procurano un fastidio o un danno per la clientela, l'analisi
permette di avere input importanti per comprendere dove intervenire.
La customer satisfacton survey è un metodo che si pone l'obiettivo di rilevare in
maniera periodica il livello di soddisfazione dei clienti e di elaborare indicatori numerici
della qualità del servizio offerto nel tempo. Non viene chiesto di effettuare alcun
confronto con i concorrenti; pertanto tale dato sarà presente alla fine dell'indagine
solo se il cliente, di sua iniziativa, avrà fatto riferimento. Una volta condotta l'indagine
è possibile procedere al calcolo di alcuni indicatori in base ai quali è possibile
determinare il livello di customer satisfacton. Infatti nell'ultimo capitolo di questo
19
elaborato, la base di partenza del caso studio sarà proprio l'utilizzazione di questa
metodologia.
Il modello Servqual costituisce una tecnica quantitativa sviluppata nel 1985 per
misurare il giudizio del cliente sulla qualità delle prestazioni erogate dalle imprese di
servizio di commercio al dettaglio. La qualità del servizio viene valutata effettuando il
confronto tra le aspettative e le prestazioni effettivamente ottenuto dal cliente.
Questo modello ha lo scopo di evidenziare lo scostamento tra il servizio ai clienti che si
attendono e quello che percepiscono. Il modello attraverso l'analisi individua differenti
gap: maggiore è la dimensione di tali gap, più alta sarà la discrepanza tra aspettativa e
prestazioni percepite. I gap compresi nel modello sono:
• Gap I: aspettative del consumatore e prestazioni del management aziendale. La
definizione delle aspettative dei consumatori viene formulata dai dirigenti
aziendali. Quando i responsabili non riescono a cogliere con precisione ciò che i
clienti vogliono, si manifesta questo gap.
• Gap II: percezione del management aziendale e caratteristiche qualitative del
servizio. Si verifica quando i dirigenti non riescono a proporre al mercato
un'offerta in grado di soddisfare le aspettative della gente anche se qui il
management conosce le caratteristiche del servizio che si deve erogare.
• Gap III: caratteristiche qualitative del servizio e prestazioni effettive. Considera
la discrepanza tra le caratteristiche del servizio che dovrebbe soddisfare la
clientela e le prestazioni erogate. Si verifica quando si manifestano delle
incongruenze tali per cui ciò che viene realizzato è diverso da quello che viene
offerto.
• Gap IV: servizio offerto e comunicazioni esterne. Avviene quando l'impresa
attraverso le attività di comunicazione che pone in essere, promette più di
quanto non sia in grado di mantenere o comunque promette servizi/attività
diverse da quelle che effettivamente eroga.
• Gap V: servizio atteso e il servizio percepito. Si presenta quando il cliente
avverte una differenza tra la qualità proposta e quella percepita dal cliente. La
qualità attesa è quella che il cliente s'aspetta di ricevere dall'azienda, mentre il
servizio percepito è ciò che il cliente sente di ricevere dall'azienda. Se il cliente
20
ritiene di ricevere meno di quanto si aspetta rimarrà deluso e perciò non
soddisfatto.
La scala delle aspettative misura il livello di possesso che, secondo i clienti, le aziende
operanti nel settore in esame e che dovrebbe avere un determinato attributo del
servizio. Per quanto concerne le percezioni dei clienti viene usato una scala di likert a
sette livelli. Tanto più la percezione del servizio è alta confrontata alle attese e tanto
maggiore è la qualità percepita e dunque il livello di soddisfazione (Quartapelle, 1994).
Il modello di Kano, che prende il nome dal suo ideatore, si basa sull'individuazione di
tre tipi di requisiti del prodotto/servizio la cui presenza è in grado di incidere sulla
soddisfazione del cliente. I requisiti che va ad indagare l'ente sono: requisiti di base
(che sono gli attributi essenziali del prodotto/servizio cioè quelli che devono
necessariamente essere presenti e la presenza non incide in misura rilevante sulla
soddisfazione del cliente in quanto essa viene data per scontata mentre la loro
assenza può contribuire alla causa principale dell'insuccesso), requisiti prestazionali
(che sono quelli espressamente richiesti dal cliente e la loro presenza è auspicata
anche perché il livello di soddisfazione del cliente che potrà ricevere sarà direttamente
proporzionale al grado di presenza), infine requisito di attrattività (pur essendo
estremamente gradito dal cliente, non sono da questo espressamente richiesti, essi
rappresentano ed esercitano una grande influenza sul livello di soddisfazione e
determinano un effetto esponenziale in quanto piccoli incrementi di soddisfazione
sono in grado di generare forti aumenti della soddisfazione (Matzler, Hinterhuber,
Bailom, & Saurwein, 1997).
1.6 Dalla Customer satisfaction alla CRM
Attraverso l'adozione del marketing relazionale l'impresa si pone in una posizione
dialettica con il consumatore, al fine di accrescere il senso di appartenenza e
rafforzare il senso di fiducia di quest'ultimo verso l'organizzazione, con lo scopo di
instaurare fra le parti un rapporto stabile e duraturo, fonte di profitti ritenuti
soddisfacenti in un'ottica di medio/lungo periodo. Questo filosofia è ormai
21
ampiamente condivisa dalle imprese le quali per adottarla devono attivarsi in modo
sempre più organizzato e professionale per tener conto delle strategie poste in essere
dai competitori, dagli sviluppi delle tecnologie, da Internet; se da un lato offre grandi
opportunità dall'altro fanno emergere problematiche nuove.
E proprio tenendo conto di tutto ciò, che si è diffusa il concetto di CRM (Customer
Relationship Management). Con tale termine si intende una combinazione di persone,
processi e tecnologie che cercano di comprendere i clienti di una determinata
impresa. Si tratta di un approccio integrato di management della relazione con la
clientela che ha l'obiettivo di migliorare tali relazioni e di incidere positivamente sulla
customer retention (Chen & Popovic, 2003). Il CRM è come un complesso insieme di
competenze specialistiche ed architetturali che, sostenuto da adeguati sistemi
tecnologici e informativi, consentono di dispiegare la capacità relazionale dell'impresa
(Costabile M. , 2001).
Attuare una strategia di CRM impone infatti una ridefinizione dei processi aziendali,
con una decisa integrazione tra marketing, management, comunicazione e
information technology. Ma prima di adottare tale approccio l'impresa deve riflettere
attentamente sugli effetti (economici, organizzative, informatici, ecc.) che dallo stesso
verranno a prodursi. Il CRM del resto non è soltanto una soluzione tecnologica a
sostegno delle politiche di relazione con i propri clienti, ma un coordinato complesso
di competenze organizzative, tecnologico-informatiche e di marketing che supportano
la capacità relazionali dell'impresa (Angelini, 2011).
Una strategia, e allo stesso tempo un'attività di processo che parte dalla definizione di
un modello di vita, sulla base delle informazioni relative clienti disponibili e che oggi
possono essere particolarmente ricche e dettagliate grazie alle nuove tecnologie e
anche soprattutto alle modalità di contatto. Questo rapporto dialettico collaborativo
tra imprese e cliente è un vero e proprio processo dinamico che evolve nel tempo.
L'adozione di un processo di CRM dispiegherà i risultati migliori solo nel caso in cui la
tecnologia, e le soluzioni che la stessa mette a disposizione alle imprese, verrà
utilizzata appieno dal management permettendo di acquisire e analizzare i dati sui
consumatori, consentendo di interpretare il comportamento del consumatore e di
22
sviluppare modelli previsionali della domanda e mettere nelle condizioni di rispondere
in modo efficace, tempestivo e personalizzato alle richieste a/o necessità della
clientela. Affinché ciò sia possibile occorre tuttavia l'applicazione di tecniche
informatiche di ricezione dati (data mining), i quali devono essere opportunamente
coordinati con il sistema di dati interni dei consumatori (Pitta, 1998).
Per procedere secondo questo modalità di approccio le imprese devono procedere a
identificare: i consumatori, soprattutto quelli fedeli che costituiscono l'asset aziendale
di maggior valore; le differenza dei consumatori sulla base delle loro preferenze e
necessità al fine di trattarli in modo differenziato; interagire con i consumatori in ogni
occasione e personalizzare i prodotti/servizi. Il focus del marketing è dunque il
consumatore non più il mercato. Per far tutto ciò, uno dei metodi più evoluti
attualmente in circolazione sono senza dubbio i modelli di equazioni strutturali e per
questo dal capitolo successivo in poi si affronterà in modo molto dettagliato questa
modalità di analisi dei dati atta a identificare e misurare la soddisfazione dei clienti.
23
Capitolo 2 - Verso i Modelli di Equazioni Strutturali SEM, dagli
approcci tradizionali ai modelli di seconda generazione
Verso i Modelli di Equazioni Strutturali SEM
Prima di definire in modo dettagliato cosa sono e a cosa servono i modelli di equazioni
strutturali con l’approccio basato sui minimi quadrati parziali (Partial Least Squares
PLS) cerchiamo di delineare i fondamenti di questi modelli statistici.
2.1 Il modello statistico
In termini molto generali possiamo definire con il termine "modello" un qualcosa, cioè
un costrutto, che riproduce, di solito in scala ridotta e semplificata, le forme, le
caratteristiche di un oggetto, tangibile o meno, a scopo puramente cognitivo oppure
pratico.
Nel linguaggio scientifico per modello si intende una costruzione sistematica, anche di
origine intuitiva, con cui viene rappresentato globalmente o più spesso parzialmente
l'oggetto di una ricerca. Si tratta cioè di una rappresentazione che è in grado di
riprodurre alcune caratteristiche o comportamenti ritenuti importanti affinché questi
aspetti possono essere descritti ed analizzati.
Modellare il mondo reale è un compito fondamentale in statistica e non solo: i primi
modelli sono vecchi di millenni (pensiamo alla geometria euclidea) o di secoli (la fisica
di Galileo e Newton). I modelli sono costruiti per descrivere, comprendere, stimare,
riprodurre ed esaminare i fenomeni reali (Piccolo, 2001).
La costruzione di un modello è orientata e guidata da uno o più teorie e dalla
conoscenza di carattere empirico, cioè derivate da precedenti; il modello dovrebbe
essere costruito in modo impersonale, ovvero in modo da non essere influenzato dalle
aspettative e dall’interpretazione del ricercatore che lo costruisce.
24
Il fine ultimo di un'elaborazione sistematica di modelli è quella dell'inquadramento
teorico dei dati empirici e il controllo di ipotesi emerse nel corso della ricerca. Una
delle loro funzioni consiste nel permettere una rappresentazione, più o meno
semplice, di un fenomeno complesso, mettendo in luce la struttura e magari le cause e
le conseguenze. Il modello non coincide con la teoria, dal momento che possono darsi
più modelli di una stessa teoria, che possono corrispondere ad alternativa
interpretazione (Di Franco, 2016).
Negli ultimi decenni i modelli statistici si sono diffusi in modo rilevante in economia,
scienze sociali e nel mondo delle aziende grazie all'evoluzione tecnologica che ha
portato un incremento consistente nella capacità computazionale. Questi modelli si
presentano generalmente sotto forma di sistemi di equazioni che consentono
l'individuazione delle relazioni quantitative tra variabili concorrenti a determinare un
fenomeno; quest'impiego nella formulazione matematica e della presentazione grafica
che li caratterizza ne permettere il controllo l'empirico, che a sua volta rende possibile
la correzione e il perfezionamento.
Le variabili che vengono inserite all'interno di un modello si distinguono in endogene
ed esogene. I valori delle variabili endogene sono determinate dalle varie equazioni
strutturali che stanno alla base del modello e dalle variabili esogene, mentre i valori
delle variabili esogene non derivano dalle equazioni e non subiscono l'influenza delle
variabili endogene. In parole più semplici, le variabili esogene non sono spiegate dal
modello, ma sono assunte come date e in genere non controllabili.
Nei modelli statistici si fa ricorso a variabili stocastiche, cioè a variabili i cui valori sono
determinati dal caso, che rappresentano gli effetti erratici di fattori non sistematici.
Questi, pur avendo ciascuno un'influenza trascurabile, nell'insieme possono provocare
perturbazioni nelle relazioni da cui risultano definite le variabili endogene in funzione
delle altre variabili. Il modello include sempre un insieme incompleto di informazioni e
di ipotesi circa le equazioni strutturali e circa la distribuzione delle variabili stocastiche
(se queste entrano nelle suddette equazioni) e non costituisce che il primo passo di
un'analisi strutturale.
25
Nelle scienze sociali, ma anche nel nostro specifico caso, il riferimento ai modelli può
essere proposto nei termini e nel senso del"tipo ideale" di Weber (1922), ossia di un
costrutto mentale che risulta dall'astrazione e dalla combinazione di un numero
indefinito di elementi presunti nella realtà esaminata. Si cerca di definire un modello
che rappresenta una realtà complessa in un sistema più semplice che si presume possa
avere alcune proprietà simili a quelle che sono state scelte come oggetto di studio.
Un modello di questo genere spesso è costruito con lo scopo di fornire previsioni sullo
stato futuro di un fenomeno o di un sistema. Il modello ne descrivere le probabili
evoluzioni sulla base di dati sulle condizioni iniziali del fenomeno o del sistema fornito
dal ricercatore-operatore (input) restituendo risultati (output). L'efficacia del modello
può essere quindi valutata comparando i suoi risultati con le situazioni reali (Di Franco,
2016).
I modelli che si basano su equazioni si possono distinguere in: modelli dinamici, che
esprimono la variabilità o evoluzione nel tempo del comportamento di un sistema
fisico, e modelli statici nei quali non si considera la variabilità di un fenomeno nel
tempo. Inoltre, si distinguono modelli e modelli stocastici; modelli lineari e modelli non
lineari.
Dal punto di vista metodologico, una delle caratteristiche più importanti di questi
modelli è che non aspirano ad essere l'unica rappresentazione possibile del fenomeno
o di una classe di fenomeni che si sta indagando. Un modello non è uno specchio della
realtà e non esiste una corrispondenza biunivoca fra modelle e fenomeno: uno stesso
fenomeno può essere rappresentato da diversi modelli, ognuno dei quali è scelto da un
analista in base al livello di efficacia e di parsimonia posseduta. Inoltre, l'introduzione
della grafica nei computer, e quindi la sostituzione della rappresentazione numerica
con quella geometrica delle soluzioni dei sistemi studiati, permette una valutazione
qualitativa delle soluzioni. Infatti, l'analisi numerica non è più vista come un supporto
per lo studio delle soluzioni, ma diventa uno strumento di simulazione del
comportamento dei sistemi studiati e, di riflesso, dei sistemi reali che essi pretendono
di rappresentare. Mediante la capacità computazionale delle macchine che oggi si
26
utilizzano diventa quindi possibile simulare il comportamento di un sistema reale,
riducendo al minimo il controllo empirico diretto.
Una ulteriore classificazione dei modelli statistici è quella che individua due possibili
finalità:
1. i modelli finalizzati alla simulazione dei processi e all'analisi delle loro
dinamiche;
2. i modelli che consentono di stimare i valori di uno o più variabili sulla base dei
valori noti di un insieme di altre variabili, cui si attribuisce un ruolo predittivo.
Io mi rifarò alla seconda classe che viene definita con l'espressione "modelli di analisi
dei dati". L'iter è quello che porta per primo alla costruzione di un modello che rilevi
porzioni del mondo reale che si ritengono essere importanti; successivamente si
analizza il modello in relazione ai dati empirici opportunamente rilevati ottenendo una
riproduzione degli stessi dati in funzione dei parametri specificati nel modello
precedentemente definito.
La valutazione del modello consiste nel confronto fra i dati empirici e i cosiddetti dati
attesi o dati teorici (ossia quelli riprodotti dal modello sulla base delle stime ottenute
dall'insieme dei parametri ivi inclusi): se le differenze non sono statisticamente
significative si dice che il modello si adatta ai dati (ossia è compatibile, adeguato e
coerente con i dati empirici); viceversa, se le differenze sono statisticamente
significative, il modello deve essere modificato, in modo che riesca ad adattarsi ai dati;
se ciò non è possibile, deve essere rifiutato.
Ma un modello giudicato adatto ai dati dopo il controllo empirico può essere
considerato come vero, ossia come realmente sottostante dati empirici? La risposta
dovrebbe essere molto cauta perché è sempre possibile trovare modelli alternativi che
sono più o meno altrettanto capaci di riprodurre gli stessi dati empirici. Se il
ricercatore-analista fosse in grado di esplicitare tutti questi modelli e li potesse
confrontare fra loro, la domanda di cui sopra potrebbe trovare una risposta (Di Franco,
2016). I modelli di equazioni strutturali basati sui PLS si avvicinano molto a questa
prospettiva. Purtroppo nella maggior parte delle ricerche non si è in grado di
27
effettuare questi controlli: il più delle volte si presenta un solo modello di cui si
sostiene la veridicità sulla base di soli valori di bontà di adattamento (goodness of fit)
che presentano notevoli difetti.
2.2 Breve evoluzione storica dell'analisi multivariate: dall'analisi
fattoriale ai modelli di equazioni strutturali
Gli strumenti di analisi multivariati dei dati attualmente usati nelle scienze umane sono
il risultato di un lungo processo di evoluzione storica di accumulazione di conoscenze
che hanno interessato diverse discipline: la statistica, la matematica, la psicologia,
l’economia, la medicina, le scienze biologiche e il management (Maxwell, 1981) (Di
Franco, 2011).
Tra la fine del XIX secolo e l'inizio del XX secolo i fondamenti logici e matematici e i
principali strumenti di analisi multivariati1 erano già stati individuati, così come erano
già state posti i principi per il trattamento dei fattori latenti che sono di importanza
decisiva nella ricerca psicosociale. Poiché molte delle proprietà che sono oggetto di
studio sono variabili latenti (cioè non sono direttamente rilevabili), si deve ricorrere a
indicatori per poterle rilevare indirettamente. Con opportuni modelli di stima si passa
dalle variabili manifeste (rilevate nella massa dei dati che si analizzano) alle proprietà
latenti che si suppone siano la fonte. Di fondamentale importanza risultano a tale
scopo gli strumenti di analisi multivariati che si è soliti nominare con l'espressione
analisi fattoriale.
2.2.1 L'analisi Fattoriale
L'analisi fattoriale è quella procedura matematico-statistica che ci permette di partire
da un elevato numero di variabili e ad arrivare a ridurre le informazioni consentendo di
assumere i dati iniziali in modelli sintetici e semplici, ma capace di contenere
1l'analisi in componenti principali è stata associate a lavori pionieristici di Pearson (1901) e successivamente sviluppate e perfezionati da Hotelling (1936). Per l'analisi dei fattori il pioniere è considerato Spearman (1904).
28
comunque le informazioni di partenza. Inoltre l'analisi fattoriale consente di costruire
dei modelli teorici capaci di fornire molte informazioni circa i rapporti di causalità tra le
variabili (Giannini & Pannocchia, 2006)
Per dare un'immagine immediata della funzione dell'analisi fattoriale facciamo un
esempio molto semplice. Immaginiamo di avere una tavolozza con i tre colori primari:
rosso, giallo e blu. Mescolando tutti i colori il risultato è un certo numero di colori
secondari e terziari più elevato dei primi. Tali colori possono avere a loro volta molte
sfumature. Questo numero elevato di colori però hanno alla base soltanto i tre colori
primari utilizzati inizialmente. In questo esempio i colori primari sono le variabili latenti
e quelli secondari e terziari le variabili osservate. L'analisi fattoriale consente di risalire
ai colori primari partendo da quelli secondari e terziari osservati. Tuttavia un colore
terziario, ad esempio, può contenere più pigmenti di colore primario rispetto ad un
altro terziario: può esistere cioè una "saturazione" maggiore o minore di un certo
pigmento di colore. Questo è quello che può avvenire anche nell'analisi fattoriale.
Infatti una certa risposta potrebbe essere fortemente influenzata da un fattore latente
e molto poco o per nulla da un altro punto (Fossati, 2006).
L'analisi fattoriale quindi è un metodo di sintesi di dati che ha la finalità di individuare
costrutti latenti che non sono osservabili direttamente, ma che agiscono e giustificano
le risposte date dai soggetti in una serie di item. Si tratta quindi di una metodologia
che ha l'obiettivo di mettere in evidenza dimensioni latenti di un fenomeno che si
vuole analizzare e che agiscono su un determinato comportamento. (Barbaranelli,
2003).
L'analisi fattoriale può essere pensata in due modi: si può ragionare in una duplice
direzione dove si può partire dai dati empirici senza aver un'ipotesi del numero di
fattori latenti che sottostanno alle variabili oppure si può avere un'ipotesi su un
modello teorico di fattori latenti che si vuole confermare. Nel primo caso si parla di
"analisi fattoriale esplorativa" e nel secondo caso di "analisi fattoriale confermativa".
29
2.2.2 Analisi Fattoriale Esplorativa
L'analisi fattoriale esplorativa consente, partendo da un numero elevato di variabili, di
arrivare ad un numero ridotto di fattori. Per tornare al nostro esempio, è quel
procedimento che, a partire dai colori secondari o terziari, permette di arrivare a quelli
primari. Permette dunque di riassumere e semplificare le relazioni fra un insieme di
variabili, riducendo l'informazione attraverso l'individuazione di uno o più dimensioni
latenti. Il punto di partenza è la correlazione fra le variabili ed il punto di arrivo è la
relazione tra le variabili osservate e quelle latenti (Albano & Testa, 2002).
La base teorica dell’analisi fattoriale esplorativa è incentrata sulla costruzione della
matrice di correlazione. Successivamente si procede al calcolo delle correlazioni fra le
variabili ottenendo così una matrice variabili x variabili. È il primo elemento di cose in
comune che hanno le nostre variabili oggetto di studio. Successivamente bisogna
stabilire quanti costrutti latenti spiegano l'insieme delle variabili attraverso il metodo
numerico di estrazione dei fattori che consente di arrivare ad avere un insieme di
coefficienti che, in un certo senso, giustificano le correlazioni di partenza. Questi
coefficienti indicano la relazione tra le variabili manifeste e il costrutto latente. A
questo punto si ha un insieme di coefficienti di relazione tra le variabili e i fattori (o il
fattore) latenti. Tali coefficienti che derivano dall'estrazione dei fattori non è la
soluzione finale, perché il metodo di estrazione dei fattori è pensato in modo tale che
ciascun fattore assorba più informazione possibili dalle variabili e questo ne rende
difficile l'interpretazione in quanto, affinché la soluzione sia interpretabile, è
importante capire quali variabili pesano di più su un fattore e quali pesano di più su un
altro. Per arrivare ad un risultato di questo tipo si procede alla rotazione dei fattori,
tecnica che favorisce la leggibilità dei dati. Non si tratta di un metodo numerico ma
spaziale, in quanto la rotazione genera una soluzione matematicamente
corrispondente alla matrice non ruotata (entrambe le matrici spiegano adeguatamente
i coefficienti di correlazione), ma fa sì che ogni singola variabile correli molto con un
fattore e poco con gli altri. Questo rende ovviamente più semplice il lavoro scientifico.
A questo punto il passo successivo è l'interpretazione dei fattori (Kline, 1996) (Giannini
& Pannocchia, 2006).
30
2.2.3 Analisi Fattoriale Confermativa e il Modello Causale
L’analisi fattoriale confermativa segue una metodologia che sta agli antipodi rispetto
all'analisi fattoriale esplorativa in quanto il punto di partenza è un modello fattoriale
teorico (preesistente) che viene confrontato con la struttura emergente dai dati reali
(Pedrabissi & Santinello, 2007); essa procede da assunti definiti in base al numero di
fattori da estrarre. Si hanno quindi ipotesi sul numero dei fattori latenti e soprattutto
sulle relazioni tra fattori e sulle relazioni tra variabili e fattori. Quindi, mentre l'analisi
fattoriale esplorativa parte dai dati osservati per arrivare al modello fattoriale, nella
analisi fattoriale confermativa si opera in modo contrario. Viene formulato un modello
teorico, si simula una situazione come quella prefigurata dal modello con la
produzione di dati, successivamente viene confrontato il modello teorico con quello
osservato e infine viene valutata la discrepanza fra tali modelli (attraverso l'analisi di
una serie di indici fit). Un concetto fondamentale, quindi, che sta alla base della analisi
fattoriale confermativa è quello di causalità. È importante cioè avere un'ipotesi sulle
relazioni causali tra variabili e, dunque, sulla direzione della causalità tra le variabili, la
quale viene stabilita a partire da ipotesi di lavoro del ricercatore (Fossati, 2006).
Per "modello causale" si intende un sistema di variabili e relazioni, includendo più di
una variabile dipendente, in cui la stessa variabile può essere sia dipendente che
indipendente in relazioni diverse. In base a ciò viene definito il modello teorico che si
vuole analizzare. Il contesto teorico in cui si sviluppa l'analisi fattoriale confermativa
può essere riconducibile al modello di equazioni strutturali (SEM) con variabili latenti
(riconducibile a Jöreskog), inteso come un modello stocastico dove ciascuna equazione
indica un legame causale e non una semplice relazione empirica (Lubisco, 2006).
I modelli di equazioni strutturali permettono di esprimere in maniera semplificata e
formalizzata le relazioni tra i costrutti considerati in una determinata teoria (o in parti
di essa) e ne consentono l'esame empirico (Barbaranelli, 2003). Dunque attraverso i
modelli di equazioni strutturali è possibile stabilire i rapporti causali e la loro direzione.
Trattandosi di analisi della causalità, il punto di partenza è l'equazione di regressione e
cioè Y = a + bX, dove Y è la variabile dipendente i cui valori si suppongono causati dai
valori assunti dalla variabile X. Tuttavia l'equazione di regressione da sola non basta a
31
spiegare un insieme di nessi causali di tipo complesso; è infatti necessario tenere conto
anche dei rapporti di causalità che sussistono non solo fra la variabile (o variabili nel
caso della regressione multipla) indipendente e la variabile dipendente ma anche fra le
molteplici variabili indipendenti che agiscono sulla dipendente. Il modello di
regressione è quindi più povero del modello SEM, perché ci dice solo che una variabile
dipendente può dipendere da una o più variabili indipendenti ma non genera alcuna
ipotesi in merito ai possibili nessi causali fra le variabili indipendenti stesse. L'approccio
SEM dunque si rivela adatto a fornire spiegazioni circa i rapporti di causalità sia in
termini di molteplicità delle cause che agiscono su una variabile dipendente sia in
termini di connessioni fra le diverse cause (Lubisco, 2006).
2.2.4 Dall’Analisi fattoriale e Path Analysis alla SEM
L'analisi fattoriale in questione si basa sul concetto di relazione indiretta o relazione
spuria. L'idea di base è che, in un mondo rappresento da sistemi di equazioni di tipo
lineare, la correlazione tra due variabili possa essere dovuta non già all'effetto di una di
essa sull'altra bensì dall'intervento di una o più variabili ulteriori, casualmente o
logicamente antecedenti alle prime due. In termini statistici queste ipotesi equivale ad
affermare che il coefficiente di correlazione fra due variabili è diverso da zero, ma sia
nulla quando si introducono uno o più variabili di controllo (Riconfi, 1993).
Il principio della relazione spuria2, proprio dell'impostazione metodologica dell'analisi
fattoriale e di molti altri strumenti di analisi multivariati - l'analisi della struttura
latente, i modelli di analisi casuale e la path analysis - è stato da tempo accolto nelle
ricerche sociologiche già a partire dal 1896 dagli studi di Durkheim sul suicidio. In
seguito è stato formalizzato e reso canonico da Lazarsfeld a metà degli anni 50 del XX
secolo.
L'analisi fattoriale sin dalla sua nascita è stata sottoposta a numerose critiche, da parte
di statistici e da altri esperti. Queste obiezioni si basano e si possono sintetizzare con 2 Una con relazione spuria sia quando la correlazione tra due variabili si annulla allorché si introducono uno o più nuove variabili del modello. All'opposto la correlazione soppressa stipata quando un'assenza di correlazioni tra due variabili si trasforma in una correlazione introducendo una o più altre variabili del modello.
32
l'espressione "il problema dell'indeterminazione dell'analisi fattoriale" il quale si basa
sui seguenti problemi:
1. esistono infinite soluzioni matematicamente equivalenti, dovute sia alla
necessità di dover stimare le comunalità iniziali delle variabili, sia alla necessità
di dover ruotare la soluzione ottenuta;
2. non c'è accordo fra gli esperti su quali e quanti sono i fattori più importanti in
un determinato campo di applicazione;
3. ci sono tecniche diverse di estrazione dei fattori che producono risultati diversi.
Per questa ragione molti ricercatori ritenevano che l'analisi fattoriale non fosse una
procedura scientifica, ma grazie al contributo di Jöreskog, nel 1967, buona parte di
questi problemi hanno trovato una soluzione. Lo svedese fuse in un'unico approccio
l'analisi fattoriale confermativa, la tradizione psicometrica della scala di rilevazione e la
definizione di concetti come attendibilità e validità che più avanti affronteremo (Di
Franco, 2016).
Alla fine degli anni 30 del XX secolo furono introdotti modelli basati su sistemi di
equazioni simultanee che saranno in seguito chiamati modelli di equazioni strutturali
(Goldberger, 1968). Questi modelli si basano su un sistema di regressioni in termini
strutturali, nel senso che danno un'interpretazione dei coefficienti che non è
semplicemente finalizzata alla previsione delle variabili dipendenti, ma si pretende che
siano effetti strutturali. Il passaggio dalle semplici equazioni di regressione multipla ai
sistemi di equazioni strutturali fa sì che le variabili siano distinte in esogene (che non
dipendono da nessun'altra variabile presente nel sistema) e endogene (che invece
dipendono da almeno una variabile inserita nel sistema). In equazioni diverse una
stessa variabile endogena può essere dipendente rispetto ad un'altra variabile
(esogeno o endogena) e indipendente rispetto ad una diversa variabile endogena.
Tutto questo meccanismo è confluito nei modelli di equazioni strutturali SEM.
Un ulteriore passo avanti si è avuto nel 1934 grazie al biometrico Wright che
introdusse i modelli di Path Analysis. Questi modelli costituiscono una versione più
sofisticata dei modelli ricorsivi. L'innovazione di questo modello di analisi multivariati
consiste nell'inserimento di path coefficients nel grafico che rappresenta il modello
33
(sostanzialmente si tratta dei coefficienti di regressione multipla). Essi sono ottenuti
mediante la scomposizione del coefficiente di correlazione in due componenti di
natura simmetrica, il primo dei quali stima l'effetto diretto ed il secondo stima l'effetto
indiretto della variabile indipendente sulla dipendente in un dato sistema. Questi
modelli costituiscono un ampliamento dell'analisi delle regressioni multiple e la
differenza sostanziale tra un modello di regressione multipla e un modello di equazioni
simultanee consiste proprio nella possibilità in quest'ultimo di valutare le relazioni
intermedie tra le variabili indipendenti e di conseguenza di definire, in diversa
equazioni, diverse variabili dipendenti. Per ottenere una relazione più sofisticata del
sistema di relazioni fra le variabili individuate, occorre specificare un modello globale
dei rapporti di influenza tra le variabili del sistema, che richiede tante equazioni
quanto sono le variabili dipendenti da altre nel sistema stesso. Questo genere di
modelli chiamato strutturale consente di analizzare quali effetti avrebbe un
mutamento della struttura del sistema su altre sue caratteristiche. Questa famiglia di
modelli - strutturali - sono definiti ricorsivi in quanto le variabili del sistema possono
essere organizzate secondo un ordine unidirezionale a partire da una certa variabile X,
determinata da fattori esterni al sistema (esogeno) e quindi indipendente dalle altre
variabili presenti nel sistema (endogena). In sintesi, l'architettura dei modelli consiste
nella cancellazione da tutte le relazioni possibili quelle che secondo la teoria che
informano il modello non esistono, per poi controllare se le relazioni ipoteticamente
cancellate sono effettivamente nulle o tutt'al più deboli nei dati. Questa è la ragione
per cui in un modello si valuta la bontà dell'adattamento (goodness of fit) rispetto ai
dati di cui deve rendere conto. Si possono costruire molti modelli alternativi
aggiungendo o togliendo legami fra le variabili; tuttavia senza una buona informazione
esterna e qualitativa (cioè teorica) sulle variabili (cioè senza una sufficiente numero di
vincoli teorici) la loro organizzazione un modello può essere un vuoto esercizio che
solleva più problemi di interpretazione di quanti ne risolva (Di Franco, 2016).
34
2.3 Differenti approcci ai SEM
Attraverso l'utilizzo dei modelli di equazioni strutturali, ad esempio nelle ricerche di
marketing, è possibile esaminare visivamente, attraverso una modellistica grafica, le
relazioni che esistono tra le diverse variabili prese in esame al fine di privilegiare quelle
risorse (combinazione di dati correlati) che meglio possono farci comprendere il
fenomeno analizzato o le relazioni che esistono ad esempio tra un servizio che si offre
preso in esame ed i propri clienti. Attraverso la SEM è possibile misurare le variabili
non osservabili cioè latenti, ed è questa tipologia di utilizzo dei dati che rende ideale
questa metodologia per affrontare problematiche di ricerca nelle aziende.
Esistono diversi modelli di equazioni strutturali, noi per comodità le distinguiamo in
quattro differenti approcci applicativi: il primo approccio (Jöreskog), è basato sulla
covarianza spesso identificata con la sigla CB-SEM, i principali software che vengono
utilizzati sono AMOS, EQS, LISREL e MPlus. Il secondo approccio (Wold 1982, Lohmöller
1989, Fornell 1982) è quello basato sui minimi quadrati parziali PLS-SEM, che si
concentra sull'analisi della varianza e può essere eseguito utilizzando software quali
PLS-Graph, VisualPLS, SmartPLS, WarpPLS ed "R". Il terzo approccio (Hwang e Takane
2011) è basato su componenti conosciuti cioè su un'analisi della struttura dei
componenti generalizzati GSCA, e può avvenire attraverso l'utilizzo del software
VisualGSCA o un'applicazione web-based chiamata GeSCA. L'ultimo approccio per
eseguire modelli di equazioni strutturali è basato su modelli di relazioni strutturali non
lineari universali NEUSREL, che utilizzano come pacchetto software NEUSREL's Analysis
(Wong K. K., 2013).Di fronte a questi vari approcci alla modellazione di tipo percorso
(Path-Modelling), si devono prendere in considerazione i loro vantaggi e svantaggi in
modo tale da utilizzare l'approccio che soddisfi al meglio l'analisi che vogliamo
intraprendere.
Entrando più nello specifico, il modello applicativo basato sulla covarianza, CB-SEM, è
quello più ampiamente applicato nel campo delle scienze sociali negli ultimi decenni,
ed è anche il modello di analisi dei dati oggi preferito per confermare o respingere le
teorie attraverso test basati su ipotesi, in particolare quando la dimensione del
campione è grande, i dati sono distribuiti normalmente e soprattutto quando il
35
modello è specificato correttamente. Cioè le variabili appropriate sono scelte e
collegate insieme in un processo di conversione di una teoria in un modello di
equazioni strutturali (Hair, Ringle, & Sarstedt, 2011). Nella realtà è spesso difficile
trovare un set di dati che soddisfi questi requisiti. Inoltre, l'obiettivo della ricerca può
essere di tipo esplorativo in cui sappiamo poco delle relazioni che esistono tra le
variabili.
Un altro modello applicativo che ha preso piede negli ultimi anni nell'elaborazione di
modelli di equazioni strutturali è quello basato sui minimi quadrati parziali, PLS-SEM,
che è stato definito come l'approccio di modellazione morbido al SEM che si
differenzia dagli altri dall'assenza delle ipotesi circa la distribuzione dei dati (Vinzi,
Trinchera, & Amato, 2010).
PLS-SEM diventa una buona alternativa al CB-SEM quando si verificano le seguenti
situazioni (Bacon, 1999) (Wong K. K., 2013):
1. la dimensione del campione è piccola;
2. Le domande hanno poca teoria disponibile;
3. la precisione predittiva è di primaria importanza;
4. non può essere garantita la specificazione del modello corretto.
PLS-SEM è un utilissimo modello di equazioni strutturali per progetti di ricerca
applicata soprattutto quando ci sono una limitata conoscenza di base teorica, e si
vuole intraprendere un percorso di tipo esplorativo (Wong, Vinzi, & Chin, 2011).
Questa metodologia è sempre più utilizzata nella scienza del comportamento, nel
marketing, nelle organizzazioni complesse, nella gestione delle informazioni
sistematiche e nelle strategie di business (Hulland, 1999).
Se dobbiamo misurare modelli di forma molto complessa, oppure progetti in cui
esistono variabili latenti non lineari, la GSCA può essere una scelta migliore rispetto a
PLS per l'esecuzione di modelli di equazioni strutturali (Hwang, Malhotra, Kim, &
Tomiuk, 2010).
36
Invece per un insieme di dati che dimostrano non linearità significativa egli effetti di
modellazione tra variabili l'approccio più adeguato è il NEUSREL (Frank & Hennig-
Thurau, 2008).
2.4 Origini ed Evoluzioni del "Partial Least Squares PLS"
In questa parte farò un breve excursus storico per definire l'origine di metodi PLS e
risalire all'ideatore di tale metodologia. Una breve menzione deve essere fatta al
creatore dei metodi PLS, Herman Ole Andreas Wold che nel corso della sua carriera
professionale insieme al suo allievo Karl Joreskog hanno sviluppato negli anni questa
tecnica.
Il professor Hermann Wold è nato il 25 dicembre 1908 a Skien, Norvegia; il più giovane
di una famiglia di sei fratelli e sorelle. Nel 1912, i suoi genitori migrano in Svezia; e fu lì
che ha ricevuto la sua formazione scolastica, prima di diventare uno studente presso
l'Università di Stoccolma. Nel 1938 conseguì il titolo di dottorato in statistica sotto la
supervisione di Harald Cramer.
Dopo un paio di anni a Stoccolma, Wold è diventato il primo il professor di statistica
all'Università di Uppsala nel 1942, dove rimase fino al 1970. Si trasferì poi a Goteborg
come statistica fino al 1975, quando si trasferì di nuovo a Uppsala dove proseguì la sua
carriera fino alla morte avvenuta il 16 febbraio del 1992. Fu un illustre rappresentante
mondiale nel campo della statistica.
Hermann Wold, nella sua lunga carriera professionale ha lavorato su modelli
econometrici relativi a metodi di stima e a sistemi di equazioni simultanee. A
differenza dei suoi colleghi contemporanei, ha sempre preferito utilizzare metodi
basati sui minimi quadrati, piuttosto che sulla massima verosimiglianza. Egli ha
studiato diverse tecniche di stima utilizzando procedure interattive da cui ha
sviluppato un modello speciale. Questo metodo utilizza un algoritmo iterativo basato
su minimi quadrati ordinari OLS per stimare i coefficienti di un sistema di equazioni
simultanee (Morales, 2010).
37
Come promesso da lui stesso in diverse interviste nel 1964 durante un forte dibattito
con un collega durante una conferenza sul metodo Fixed-Point all'Università del North
Caroline, Wold ha deciso di modificare il suo algoritmo e di estenderlo per
comprendere anche l'analisi dei componenti principali. Queste modifiche sono state
presentate due anni dopo: da questa data possiamo dare origine all'approccio PLS
come oggi lo conosciamo. Durante il 1966 Wold presentò due procedure interattive
basate sui PLS.
Ma solo nel 1973 Hermann Wold dimostrò in modo analitico, attraverso il Non-linear
Iterative Partial Least Squares (NIPALS) Modeling, come calcolare le componenti
principali con una sequenza interattiva di semplici repressioni utilizzando il metodo dei
minimi quadrati ordinari OLS e come calcolare le correlazioni con una sequenza
interattiva di regressioni multiple utilizzando OLS (Morales, 2010). Infine nel 1977,
Hermann Wold introdussero all'algoritmo iterativo le procedure per includere le
variabili latenti.
Come abbiamo visto, nel corso della sua carriera Hermann Wold sviluppò due
metodologie basate sui PLS. Il primo modello applicativo è chiamato PLS Regression
PLS-R, invece il secondo che è stato parallelamente sviluppato è il PLS-SEM chiamato
anche PLS-Pach Modeling, quello che a noi interessa.
2.5 PLS Regression vs PLS-SEM
Esiste una grande confusione quando si parla di PLS,ed è per questo motivo che questi
due approcci saranno esaminati brevemente, per capire il loro rapporto, le loro
differenze e le loro somiglianze.
La PLS Regression è nata in alternativa ai modelli di regressione dei componenti
principali PCR, e come questa ha lo scopo di eliminare il problema della
multicollinearità. Si ha un problema di multicollinearità quando c'è un'elevata
correlazione tra due o più variabili e questo può causare difficoltà di interpretazione.
Quando appare questo problema, la soluzione più diretta è ridurre il numero delle
variabili esplicative e la domanda da porsi immediatamente è come effettuare tale
38
riduzione. La risposta più semplice è quella di trovare un insieme di nuove variabili
create attraverso combinazioni lineari di quelle originali, in modo tale da ridurrela
multicollinearità. L'applicazione delle componenti principali è stato ampiamente
utilizzato per questo scopo e fino a poco tempo fa era un punto di riferimento tra le
tecniche di riduzione della dimensione delle variabili prese in considerazione. Questa
applicazione è solitamente indicata come Regressione delle componenti principali PCR.
Il problema legato a questa metodologia è la modalità di scelta del sottoinsieme
ottimale delle variabili indipendenti, appunto le componenti principali. PLS Regression
trova la migliore combinazione di componenti (cioè le migliori combinazioni di variabili
X) attraverso una successione di regressioni. In altre parole questo metodo calcolale
variabili latenti in modo tale da cogliere la maggior parte della variazione delle variabili
osservabili. Tuttavia la PLS Regression - diversamente dalla PCR - riduce la
dimensionalità delle variabili osservabili X tenendo anche in considerazione le relazioni
che esistono tra le variabili indipendenti X e la variabile dipendente Y.
In parallelo al PLS Regression si è sviluppato un altro ramo del modello PLS utilizzato
nei modelli di equazioni strutturali, spesso chiamato PLS Path Modeling. Ed è stato lo
stesso Hermann Wold a proporre modelli di equazioni strutturali basate sui PLS come
alternativa al modello di Jöreskog (modellazione dura) basato sulla covarianza. Questo
modello è stato presentato al pubblico per la prima volta nel 1982 dallo stesso
Hermann Wold che lo presentò come il modello "morbido"alla SEM.
PLS Path Modeling è l'approccio PLS per i modelli di equazioni strutturali, utilizzato per
la stima dei coefficienti di un sistema di equazioni strutturali con il metodo dei minimi
quadrati parziali con risultati affidabili come le tecniche utilizzate sulla struttura della
varianza ma con meno restrizioni sulla distribuzione dei dati e sulla dimensione del
campione. Queste equazioni strutturali funzionano come equazione di regressione che
hanno come obiettivo principale la stima dei coefficienti di esse. Questo modello di
equazioni strutturali combina l'analisi fattoriale con l'analisi di percorso. L'analisi
fattoriale conduce a quello che oggi viene chiamato il modello di misurazione e l'analisi
del percorso si riferisce al modello strutturale ma questo lo vedremo più avanti con
un’analisi molto dettagliata (Morales, 2010).
39
Gli approcci alla SEM, SEM Covariance based e PLS-SEM sono stati sviluppati
praticamente allo stesso tempo ma hanno avuto un'evoluzione tutt'altro che parallela.
La principale ragione per questa divergenza tra le due tecniche è fortemente correlata
alla disponibilità di software. Infatti sin dei primi anni del 1970 con il programma
LISREL si è riusciti ad affronta l'analisi della struttura dell'equazioni basato sulla
covarianza. Invece non si è riusciti a sfruttare immediatamente la tecnica PLS per una
carenza di sviluppo di software che riuscisse a elaborare questa tipologia di analisi.
Soltanto nel 1984 con il software di Lohmoller dal nome LVPLS ver1.6 si riusciti a
sfruttare questa tecnica.
40
41
Cap. 3 - I Modelli di Equazioni Strutturali
Le statistiche descrittive e l’applicazione di tecniche di analisi multivariate dei dati quali
l’analisi di regressione e l’analisi fattoriale, che nel capitolo precedente abbiamo
delineato, appartengono al nucleo di strumenti statistici di prima generazione, che si
sono sviluppati e adottati dall’inizio del secolo e sono ancora oggi fortemente in uso,
che ha generato risultati che hanno plasmato il modo in cui vediamo il mondo. I
modelli di equazioni strutturali SEM sono una delle tecniche di analisi statistica più
avanzata ed utile nello studio delle scienze sociali e nel marketing. I SEM sono una
classe di tecniche multivariate che combinano gli aspetti di analisi fattoriale e di
regressione, consentendo all’analista-ricercatore di esaminare contemporaneamente
relazioni tra variabili manifeste e variabili latenti. Considerando la crescente
importanza di comprendere fenomeni latenti come la percezione dei consumatori-
utenti (nel caso che andremo analizzare gli studenti dell'Università di Gazi di Ankara, in
Turchia), o le interazioni e la loro influenza sulle misure di performance organizzative,
non è sorprendente che la SEM è diventata negli ultimi anni una delle tecniche di
analisi statistica di primaria importanza (Hair, Hult, Ringle, & Sarstedt, 2014).
3.1 Cosa sono i Modelli di Equazioni Strutturali
L’analisi statistica è ormai diventato uno strumento essenziale per analizzare fenomeni
sociali. Se nel recente passato le ricerche si basavano essenzialmente su un analisi di
tipo univariata o al massimo bivariata per comprendere i dati e le relazioni, con
l’evolversi di nuovi strumenti informatici sempre più user-friendly si riesce a
comprendere, con determinate tecniche, i rapporti più complessi associati alle ricerche
in corso nel campo sociale ed è possibile oggi andare ad indagare e comprendere
modelli reazionari molto complessi tra variabili applicando sofisticati metodi di analisi
multivariata dei dati.
L’analisi multivariata comporta l’applicazione di metodi statistici che analizzano
contemporaneamente più variabili. Le variabili rappresentano misurazioni associate a
individui, aziende, eventi, attività, situazioni, e così via. Queste misurazioni sono spesso
42
ottenute da indagini o osservazioni che vengono utilizzati per raccogliere dati primari,
ma possono anche essere ottenuti da database comprensivi di dati secondari. Nella
tabella sottostante mostriamo alcuni tipi di metodi statistici connessi all’analisi dei dati
multivariati.
Tabella 1 - Organizzazione di Metodi di Analisi Multivariata
Analisi Esplorativa Analisi Confermativa
Tecniche di Prima Generazione
• Cluster Analysis
• Analisi Fattoriale Esplorativa
• MultidimensionalScaling
• Analisi della varianza
• Modelli di regressione
Tecniche di Seconda Generazione
• PLS-SEM • CB-SEM
• Analisi Fattoriale Confermativa
Le tecniche di prima generazione come la regressione multipla, la regressione logistica,
l’analisi della varianza, ma anche l’analisi fattoriale esplorativa, l’analisi dei cluster e la
multidimensional scaling, sono molto utilizzate nel campo sociale. Quando vengono
applicate ad un problema di ricerca, essi possono essere utilizzati come strumenti di
conferma di teorie o per identificare dei modelli delle relazioni esistenti nei dati.
Esse possono raggiungere un doppio obiettivo, in quanto possono essere utilizzate per
confermare ipotesi di teorie o concetti già esistenti oppure possono essere utilizzati
per effettuare un’analisi esplorativa quando si cerca di costruire modelli con una
conoscenza parziale sulle variabili correlate. La distinzione tra confermativa e
esplorativa non è mai netta. Ad esempio l’analisi di regressione ha come obiettivo di
testare teorie e concetti. Tuttavia, la tecnica può anche essere utilizzata per esplorare
variabili indipendenti che possono rilevarsi preziose per estendere l’analisi del
fenomeno che si vuole indagare. I risultati in genere si concentrano su identificare quei
perditori (da variabili dipendenti) statisticamente significativi che confermano il
legame con la variabile indipendente che si sta analizzando. In modo simile fa l’analisi
fattoriale che cerca relazioni tra le variabili nel tentativo di ridurre un gran numero di
variabili in un insieme ridotto di fattori composti (Mooi & Sarstedt, 2011).
Queste tecniche di prima generazione sono state fortemente utilizzate, ma negli ultimi
anni nuovi tecniche più sofisticate come la SEM sono entrate nell'utilizzo abituale, per
43
comprendere variabili non osservabili misurate indirettamente da variabili indicatori
(Chin, 1998).
3.2 Considerazioni basilari per i modelli di equazioni strutturali
Indipendentemente dal fatto che un ricercatore stia utilizzando metodi di prima o di
seconda generazione, nell'analisi multivariata è necessario fare alcune considerazioni
su cinque concetti di portata generale: la variante, la misurazione, la scala di misura, la
codifica e la distribuzione dei dati.
La variabile è l'elemento indispensabile nell'analisi multivariata, essa è una
combinazione lineare delle diversi elementi che vengono scelte sulla base del
problema che si vuole analizzare. Rappresenta l'aspetto generalizzato di una variabile
casuale. La formula matematica per misurare il valore della variabile ad esempio con
cinque valori è:
Variate Value = X1w1 + X2w2 +.... + X5w5,
dove la X rappresenta le singole variabili e la W rappresentano i pesi. Tutte le variabili
X (ad esempio, le domande di un questionario) hanno risposte da molti intervistati che
possono essere organizzati in una matrice di dati. Il valore della variabile viene
calcolato per ciascuno dei partecipanti del campione.
La misurazione è un concetto fondamentale nella produzione di una ricerca nelle
scienze sociali. Nella statistica e nella misurazione dei dati si richiede l'assegnazione ad
una variabile di un insieme di regole. Queste regole vengono utilizzate per assegnare
dei numeri alle variabili in modo tale che rappresentino in modo adeguato il fenomeno
che si vuole osservare. Con alcune variabili, le regole sono facili da applicare (genere,
altezza) e altre più difficili (scienze sociali), qui si usano scale standard (vedi sotto) ma
meno precise e per compensare la minor precisione si misura un insieme di indicatori.
Infatti cosa succede se la variabile è la soddisfazione o la fiducia? La misurazione di
questa situazione è molto difficile perché il fenomeno che dovrebbe essere misurato è
un concetto molto astratto, complesso e non direttamente osservabile. Quando i
44
concetti sono difficili da misurare, un approccio molto utile è quello di misurarlo
indirettamente con un insieme di indicatori che servono come variabili proxy3 (Hair,
Wolfinbarger Celsi, Money, Samouel, & Page, 2011). Ogni elemento rappresenta un
singolo aspetto separato da un concetto astratto più ampio. Per rendere più semplice il
concetto facciamo un esempio relativo alla soddisfazione di un ristorante. Le diverse
variabile proxy che possono essere utilizzate sono le seguenti:
• il sapore del cibo era squisito,
• La rapidità del servizio ha soddisfatto le mie aspettative,
• i camerieri erano ben informati sulle voci del menù,
• la musica di sottofondo era piacevole,
• il pasto aveva un buon rapporto qualità-prezzo.
Grazie alla combinazione di questi diversi elementi siamo in grado di misurare
indirettamente il concetto generale di soddisfazione del ristorante. Le diverse misure
sono combinate per formare un unico punteggio complessivo (cioè, il punteggio della
variate). In alcuni casi, il punteggio è una semplice somma. In altri casi, il punteggio
delle singole misure viene combinato per formare un punteggio composito utilizzando
un processo di ponderazione lineare per le diverse misure singole. La logica di utilizzo
di diverse variabili individuali per misurare un concetto astratto è che la misura sarà
molto più precisa rispetto ad utilizzare un'unica variabile. Questo comporta una
maggiore accuratezza in quanto diversi elementi misurano un singolo concetto ed è
molto più probabile che si riescono a toccare diversi aspetti del fenomeno che si sta
provando ad indagare. Questo sicuramente comporta una riduzione di eventuali errori
nell'analisi del fenomeno (Hair, Hult, Ringle, & Sarstedt, 2014).
La scala di misura invece è quello strumento che ci permette di attribuire un valore,
cioè un numero, predeterminato che può essere utilizzato per ottenere una risposta ad
una domanda. Esistono quattro tipi di scale di misurazione, ognuna delle quali
rappresenta un diverso livello di misurazione ed esse sono: nominale, ordinale,
intervallo, e di rapporto. Non ci addentriamo nel definirle singolarmente in quanto non
3 La variabile proxy (o anche "surrogata") si utilizza per dare una rappresentazione quantitativa approssimata di un fenomeno correlato alla variabile, ma non direttamente misurabile in maniera più oggettiva.
45
è una priorità per il nostro elaborato, ma è molto importante quando parliamo di SEM
il concetto di equidistanza, che successivamente verrà analizzato. La scala che spesso
viene utilizzata nell'osservazione di fenomeni sociali è quella di Likert.
La codifica non è altro che l'assegnazione di un numero per ogni singola categoria in
modo da facilitare la misurazione. Il Coding è molto importante per l'applicazione di
analisi multivariata perché determina quando e come possono essere utilizzate i vari
tipi di scala. Quando si usa una scala ordinale - come quella di Likert, molto comune nel
contesto SEM - gli analisti-ricercatori devono prestare particolare attenzione alla
codifica in quanto devono soddisfare i requisiti di equidistanza. Ad esempio, quando si
vuol utilizzare una scala Likert a cinque punti, molto tipica, dove con (1) si indica
fortemente in disaccordo, con (2) in disaccordo, con (3) ne’d’accordo ne’ disaccordo,
con (4) d'accordo, e con (5) fortemente d'accordo, la deduzione è che la distanza tra la
categoria 1 e 2 è la stessa che tra la categoria 3 e 4.
Molte tecniche di analisi statistica richiedono che la distribuzione dei dati assuma la
forma simmetrica a campana della distribuzione normale. Per quanto riguarda i SEM le
distribuzioni normali sono in genere necessarie per i modelli di equazioni strutturali
basato sulla covarianza. Al contrario nei PLS-SEM non si richiede alcuna ipotesi circa la
distribuzione dei dati. Tuttavia, per ragioni che vedremo nel paragrafo successivo, vale
la pena prendere in considerazione la distribuzione quando si parla dei modelli di
equazioni strutturali (Mooi & Sarstedt, 2011).
3.3 I PLS-SEM
I modelli di equazioni strutturali sono "metodi per la modellazione di fenomeni che
possono essere utilizzati per definire sistemi integrati molto complessi" (Jakobowicz,
2007), rispetto ai modelli di prima generazione essi forniscono una maggiore flessibilità
nel modo in cui i dati possono essere utilizzati per valutare teorie (Chin, 1998), in
quanto consente ai ricercatori di introdurre delle variabili latenti per specificare la
natura delle relazioni tra queste variabili e le loro misure, per determinare la tipologia
46
di rapporto tra le variabili e analizzare le inferenze casuali tra i diversi gruppi di variabili
esplicative spiegate dalle variabili prese in considerazione (Croutsche J. J., 2002).
L'approccio PLS ai modelli di equazioni strutturali è fortemente adatto per
un'applicazione di analisi di tipo predittive. Questo approccio è stato sin dalle sue
origini presentato come un modello di analisi casuale predittivo di situazioni molto
complesse per i quali non vi è una forte teoria del modello di indagine (Jöreskog &
Wold, 1982).
L'approccio PLS è un metodo iterativo di tipo non lineare, in cui vengono utilizzati
minimi quadrati parziali (PLS) per ridurre al minimo la varianza tra le variabili teoriche e
quelle osservate sotto un determinato vincolo. Inoltre può essere utilizzato per
modellare le relazioni non ricorsive tramite un processo di stima in cui le variabili
latenti sono regressive (Croutsche J. J., 2009).
I PLS-SEM sono anche chiamati Modelli Percorso (Path Models) quando vengono
applicati ai SEM. Per far chiarezza i modelli Percorso sono diagrammi utilizzati per
visualizzare visivamente le ipotesi e le relazioni fra variabili (Hair, Wolfinbarger Celsi,
Money, Samouel, & Page, 2011). Il grafico sottostante mostra l'aspetto strutturale dei
modelli di equazioni strutturali attraverso un approccio grafico.
Figura 1 - Esempio Grafico di SEM
I costrutti e le variabili latenti (vale a dire, le variabili che non sono misurati
direttamente) sono rappresentati nel grafico come ovali. Gli indicatori, chiamati anche
variabili manifesta, sono le variabili proxy che contengono dati grezzi, e sono
rappresentati come rettangoli. I rapporti fra i costrutti e i loro indicatori sono mostrati
graficamente attraverso frecce. In questa tipologia di modelli strutturali, le frecce sono
47
sempre a testa singola, rappresentando cioè solo rapporti monodirezionali. Le frecce a
testa singola rappresentano relazioni causali.
Il PLS si basa su due componenti. Il primo componente è il modello strutturale,
generalmente indicato come modello interno, che mostra le relazioni tra i costrutti,
cioè le relazioni esistenti tra gli ovali. Da sottolineare che nei SEM non possono esistere
relazioni di tipo ricorsivo, vale a dire che le frecce non possono formare cicli, ovvero i
percorsi tra i costruttivi possono andare in un'unica direzione. Nel modello strutturale,
si distingue tra costruttivi endogeni ed esogene. Il termine esogeno è usato per
descrivere costruiti latenti che non hanno nessuna freccia (vedi figura sopra). Invece il
termine endogeno è usato per descrivere costruiti latenti che vengono spiegati nel
modello. La seconda componente del modello costituisce il modello di misurazione,
noto anche come modello esterno. Il modello di misurazione comprende le relazioni
predittive unidirezionali tra ogni costrutto latente e i suoi indicatori associati (Hair,
Ringle, & Sarstedt, 2011). I rapporti multipli non sono consentiti, quindi a ogni
indicatore è associato ad un unico costrutto latente.
Nel modello di misurazione ci sono due modi per descrivere la relazione tra le variabili
latenti e le manifeste. Un approccio è denominato come misurazione riflessiva, e l'altro
come misurazione formativa. Nel grafico precedente i costrutti Y1 e Y2 sono basati su
un modello di misurazione tipo formativo: le frecce puntano dagli indicatori al
costrutto(x1 a x3 per Y1 e x4 a x6 per Y2), questo indica un rapporto casuale, come nella
regressione. Al contrario i costruttivi Y3 e Y4 si basano su modelli di misurazione di tipo
riflettente:le frecce vanno dal costrutto verso gli indicatori, a indicare l'ipotesi che il
costrutto provoca la misurazione delle variabili indicatore, come nell'analisi fattoriale.
Come accennato precedentemente esiste un termine di errore associato gli indicatori
solo nelle misure di tipo formativo e non in quelle riflettenti (Diamantopoulos &
Riefler, 2011). L'approccio della costruzione dei modelli di misurazione (vale a dire,
formativo vs riflettente e multi-items vs single items) è un elemento molto importante
nello sviluppo di modelli di percorso, è proprio per questo si approfondirà
successivamente l'argomento.
48
Quando vengono sviluppati modelli di percorso, la sequenza da rispettare è da sinistra
a destra. Le variabili sul lato sinistro del modello percorso sono variabili indipendenti,
qualsiasi variabile sul lato destro invece rispecchia variabili dipendenti. Quando le
variabili latenti sono indipendenti, vengono chiamate variabili latenti esogeno (Y1 e Y2),
invece quando le variabili latenti sono dipendenti (Y4) oppure sono sia indipendenti
che dipendenti (Y3) vengono chiamate variabili latenti endogeno. Qualsiasi variabile
latente a cui viene puntata un'unità freccia che andrà al di fuori di esse è una variabile
latente esogeno. Al contrario, le variabili latenti endogene possono avere sia frecce a
testa singola che possono indicare la direzione sia dentro e fuori di loro (Y3) o
solamente verso di loro (Y4) (Hair, Hult, Ringle, & Sarstedt, 2014).
3.4 CB-SEM vs PLS-SEM
Nel capitolo precedente ci siamo soffermati sui diversi approcci che si possono
utilizzare per i modelli di equazioni strutturali. In questo paragrafo faremo un focus
dettagliato sulle due principali tecniche che vengono utilizzate per affrontare l'analisi
di fenomeni sociali attraverso modelli di equazioni strutturali.
La tecniche dei modelli di equazioni strutturale sicuramente più utilizzata, si basa sul
metodo che misura la massima verosimiglianza e viene utilizzata per modellare la
matrice delle covarianza4 tra le variabili osservate; essa viene spesso identificata col
nome LISREL (relazione strutturale lineare) e comunque non è altro che la costruzione
di modelli di equazioni strutturali basati sulla covarianza da qui la sigla CB-SEM. Al
contrario, l'approccio PLS ai SEM è utilizzato per modellare i dati direttamente tramite
una successione di regressioni semplici o multiple basati sui minimi quadrati ordinari
(Tenenhaus, 1999).
Ognuno dei due modelli è appropriato per contesti di ricerca diversi, e per questo
analizziamo le differenze al fine di applicare il modello più appropriato. Per rispondere
alla domanda quando usare i CB-SEM o i PLS-SEM dobbiamo concentrarci sulle
caratteristiche e sugli obiettivi che contraddistinguono i due metodi. In situazioni in cui
4 La covarianza misura quanto le variabili variano assieme, ovvero misura il loro grado di associazione.
49
la teoria è meno sviluppata, si deve prendere in considerazione l'uso dei PLS come
approccio alternativo CB. Ciò è vero se l'obiettivo primario è quello di costruire un
modello strutturale di tipo previsionale. Infatti i PLS-SEM utilizzano i dati disponibili per
stimare i rapporti di percorso nel modello con l'obiettivo principale di minimizzare il
termine di errore (cioè, la covarianza residua) nei costrutti. In altre parole, non si fa
altro che stimare dei coefficienti (vale a dire, le relazioni nel modello percorso) che
massimizzano i valori dei diversi costrutti. Questa funzione è quella che viene
identificata come costruzione di un modello previsionale (Hair, Hult, Ringle, & Sarstedt,
2014). Perciò il PLS-SEM è il modello che si deve preferire quando l'obiettivo della
ricerca è lo sviluppo di una teoria dove si cerca di spiegare al livello previsionale indici
che identificano specifici costrutti correlati tra loro. Possiamo inoltre dire che questo
metodo è particolarmente adatto per tutti i tipo analisi di tipo esplorativo dove il
quadro teorico è molto debole o addirittura inesistente (Fernandes, 2012).
Diverse considerazioni sono importanti nel decidere se applicare o meno i PLS-SEM.
Queste considerazioni hanno radici nelle caratteristiche del modello. Le proprietà
statistiche dell'algoritmo hanno caratteristiche molto importanti associate con le
caratteristiche dei dati e dei modelli utilizzati. Inoltre, le proprietà del metodo PLS-SEM
influenzano addirittura anche la valutazione dei risultati. Nella tabella sottostante
verranno schematizzate le caratteristiche chiave di questa metodologia.
Caratteristiche chiavi dei PLS-SEM Caratteristiche dei dati
Dimensioni dei campioni
• Nessun problema di identificazione per dimensione di piccoli campioni • Elevati livelli di potenza statistica con piccole dimensioni del campione • Con grandi dimensioni del campione aumentano l'accuratezza (ad esempio, coerenza) delle stime PLS-SEM
Distribuzione dei dati • Nessuna assunzione necessaria in quanto il PLS-SEM è un metodo non parametrico
Valori mancanti • Metodologia molto robusta fino a quando i valori mancanti sono al di sotto di un livello ragionevole
Scala di Misurazione • Funziona con metrici di dati, con dati ordinale anche con codifiche di variabili binarie (con determinate restrizioni) • Alcune limitazioni quando si utilizzano dati categorici per misurare variabili latenti endogene
Caratteristiche del modello Numero di elementi • Possibilità di gestione di costrutti single e multi-item
50
per ogni modello di misurazione costruttivo
Rapporti tra costrutti e loro indicatori
• Include facilmente modelli di misurazione riflettenti e formativi
Complessità del modello
• Gestisce modelli complessi con molti relazioni nel modello strutturale • Maggior numero di indicatori sono utili in quanto riducono la polarizzazione PLS-SEM
Impostazione del modello
• Nessun ciclo causale consentito nella struttura Modello (solo modelli ricorsivi)
Proprietà del algoritmo PLS-SEM Obiettivo • Riduce la quantità di varianza non spiegate (vale a dire, massimizza
i valori R2)
Efficienza • il modello converge dopo alcune iterazioni (anche in situazioni con modelli complessi e/o grandi serie di dati) alla soluzione ottimale
Punteggi dei costrutti • Stimate come combinazioni lineari dei loro indicatori • Usato per scopi predittivi • Può essere utilizzato come input per analisi successive
Stime dei parametri • Le relazioni nei modelli strutturali sono generalmente sottostimati (polarizzazione PLS-SEM) • Le relazioni del modello di misura sono generalmente sovrastimati (polarizzazione PLS-SEM) • Complessità in generale • Alti livelli di potenza statistica
Problemi di valutazione del modello Valutazione del modello complessivo
• Nessun criterio globale di bontà
Valutazione del modello di misurazione
• Modelli di misura riflettenti: affidabilità e valutazioni di validità per più criteri •Modelli di misurazione formativa: validità e valutazione, significato e rilevanza digli indicatori pesi, (collinearità dell'indicatore)
Valutazione del modello strutturale
• Collinearità tra gruppi di costrutti, significato dei coefficienti del percorso, coefficiente della determinazione (R2), della dimensione dell'effetto (F2), rilevanza predittiva (dimensione effetto Q2 e q2)
Ulteriori analisi • Analisi matrice delle prestazioni di impatto • Effetti mediatori • Modelli di componenti gerarchici • Analisi multigroup • Scoperta e cura non osservata eterogeneità • invarianza del modello di misura effetti moderanti
Fonte: Adapted from The Journal of Marketing Theory and Practice 19(2) (Spring 2011), 139-151. Copyright© 2011 by M. E.Sharpe, Inc.
Nella tabella precedente si sono delineate tutte quelle caratteristiche che identificano
l'approccio PLS ai modelli di equazioni strutturali. In questo finale di capitolo e nei
51
prossimi capitoli affronteremo in modo più dettagliato la maggior parte di questa
peculiarità.
I PLS-SEM funziona in modo efficiente con campioni di piccola dimensione e con una
struttura molto complessa. Inoltre essa è capace di gestire facilmente modelli di
misurazione sia di tipo riflettente e sia di tipo formativo. Si può replicare in una grande
varietà di situazioni di ricerca. Quando si applica questa metodologia, i ricercatori
beneficiano anche di un'alta efficienza nella stima dei parametri, che si manifesta in
una maggiore potenza statistica rispetto ai CB-SEM. La maggiore potenza statistica
significa che i PLS-SEM permettono di specificare relazioni significative più veritiere
(Hair, Hult, Ringle, & Sarstedt, 2014).
Vi sono, tuttavia, alcune limitazioni nei PLS-SEM. Ad esempio la tecnica non può essere
applicata quando i modelli strutturali contengono loop casuali ovvero relazioni di tipo
circolare tra le variabili cioè quando il modello non è ricorsivo. Inoltre non dispone di
un adeguato modello di valutazione globale (bontà di adattamento del modello).
Anche se i principali sostenitori della CB-SEM sottolineano questa limitazione, molti
studi di simulazione recenti hanno mostrato che la differenza fra le due metodologie
sono veramente residue. I risultati non differiscono molto, e le stime PLS-SEM possono
essere quindi buoni indicatori dei risultati CB-SEM (Reinartz, Haenlein, & Henseler,
2009).
Possiamo riassumere un modus operandi. Quando c'è poca conoscenza a priori sulle
relazioni nel modello strutturale o quando le fasi della ricerca sono più orientata
sull'aspetto esplorativo più che sull'aspetto di tipo confermativo, i PLS-SEM sono una
ottima alternativa ai CB-SEM. Inoltre si preferisce utilizzare i PLS quando non vi è una
normalità nella distribuzione dei dati, la dimensione del campione è piccola e quando è
molto complesso modello che si sta sviluppando.
Nella tabella e nel grafico sottostante richiamiamo schematicamente le regole
empiriche per la scelta più ponderata fra PLS-SEM e CB-SEM. Qualunque ricercatore-
analizzatore ha bisogno di applicare la tecnica di modelli di equazioni strutturali che
meglio si adatti ai loro obiettivi di analisi, caratteristica dei dati e configurazione del
modello.
52
Utilizzare PLS-SEM quando Utilizzare CB-SEM quando • L'obiettivo della previsione di
costruiti chiave o l'identificazione i principali costruiti "driver"
• il modello strutturale e complesso (molti costruttive molto indicatori)
• la dimensione del campione è piccolo e/o i dati sono distribuiti non normalmente
• il piano è quello di utilizzare i punteggi delle variabili latenti in un'analisi successiva
• L'obiettivo è di testare una teoria, oppure confermarla, o confrontarla con altre teorie alternativa
• i termini di errore richiedono specifiche aggiuntive, come ad esempio la analisi della varianza
• il modello strutturale hanno rapporti non ricorsivi
• la ricerca richiede un criterio globale di bontà di adattamento
L'approccio PLS ai SEM è una metodologia molto flessibile rispetto ad altri approcci, in
base alle sue condizioni statistiche sottostanti e in particolar modo quelle relative alle
dimensioni del campione. Ma questo approccio non dovrebbe essere scelto di default,
cioè perché i dati non soddisfano i criteri statistici (per esempio, la normalità o la
dimensione del campione) per l'utilizzo della metodologia basata sulla covarianza.
Come abbiamo evidenziato recentemente l'approccio PLS è dovuto alle sue specificità.
Il fatto che esso è più esplorativo rispetto alla metodologia basata sulla covarianza non
significa necessariamente che non vi è alcuna necessità di elaborare un modello basato
su costrutti teoricamente testati (Marcoulides & Saunders, 2006).
L'approccio PLS esamina i modelli di misurazione blocco per blocco, pertanto il numero
minimo di osservazione necessarie dipende dal numero di parametri da stimare
53
simultaneamente (Fornell & Bookstein, 1994) e questo spiega perché la dimensione
del campione può essere inferiore numero delle variabili di misura e spiega anche il
non vincolo di necessità di rispetto della proporzionalità della dimensione del
campione allegato al numero degli indicatori (Chin, Marcolin, & Newsted, 2003).
Successivamente vedremo che esistono delle semplici regole empiriche per
determinarne la dimensione minima del campione rispetto al numero delle variabili di
misura e agli indicatori.
Per concludere PLS e CB possono essere visti, anzi devono essere visti, come strumenti
complementari, con CB utilizzato nel ruolo di conferma teorica del modello. Invece la
natura esplorativa dei PLS può essere utilizzata per rilevare rapporti di tipo teorici tra
le variabili latenti e utilizzare i CB per confermare o rifiutare questi rapporti teorici.
Possiamo dire che l'uso di entrambi gli approcci sia complementare e che entrambi
permettono gli analisti-ricercatori di analizzare la matrice di correlazione delle variabili
latenti e poi stimare i valore dei coefficienti di dipendenza che vengono testati
utilizzando un modello di ricorsivo con PLS (Fernandes, 2012).
54
55
Cap. 4 - Dati, ipotesi, condizioni e l'algoritmo iterativo PLS-SEM
Nelle fasi iniziale di un progetto che comporta l'applicazione di modelli di equazioni
strutturali, un primo passo importante è quello di preparare un diagramma che illustra
le ipotesi e che visualizza graficamente i rapporti fra le variabili che saranno esaminati.
Questo diagramma è quello che abbiamo indicato come modello percorso (Path
Model), esso ci permette, visivamente, di illustrare le nostre ipotesi attraverso il
collegamento logico dei vari costruiti. La preparazione del modello di percorso ci
permette di organizzare i pensieri logici dello sviluppo dell'idea di ricerca e analisi e
prendere visivamente in considerazione le relazioni tra le variabili che ci interessano.
Come abbiamo detto in precedenza il modello percorso è costituito dal modello
strutturale, che descrive le relazioni tra le variabili latenti, e modelli di valutazione che
descrivono le relazioni tra le variabili latenti e le loro misure (i loro indicatori).
4.1 Il modello strutturale
Quando si sviluppa un modello strutturale, si devono considerare due problemi: la
sequenza dei costrutti e le relazioni tra loro. Entrambe le questioni sono
fondamentali,in quanto rappresentano le ipotesi e le relazioni che si vogliono testare
(Hair, Hult, Ringle, & Sarstedt, 2014).
Determinare la sequenza dei costrutti è raramente un compito facile, in quanto
prospettive teoriche diverse possono portare a diverse sequenze, spesso
contraddittorie, delle variabili latenti. Teoria e logica dovrebbero sempre determinare
la sequenza dei costumi in un modello concettuale, ma quando la letteratura o la
realtà è incoerente o poco chiara, i ricercatori-analisti devono usare il loro giudizio per
determinare la sequenza. È possibile avere molti modelli alternativi che possono
essere testati attraverso la costruzione di diverse sequenze di costruiti. Ma questo può
essere un processo molto impegnativo (Wilson, Callaghan, Ringle, & Henseler, 2007).
Quando la sequenza dei costrutti è stata decisa, allora le relazioni tra loro devono
essere stabiliti disegnando le frecce. Convenzionalmente esse sono rivolte verso
56
destra. Attraverso la definizione della sequenza dei costrutti riusciamo ad identificare
le diverse relazioni predittive cioè i collegamenti e le relazioni casuali. Nel disegnarle si
deve affrontare un trade-off tra la solidità teorica (cioè, quella relazione che sono
fortemente supportate dalla teoria) e la costruzione di un modello parsimonioso (ad
esempio, utilizzando un minor numero di rapporti) (Falk & Miller, 1992).
Attraverso il modello strutturale si riesce a costruire un approccio di modellazione
parsimonioso. Per meglio comprendere le relazioni che si possono costruire nel
modello strutturale, identifichiamo diversi tipi di relazioni fra costrutti. Con i grafici
sottostanti illustriamo le diverse forme di relazioni per comprenderle anche
visivamente.
Nella prima forma di relazione, che definiremo effetto diretto sequenziale, notiamo
come il costruttore reputazione (variabile indipendente) abbia un effetto predittivo sul
costrutto soddisfazione e che a sua volta ha un effetto predittivo sul costrutto fedeltà.
Il costrutto soddisfazione è sia dipendente dal costrutto reputazione ma anche
indipendente rispetto al costrutto fedeltà.
Un effetto di mediazione avviene quando un terzo costrutto interviene tra due altri
costrutti correlati. Rispetto all'esempio precedente, si instaurano tra i costrutti degli
Effetto Diretto sequenziale
Costrutto Indipendente Costrutto Indipendente/dipendente Costrutto dipendente
Effetto Mediazione
Costrutto dipendente
Costrutto Indipendente Costrutto dipendente
Reputazione Soddisfazione Fedeltà
Reputazione
Soddisfazione
Fedeltà
57
effetti di tipo indiretto in quanto le relazioni coinvolgono una sequenza di rapporti
(rappresentate visivamente da più sequenze di frecce). Questo effetto indiretto è
definito come effetto di mediazione. Dal punto di vista teorico, l'applicazione più
comune è quella di spiegare perché esiste una relazione tra un costrutto esogeno ed
endogeno.
Nel diagramma sovrastante abbiamo osserviamo l'effetto di reputazione aziendale
sulla fedeltà del cliente. Sulle basi della logiche-teoriche ormai consolidate, sappiamo
che esiste una relazione tra reputazione e fedeltà, ma non siamo mai sicuri di come
questo rapporto funziona realmente. A volte un cliente percepire una società
altamente responsabile, ma questa percezione non si traduce in alta fedeltà. In altre
situazioni, si osserva che alcuni clienti con valutazione di reputazione inferiori sono
altamente fedeli e queste osservazioni portano a domandarsi se c'è qualche altro
processo in corso che traduca la reputazione aziendale in fidelizzazione dei clienti. Nel
diagramma che abbiamo disegnato precedentemente questo processo intermedio
(effetto mediazione) è modellato dal costrutto soddisfazione. Infine se un rispondente
percepisce una società altamente affidabile questa valutazione può portare a livelli di
soddisfazione più elevati e in ultima analisi a una maggiore fidelizzazione.
Con l'effetto moderazione, i costrutto potrebbe anche influenzare direttamente il
rapporto tra gli altri costrutti ma in modo diverso. Questa situazione si verifica quando
il mediatore (un costrutto indipendente) cambia la forza o la direzione di una relazione
tra due costrutti nel modello. Ad esempio il reddito è un elemento che modifica
Effetto Moderazione Costrutto Indipendente
Costrutto Indipendente Costrutto dipendente
Reddito
Soddisfazione Fedeltà
58
fortemente l'intensità delle relazioni tra soddisfazione del cliente e fedeltà (Gomburg
& Giering, 2001). Il rapporto tra soddisfazione e fedeltà può essere debole per le
persone con alto reddito rispetto a persone con basso reddito.
Ci sono due tipi di relazioni moderate. Il primo è quell'effetto di moderazione indicato
come continuo che è rappresentato nel grafico sovrastante, invece l'altro effetto viene
indicato come categorico. La differenza tra i due tipi di relazione è che in uno, il
continua, esiste quando il costrutto moderatore ed è quantificabile numericamente,
mentre l'altro effetto di moderazione è di tipo categorico come ad esempio il sesso.
L'effetto categorico serve a raggruppare e a suddividere i dati in sottocampioni. Ad
esempio gli analisti-ricercatori sono di solito interessati a confrontare i modelli
attraverso un'analisi di molto il gruppo. Attraverso essa si riesce a verificare la
differenza tra modelli identici ma stimati per diversi gruppi di intervistati. L'obiettivo
generale è quello di verificare se ci sono differenze statisticamente significative tra i
modelli di gruppi individuali (ad esempio raggruppamento maschile e raggruppamento
femminile).
In alcuni casi, i costrutti che i ricercatori-analisti intendono esaminare sono piuttosto
complesso. Finora abbiamo trattato componenti di primo ordine in cui consideriamo
un singolo strato di costrutto. Tuttavia, i costrutti possono anche funzionare a più livelli
di astrazione. I modelli di ordine superiore o anche definiti modelli di componenti
gerarchici ci permettono di fare tutto questo. Ad esempio, la soddisfazione può essere
Modello di componenti gerarchici Componente di ordine inferiore
Componente di ordine superiore
Prezzo
Qualità del
servizio Soddisfazione
Personale
59
definita a diversi livelli di astrazione. In particolare, la soddisfazione può essere
rappresentata da numerosi componenti di livello inferiore che catturano attributi
differenti della soddisfazione in senso più generale (Ringle, Sarstedt, Schlittgen, &
Taylot, 2012). Nel contesto dei servizi, questi potrebbero includere per quanto
riguarda soddisfazione per esempio la qualità del servizio, la qualità del personale ed il
prezzo. Questi componenti di primo ordine potrebbero formare un insieme di attributi
più generale della soddisfazione che diventa un driver di un costrutto più complesso
formato da più elementi. Questo approccio porta alla costruzione di un modello
strutturale molto più parsimonioso che riduce paradossalmente la complessità del
modello stesso.
4.2 Il modello di Misurazione
Il modello di misurazione descrive le relazioni predittive unidirezionali tra ogni
costrutto latente e i suoi indicatori associati (Hair, Ringle, & Sarstedt, 2011). La base
per determinare tali relazioni è la teoria della misurazione, essa rappresenta una
condizione necessaria per ottenere risultati utili. La verifica delle ipotesi che
coinvolgono relazioni strutturali tra i costrutti sarà affidabile o valida solo se il modello
di misurazione spiega come questi costrutti sono misurati. Con il modello di
misurazione si definisce la direzione delle frecce che vanno dal costrutto agli indicatori
o viceversa. Infatti nello sviluppo dei costrutti si devono considerare due modelli di
misurazione.
(David Garson, 2016)
60
Nel modello di misurazione riflessivo (noto anche come modalità A dei PLS-SEM) gli
indicatori sono un insieme rappresentativo di elementi che riflettono le variabili latenti
che stanno misurando, può anche esser visto come un campione rappresentativo di
tutti i possibile elementi disponibili all'interno del dominio di un costrutto. Pertanto,
poiché una misura riflessiva impone che tutti gli elementi indicatori sono causati dallo
stesso costrutto, essi devono essere altamente correlati fra di loro (Hair, Hult, Ringle, &
Sarstedt, 2014). I singoli elementi devono essere interscambiabili e ogni elemento può
essere eliminato senza cambiare il significato del costrutto fintanto che esso abbia
sufficiente affidabilità. Il modello riflessivo è detto anche fattoriale perché riproduce la
relazione tra fattori e variabili tipica dell'analisi fattoriale.
Il modello di misurazione formativo (anche noto come modalità B dei PLS-SEM) invece
si basano sul presupposto che gli indicatori causano il costrutto. Ogni indicatore per un
costrutto formativo coglie un aspetto specifico del dominio del costrutto. In definitiva
ogni indicatore determina il significato del costrutto, il che implica che omettere un
indicatore può alterare potenzialmente la natura del costrutto. Il modello formativo, o
causale, replica la relazione tipica della regressione.
Albers e Hildebrandt forniscono l'esempio di una variabile latente che misura la
soddisfazione delle strutture alberghiere. Un modello riflessivo potrebbe avere come
misure riflessive "Mi sento bene in questo hotel", "Questo hotel è quello dei miei
preferiti", "Raccomando questo hotel ad altri" e "Sono sempre felice di soggiornare in
questo hotel". Il modello formativo, al contrario, potrebbe avere le misure formative:
"La stanza è ben attrezzata", "Trovo silenzio qui", "L'area fitness è buona", "Il
personale è cordiale" e "Il servizio è buono" (Albers & Hildebrandt, 2006).
61
Ma come si fa a scegliere tra un modello di costrutto riflessivo o formativo? Non c'è
una risposta definitiva ma è possibile adottarli contemporaneamente entrambi i tipi e
comunque la scelta dipende dalla tipologia del costrutto e dall'obiettivo dell'analisi. In
molte analisi manageriali, solitamente, l'obiettivo è quello di individuare i driver più
importanti di soddisfazione che alcune caratteristiche possono influenzare sulla
valutazione del costrutto, e per questo spesso si usa un modello di misurazione di tipo
formativo.
La tabella sottostante presenta una serie di linee guida che si possono utilizzare per
prendere decisioni riguardanti la scelta fra costrutti di tipo formativo oppure riflessivo.
Linee Giuda per le scelte del modello di misurazione Criterio Decisione Fonte
Priorità causale tra indicatore e costrutto
Dal costrutto agli indicatoti: riflettente Dagli indicatori al costrutto: formativo
Diamantopoulos and Winklhofer (2001)
Si tratta della costruzione di un tratto che spiega i vari indicatori o piuttosto una combinazione degli indicatori?
Se riguarda il tratto: riflettente Se riguarda la combinazione: formativo
Fornell and Bookstein (1982)
Gli indicatori rappresentano le conseguenze e le cause del costrutto?
Se riguardano le conseguenze: riflettente Se riguarda e cause: formativo
Rossiter (2002)
È forse vero che se la valutazione del tratto cambia,
Se si: riflettente Se no: formativo
Chin (1998)
62
tutti gli elementi cambiano in modo simile (supponendo che siano ugualmente codificati)?
Sono gli elementi reciprocamente intercambiabili?
Se si: riflettente Se no: formativo
Jarvis, Mackenzie and Podsakoff (2003)
4.3 Le misure Singolo Elemento (single-item)
Invece di utilizzare più elementi per misurare un costrutto si può scegliere di utilizzare
un singolo elemento. I vantaggi sono sicuramente pratici in quanto si presenta una
maggiore facilità di applicazione e di usabilità da un lato, e di tempo dall'altro, ma il
costrutto diventa necessariamente assai rigido - coincide col suo indicatore - e non può
in alcun modo compensare eventuali valori mancanti o possibili errori. Utilizzare un
unico elemento come strumento di misurazione di un costrutto diminuisce
sensibilmente l'affidabilità, la validità e la capacità predittiva (Fuchs &
Diamontopoulos, 2009).
Alcune situazioni però richiedono l'uso di singoli elementi per misurare un costrutto,
ad esempio per ridurre la disponibilità di tempo per completare un questionario in
modo da contrastare un abbassamento di risposta. Spesso diventa una soluzione
pragmatica. Se si utilizza questo modalità di misurazione del costrutto si deve
accettare la conseguenza di un abbassamento della validità predittiva. Per misurare
fenomeni non osservabili quali percezione o atteggiamento ad esempio l'utilizzo di un
singolo elemento ci permette di indagare in modo inadeguato tale valore, ma invece
può essere molto utile quando si vogliono indagare su come misurare caratteristiche
specifiche quali un l'andamento di vendita, di profitto e via dicendo.
4.4 La raccolta dei dati
La raccolta dei dati e la fase di esamina è molto importante in qualsiasi analisi e ricerca.
La fase di progettazione deve essere attentamente pianificato e deve essere eseguita
in modo tale che le risposte alle domande siano valide, affidabili e attinenti alla ricerca.
63
Molte applicazioni di ricerca nel campo della ricerca coinvolgono dati primari ma anche
dati secondari. Di solito nelle scienze sociali si fa affidamento su dati ottenuti
attraverso questionari strutturati. Quando i dati empirici sono raccolti mediante
questionari, solitamente si possono presentare successivamente problemi quali la
presenza di dati mancanti, rispose sospetta (risposte incoerenti), valori anomali e
distribuzione dei dati.
I dati mancanti sono un grosso problema nella ricerca delle scienze sociali perché molti
progetti raccolgono dati attraverso indagini sul campo. I dati mancanti si verificano
quando un rispondente volontariamente o involontariamente non rispondere a uno o
più domande. La quantità di dati mancanti su un questionario non deve mai superare il
15%, se supera questa soglia deve essere rimossa l'osservazione. Esistono diverse
tipologie per gestire i valori mancanti. Una prima metodologia è l'utilizzo del valore
media per la sostituzione del dato mancante. Come regola generale si consiglia di
utilizzare la sostituzione del valore medio quando ci sono meno del 5% a valori
mancanti per ogni indicatore. In alternativa si possono rimuovere tutti i casi
(soppressione per caso). Qui si deve fare in modo che non si cancellano
sistematicamente un certo gruppo di intervistati (ad esempio accade nelle ricerche di
mercato che gli intervistati ricchi sono più propensi a rifiutare di rispondere a domande
relative al reddito).
Altro elemento da prendere in considerazione quando si analizzano i dati, prima che
vengono elaborati per la SEM, sono la presenza di risposte sospette. Esse si hanno
quando un partecipante segna la stessa risposto con una percentuale elevata alle
domande, (ad esempio se in una scala di Likert a 7 punti la configurazione di risposta è
sul valore di risposta centrale 4 su tutto o la maggior parte delle risposte da un
rispondente) in questo caso si deve rimuovere dal set dei dati.
Un valore anomalo è una risposta estrema o un errore particolare o una risposta
estrema a tutte le domande. Il primo passo è quello di identificarli. Molti pacchetti
software di tipo statistico hanno opzioni che aiutano ad identificare questi valori. Una
volta identificati, si deve decidere cosa fare. Per esempio si può procedere
64
semplicemente a rimuovere i dati oppure decidere se il gruppo anomalo rappresenta
un sottogruppo distinto e perciò creare un campione apposito per indagarlo.
PLS-SEM è un metodo statistico non parametrico, diverso dal modello di equazioni
strutturali basato sulla covarianza e non richiede che i dati siano distribuiti
normalmente. Tuttavia alcuni autori suggeriscono di verificare se i dati sono troppo
lontani dalla normalità perché questo può influenzare la valutazione e il significato dei
parametri (Hair, Hult, Ringle, & Sarstedt, 2014). I dati estremamente non normali
gonfiano gli errori standard e diminuiscono la probabilità che alcune relazioni siano
valutate come significative. Con il PLS il problema non è considerato grave (Hair,
Wolfinbarger Celsi, Money, Samouel, & Page, 2011).
4.5 L'algoritmo PLS-SEM
Il modello statistico PLS-SEM è una tecnica di stima di valore (parametri) basata su una
serie di regressioni OLS (Ordinary Least Squares cioè Metodo dei Minimi Quadrati
Ordinari). Il metodo si concentra sulla predizione di un insieme specifico di relazioni
ipotetiche che massimizzano la varianza spiegata in variabili dipendenti, in modo simile
ai modelli di regressione OLS. Spesso i PLS-SEM sono confusa da PLS Regression, la
differenza sostanziale risiede dal fatto che le diverse regressioni, una per variabile
latente, vengono stimate tutte assieme e inoltre le variabili delle regressioni non sono
note (in quanto variabili latenti) ma sono stimate dal modello mediate indicatori
(indici).
L'algoritmo dei modelli di equazioni strutturali basato sui minimi quadrati parziali
segue un processo in due fasi che coinvolge una valutazione separata del modello di
misurazione e il modello strutturale. Il primo passo è quello di esaminare l'affidabilità e
la validità delle misure in base a determinati criteri legati alla tipologia di misurazione,
formativa o riflessiva. Il secondo passaggio è quello di stimare dei parametri del
modello strutturale (Hair, Ringle, & Sarstedt, 2011).
Inoltre l'algoritmo si basa sui punteggi di variabili latenti di tipo standard perciò i dati
devono essere standardizzati (cioè con una media 0 e varianza 1) quando si inseriscono
65
all'inizio dell'analisi. Nel grafico seguente possiamo osservare l'aspetto grafico
dell'algoritmo.
Tabella - Pach Model e Set di dati ipotetici per PLS-SEM (Henseler et al., 2012)
()
Nel modello strutturale si delineano i rapporti tra le variabili latenti attraverso la
definizione di coefficienti di percorso, che inizialmente sono sconosciuti, attraverso un
processo iterativo. L'algoritmo per determinare i punteggi di tutti i costrutti (le Y
variabili latenti) che sono utilizzati come dati di ingresso e utilizza modelli di
regressione parziali (singola o multiple) per costruire il modello di percorso.
Successivamente si calcolano i punteggi che vengono utilizzati per stimare ogni singola
regressione parziale del modello percorso. Come risultato si ottiene la stima per tutte
le relazioni nei modelli di misurazione (cioè i pesi e i carichi) e il modello strutturale
(cioè coefficienti di percorso del modello). (Henseler, Ringle, & Sarstedt, 2012).
Successivamente l'algoritmo stima nuovamente le variabili latenti, questa volta in base
alle relazioni individuate tra di loro e con la nuova stima delle variabili latenti ricalcola i
coefficienti delle relazioni tra latenti e indicatori. Dopo la prima iterazione l'algoritmo
ridefinisce i pesi iniziali e ricomincia nuovamente l'interazione finché nelle iterazioni
successive i pesi raggiungono valori uguali e il processo di interazione in itinere si
complete.
66
Uno degli scopi principali dell'algoritmo concerne la costruzione di punteggi (indici)
sulle variabili latenti. L'algoritmo PLS-SEM tratta questi punteggi come sostituti perfetti
per le variabili indicatori e perciò utilizza tutta la varianza proveniente dagli indicatori
in modo da aiutare a spiegare i costrutti endogeni. Questo perché il metodo PLS-SEM si
basa sul presupposto che tutta la varianza misurata nel modello delle variabili
indicatore è utile e può essere incluso nella costruzione della stima del punteggio. In
sintesi, l'algoritmo comprende le seguenti tre fasi (Lohmoller, 1989):
Fase 1: La stima Iterativa dei punteggi delle variabili latenti consiste in una procedura
iterativa a 4 fasi, che viene ripetuta fino a quando la convergenza non è ottenuta (o il
numero massimo di iterazioni è raggiunto):
1. approssimazione esterna dei punteggi delle variabili latenti;
2. stima dei pesi interni;
3. approssimazione interna dei punteggi delle variabili latenti;
4. stima dei pesi esterni.
Fase 2: stima dei pesi esterni / coefficienti di carico e percorso.
Fase 3: stima dei parametri.
Dato che l'algoritmo si basa su punteggi standard delle variabili latenti, come risultato
esso calcola coefficienti standardizzati entro i valori -1 e +1 per ogni rapporto sia nel
modello strutturale e sia nel modello di misurazione. Se i coefficienti di percorso sono
vicini ad un valore di +1 questo sta a indicare che sia una forte relazione positiva (e
viceversa per il valore negativo). Quando invece i coefficienti stimati sono vicino allo
zero, i rapporti sono più deboli e addirittura possono essere statisticamente non
significativi.
Per quanto riguarda l'avvio dell'algoritmo che avviene attraverso stima dei rapporti nel
modello di misurazione si richiedono dei controlli iniziali. Per la prima interrogazione in
teoria può essere utilizzata qualsiasi combinazione lineare degli indicatori per definire
punteggi iniziali. In pratica, utilizzare pesi tutti uguali è una buona scelta e dare un
valore di 1 per la prima interazione per tutte le relazioni nel modello di misurazione è
diventato uno standard. Nelle successive interazioni i valori standard sono sostituiti dai
67
coefficienti di percorso per le relazioni nel modello di misurazione (Hair, Hult, Ringle, &
Sarstedt, 2014).
Ulteriori impostazioni riguardano la selezione del criterio di arresto dell'algoritmo. Esso
è progettato per funzionare fino a quando non si stabilizzano i risultati. La
stabilizzazione è raggiunta quando la somma dei paesi tra le interazioni è
sufficientemente bassa. Un valore di soglia consigliato per garantire all'algoritmo una
convergenza ragionevole e bassi livelli di scambio iterativo nel punteggi delle variabili
latenti è 1 x 10-5 (vale a dire 0,00001). Poiché l'algoritmo è molto efficace (cioè
converge dopo un basso numero di interazione anche con modelli complessi) la
selezione di un numero massimo di 300 interazioni garantisce la convergenza
(Henseler & Fassott, 2010). Nella tabella sottostante si riassumono le linee guida per
l'inizializzazione dell'algoritmo PLS-SEM.
Regole pratiche per l'inizializzazione dell'algoritmo PLS-SEM
• Selezionare come schema di percorso il metodo di ponderazione.
• Utilizzare dati matriciali standardizzati (valori con media pari a 0 e deviazione standard uguale a 1) come input per avviare l'algoritmo.
• Usare +1 come valore iniziale per tutti i paesi esterni.
• Selezionare un criterio di arresto di 1x10-5 (vale a dire 0,00001).
• Selezionare un valore di almeno 300 per il numero massimo di interazioni.
Tutto l'algoritmo è un modello basato interamente su una sequenza di regressioni
parziali di tipo iterativo che ha inizio con la definizione dei rapporti fra le variabili
latenti attraverso la definizione del modello strutturale e si conclude con la definizione
dei coefficienti di percorso nel modello di misurazione. I PLS-SEM non ottimizzano una
sola funzione ma ottimizza su scalare globale e di conseguenza si ha la manca di una
misura complessiva di bontà di adattamento che è solito trovare nei diversi modelli
multivariati. L'obiettivo ultimo dell'algoritmo è in quello di massimizzare il valore R2
delle variabili latenti e le loro previsioni. Per valutare i risultati e l'interpretazione
dell'algoritmo sarà dedicato l'intero capitolo successivo.
68
69
Cap. 5 - Le valutazioni e la validazione dei risultati
della PLS-SEM
Proprio come tutte le tecniche di analisi multivariate, applicando PLS-SEM si richiede
una esamina approfondita dei risultati finali cioè una valutazione e una validazione dei
risultati del modello. Le misure empiriche ci consentono di confrontare la misurazione
teoricamente stabilita e i modelli strutturali con la realtà. In altre parole possiamo
determinare quanto bene la teoria si adatta ai dati.
Come abbiamo detto in precedenza, per questa analisi multivariate non esiste un unico
criterio di bontà di adattamento della validazione del modello, il risultato si concentra
sulla discrepanza tra i valori osservati (le variabili manifeste) o approssimate (le
variabili latenti) dei valori delle variabili dipendenti e i valori attesi del modello preso in
considerazione.
Prima di analizzare i risultati è necessario verificare rapidamente se l'algoritmo PLS-
SEM converge entro il numero massimo di interazioni che è stato definito da
impostazioni precedenti. Se l'algoritmo non converge in meno di quanto impostato,
l'algoritmo non riesce a trovare una soluzione. Se si verifica questa situazione, ci sono
due possibili cause del problema: il primo problema può riguardare il criterio di arresto
che è stato selezionato che può risultare un livello troppo piccolo, il secondo problema
può riguardare i dati, dove essi possono risultare anomali e perciò devono essere
attentamente controllati
Le valutazioni e le validazione dei risultati si basano su una serie di criteri non
parametrici. L'applicazione di tali criteri segue un processo in due fasi che coinvolge
una valutazione separata dei modelli di misurazione e del modello strutturale.
Nella tabella sottostante possiamo osservare come in due fasi separati andremo a
valutare i risultati del nostro modello. Inoltre si delineano i parametri e i valori statistici
da rispettare per un'adeguata validazione dei risultati.
70
Tabella - Valutazione sistematica dei risultati del modello PLS-SEM
Fase 1: Valutazione del modello di misurazione Fase 1a: Modello di misurazione Riflessivo Fase 1b: Modello di misurazione Formativo
• Consistenza interna (Affidabilità composita)
• Affidabilità dell'indicatore
• Validità convergente (varianza media estratta AVE)
• Validità discriminatoria
• Convergenza di validità
• Collinearità tra indicatori
• Importanza e rilevanza dei pesi esterni
Fase 2: Valutazione del modello strutturale • Coefficienti di determinazione (R2)
• Rilevanza predittiva (Q2)
• Dimensione e significatività dei coefficienti del percorso
• Dimensioni dell'effetto f2
• Dimensioni dell'effetto q2
Inizialmente, la valutazione del modello si concentra sui modelli di misurazione.
Questo esame ci consente di valutare l'affidabilità e la validità delle misure dei
costrutti. In particolare, le misure multivariate comportano l'uso di diverse variabili per
misurare indirettamente un concetto, la logica di utilizzare diverse variabili individuali,
per misurare un concetto, è quella di avere una stima il più precisa possibile e questo
processo migliora l'accuratezza dei risultati del modello. Questo primo passo è basato
sulla logica che, se non si è sicuri che le misure rappresentano i costrutti di interesse,
non c'è motivo di usarli per esaminare le relazioni strutturali. Se le misure si
dimostrano adeguate, la seconda fase prevede una valutazione delle stime del
modello strutturale (Hair, Hult, Ringle, & Sarstedt, 2014).
5.1 Valutazione del modello di misurazione
Nel validare i modelli di misurazione, dobbiamo distinguere tra costrutti riflessivi e
formati. I due approcci si basano su concetti diversi e quindi richiedono diversa
considerazione per quanto riguarda le misure di valutazione. Nei modelli di
misurazione riflettenti si valutano l'affidabilità della coerenza interna e la validità dei
dati. Le misure comprendono l'affidabilità composita, la validità convergente e la
validità discriminante. Invece nel modello di misurazione formativa si valutano
71
l'importanza della rilevanza degli outerweight, la conllinearità tra indicatori e la
convergenza di validità del modello.
5.1.1 Valutazione dei risultati nei modelli di misurazione riflettenti
Quando dobbiamo valutare i risultati nei modelli di misurazione riflettenti si devono
valutare i risultati in relazione al affidabilità e alla validità. Il primo criterio da valutare
è l'affidabilità della coerenza interna del modello. Il criterio tradizionale che si utilizza è
Alpha di Cronbach, che fornisce una stima dell'affidabilità di un modello. Esso si basa
sulle correlazioni delle variabili degli indicatori osservati, presuppone che tutti gli
indicatori siano ugualmente affidabili (cioè tutti gli indicatori devono avere i
outerloading uguali sul costrutto) (Hair, Hult, Ringle, & Sarstedt, 2014).
Un ulteriore criterio è l'affidabilità composita che si differenza del criterio precedente
dal fatto di non presuppone che tutti gli indicatori siano ugualmente affidabili e rende
tale criterio più adatto ai PLS-SEM . Esso privilegia gli indicatori in base alla loro
affidabilità durante la stima del modello (Hair, Ringle, & Sarstedt, 2011). L'affidabilità
composito varia tra un valore di 0 e 1, con valori più elevati che indicano alto livello di
affidabilità. Generalmente è interpretato nello stesso modo dell'Alpha di Cronbach:
valori tra 0,60 e 0,70 sono accettabili in ricerche di tipo esplorativo, mentre nelle fasi
più avanzate della ricerca, valori tra 0,70 e 0,90 possono essere considerate
soddisfacenti (Nunally & Bernstein, 1994). Valori superiori a 0,90 non sono
desiderabili,in quanto tale valore indica che le variabili misurano lo stesso fenomeno,
in particolare, tali valori si verificano quando sono presenti elementi semanticamente
ridondanti. Infine valori al di sotto 0,60 indicano una mancanza di affidabilità di
coerenza interna (Drolet & Morrison, 2001).
Ulteriore elemento da valutare è la validità convergente, esso è un indice che ci
permette di misurare di quanto su un determinato costrutto, gli indicatori ad esso
associati hanno in comune. Questa caratteristica viene delineata come indicatore di
affidabilità. L'indice che viene utilizzato per misurare la validità convergente è la
varianza media estratta (AVE). Sui PLS-SEM tale indicatore si misura sugli outerloading
72
e una regola comune indica che non dovrebbero essere mai inferiori a un valore di
0,70. Il valori esterno di ogni indicatore rappresenta quanto la variazione di un
elemento si spiega con il costrutto. La regola generale stabilisce che una variabile
latente deve spiegare una parte sostanziale della varianza di ogni indicatore (almeno il
50%). Ciò significa che il outerloading di ogni indicatore deve essere superiore a 0,70
dal momento che il quadrato di tale numero è uguale a 0,50. Molti ricercatori hanno
osservato però che spesso negli studi di ricerche sociali gli outerloading sono molto più
debole e piuttosto di eliminarli automaticamente gli indicatori che presentano valori
inferiore a 0,70, si devono prima esaminare attentamente gli effetti della loro
rimozione sull'affidabilità composito del costrutto. Generalmente, indicatori con
outerloading tra 0,40 e 0,70 dovrebbero essere eliminati solo quando l'eliminazione di
ogni indicatore portano ad un aumento della affidabilità composito. Al di sotto del
valore 0,40 un indicatore deve essere eliminato del tutto. L'AVE è definito come la
media dei quadrati degli outerloading degli indicatori associati con il costrutto (Hair,
Wolfinbarger Celsi, Money, Samouel, & Page, 2011).
L'ultimo elemento da valutare è la validità discriminante che la misura quanto un
costrutto è distinto dagli altri costrutti. Stabilire la validità discriminante implica anche
quanto un costrutto è unico e quanto informazione cattura di un determinato
fenomeno rispetto agli altri elementi degli altri costrutti del modello. L'indicatore che
si utilizza è il criterio Fornell-Larcker: esso mette a confronto la radice quadrata
dell'AVE con le correlazione delle variabili latenti. In particolare la radice quadrata
dell'AVE di ciascun costrutto deve essere maggiore della più elevata correlazione con
qualsiasi altro costrutto. La logica di questo metodo si basa sull'idea che un costrutto
sia più correlato con i suoi indicatori che con qualsiasi altro costrutto.
Tabella - Controllo di affidabilità e validità (Wong, Vinzi, & Chin, 2011) Cosa controllare? Che cosa cercare in
SmartPLS? Va bene?
Affidabilità
Affidabilità dell'indicatore
Numeri "outerloading"
Esamina ciascuno dei outerloading per trovare il valore di affidabilità dell'indicatore. 0,70 o superiore è preferito. Se si tratta di una ricerca esplorativa, 0,4 o superiore è
73
accettabile. (Hulland, 1999)
Affidabilità Consistenza Interna
Numeri di "affidabilità" L'affidabilità del composito dovrebbe essere di 0,7 o superiore. Se si tratta di una ricerca esplorativa, 0,6 o superiore è accettabile. (Bagozzi e Yi, 1988)
Validità
Validità convergente Numeri "AVE" Dovrebbe essere 0.5 o superiore (Bagozzi e Yi, 1988)
Validità discriminatoria Numeri "AVE" e Correlazioni Variabili Latenti
Fornell e Larcker (1981) suggeriscono che la "radice quadrata" del AVE di ogni variabile latente dovrebbe essere maggiore delle correlazioni tra le variabili latenti
5.2 Valutazione dei risultati nei modelli di misurazione formativi
I criteri di valutazione statistici adoperati per valutare i risultati nei modelli di
misurazione riflettenti non possono essere utilizzati nel valutare i risultati nei modelli
di misurazione formativi. Proprio per le caratteristiche intrinseche degli indicatori
formativi, il concetto di affidabilità e di validità non sono gli indicatori adeguati per
valutare adeguatamente questa tipologia di modelli di misurazione.
La valutazione e la validazione adeguata di questi modelli di misurazione consta di 3
fasi specifiche. La prima fase prevede di valutare la validità convergente del modelli di
misurazione formativa, successivamente si indaga la presenza di indicatori ridondanti,
cioè di alte correlazione tra indicatori dello stesso costrutto (collinearità). Nella terza e
ultima fase si valuta la significatività statistica della pertinenza degli indicatori formativi
(Hair, Hult, Ringle, & Sarstedt, 2014).
La validità convergente è la misura in cui un indicatore è correlato positivamente con
altri dello stesso costrutto. Nel valutare i modelli di misurazione formativi, dobbiamo
verificare se il costrutto formative è altamente correlato con un indicatore riflettente
dello stesso costrutto. Questo tipo di analisi è anche nota come analisi di ridondanza
(Chin, 1998).
74
Le alte correlazioni tra due indicatori formativi sono identificati come collinearità, e
questo può risultare problematico dal punto di vista metodologico ed interpretativo
nei PLS-SEM. Alti livelli di collinearità tra indicatori formativi hanno un impatto sulla
stima degli outerweight e sulla loro significatività statistica (Hair, Hult, Ringle, &
Sarstedt, 2014). Per valutare la collinearità si calcola un indice di tolleranza che
rappresenta la quantità di varianza di un indicatore formativo che non viene spiegato
dagli altri indicatori nello stesso blocco. L'inverso della tolleranza si chiama fattore di
inflazione della varianza (VIF).Un valore di tolleranza di 0,20 o inferiore oppure un
valore di VIF di 5 o superiore indicano rispettivamente un potenziale problema di
collinearità. Questi livelli indicano che l'80% della varianza di un indicatore è
rappresentato dai restanti indicatori formativi connessi con lo stesso blocco del
costrutto (Hair, Ringle, & Sarstedt, 2011).
Un altro criterio per valutare il contributo di un indicatore formativo è la sua rilevanza.
Per far ciò dobbiamo verificare se i sistemi in un modello di misurazione formativi sono
significativamente diversi da zero, ed esso avviene attraverso la procedura di
boodstrap che vedremo nello specifico nel paragrafo successivo (Hair, Hult, Ringle, &
Sarstedt, 2014). Con un numero elevato di indicatori formativi utilizzati per misurare
un determinato costrutto, diventa molto probabile che uno o più indicatori avranno
outerweight bassi o non significativi. Quando il peso esterno di un indicatore non è
statisticamente significativo e il suo outerweight è elevato (cioè superiore a 0,50),
l'indicatore dovrebbe essere mantenuto. Ma quando un indicatore ha un peso
statisticamente non significativo e il suo carico esterno è sotto al valore di 0,50 si
dovrebbe decidere se mantenere o cancellare l'indicatore ma tenendo sempre conto
della sua rilevanza a livello teorico. Tuttavia, gli indicatori non dovrebbero mai essere
scartati semplicemente sulla base dei risultati statistici. Prima di rimuovere un
indicatore nel modello di misurazione formativa, bisogna controllare la sua rilevanza
da un punto di vista della sua validità nel contenuto. Infatti non omettere un indicatore
formativo significa potenzialmente ridurre il quantitativo di informazione contenuto
all'interno di un costrutto.
75
5.3 La procedura del Bootstrapping
Come abbiamo detto più volte nei PLS-SEM i dati che si possono adoperare possono
anche essere distribuiti non normalmente, il che ha implicazioni sui test di
significatività statistici da utilizzare. Se nell'analisi di regressione si utilizzano test
parametrici, essi non si possono applicate per verificare i diversi coefficienti presenti
nei PLS-SEM come ad esempio nei outerloading, outerweight, dei coefficienti di
percorso. Al contrario nei PLS-SEM si adopera una procedura di bootstrap5 non
parametrici per testare i coefficienti e validare i loro significati a livello statistico
(Davison & Hinkley, 1997).
Il Bootstrapping utilizza metodi di ricampionamento per calcolare la significatività dei
coefficienti PLS. Attraverso tale procedura si vengono a costruire un gran numero di
sottocampioni che sono tratti dal campione originale e che vengono utilizzati per
costruire il modello. E' importante che il numero di campioni bootstrap deve essere
almeno pari al numero delle osservazioni del set dei dati utilizzato. Come regola
generale, si consiglia di utilizzare 5.000 campioni di bootstrap. Quando utilizziamo
5.000 campioni di bootstrap si vengono a stimare 5.000 modelli PLS-SEM. Le stime dei
coefficienti formano una distribuzione, che può essere vista come una
approssimazione della distribuzione campionaria dei parametri del modello. Sulla base
di questa distribuzione, è possibile determinare l'errore standard e la deviazione
standard dei coefficienti che si vogliono stimare (Hair, Hult, Ringle, & Sarstedt, 2014).
Per i valori critici che vengono utilizzati per verificare la significatività statistica si
utilizzata la distribuzione t-student che bene approssima la distribuzione normale
(Gaussiana) ma per un numero molto ridotto di osservazioni. Per valutare infine la
significatività di un parametro, si possono anche analizzare gli intervalli di confidenza
bootstrap, che fornisce ulteriori informazioni sulla stabilità dei coefficienti.
5 Il bootstrap è una tecnica statistica di ricampionamento con reimmissione per approssimare la distribuzione campionaria di una statistica.
76
5.4 Valutazione del modello strutturale
La valutazione dei risultati del modello strutturale consente di determinare quanto
bene i dati empirici sono supportati dalla teoria che abbiamo stabilito o piuttosto il
contrario. Una volta che abbiamo confermato che le misure dei costrutti sono
affidabile e validi, il passaggio successivo riguarda la valutazione del modello
strutturale. Si tratta di esaminare la capacità predittiva del modello e le relazioni tra i
diversi costrutti.
Il primo passo di quest'analisi è esaminare eventuali collinearità nel modello
strutturale. La ragione è che la stima dei coefficienti del modello interno si basano sulle
regressioni OLS di ciascuna variabile latente rispetto a quelle che la precedono. Come
in una normale regressione multipla, i coefficienti del modello potrebbero presentare
livelli di collinearità tra i costrutti. Per valutare la collinearità, applichiamo le stesse
criteri che sono state adoperate nel valutare i modelli di misurazione formativi (vale a
dire, la tolleranza e il VIF). Dobbiamo esaminare ogni singola variabili separatamente
per ciascuna parte del modello strutturale. Analogamente alla validazione del modello
di misurazione si verifica che i livelli di tolleranza non siano inferiore a 0,20 ed un VIF
superiore a 5. In caso i valori della tolleranza siano troppo bassi (cioè di elevata
collinearità) si dovrebbe considerare l'eliminazione oppure la fusione in un unico
costrutto delle variabili latenti più correlate (Hair, Hult, Ringle, & Sarstedt, 2014).
Effettuata questa analisi preventiva, i criteri di valutazione del modello strutturale dei
PLS-SEM sono i quattro seguenti: la significatività dei coefficienti di percorso, i valori di
R2, la dimensione dell'effetto di f2 e la rilevanza predittiva attraverso gli indicatori Q2 e
l'effetto della sua dimensione con q2. Come abbiamo già sottolineato, per i PLS-SEM
non esiste un criterio unico per la bontà globale di adattamento del modello.
I coefficienti del modello, rappresentano le relazioni tra i costrutti. Questi coefficienti
hanno valori standard che vanno tra -1 e +1. Coefficienti che si avvicinano a +1
rappresentano forti relazioni positive (viceversa per i valori negativi) e sono quasi
sempre statisticamente significativi. Invece valori molto bassi intorno allo 0 sono
solitamente non significativi. La significatività statistica del coefficiente dipende
dall'analisi dell'errore standard che si ottiene grazie al bootstrapping. Nel marketing,
77
gli analisti-ricercatori di solito assumono un livello di significatività del 5%. Questo non
sempre è applicabile e nel mondo degli studi del consumatore spesso si adottare un
livello di significatività dell'1%. Dall'altra parte, per studi di natura di tipo esplorativa,
addirittura si può adoperare un livello di significatività molto più alto, il 10%.
Figura 2 - Esempio di Coefficieti percorso nel modello strutturale
Oltre a valutare la significatività dei coefficienti è opportuno anche valutarne la
rilevanza, perché i coefficienti nel modello strutturale possono essere sì significativi,
ma possono avere una dimensione così piccola che non avere rilevanza pratica. I
coefficienti del modello devono essere interpretati uno rispetto all'altro. Se un
coefficiente è più grande di un altro, vuol dire il suo effetto su quella variabile latente è
maggiore. Specificatamente, i singoli coefficienti percorso nel modello possono essere
interpretati come dei coefficienti standardizzati in una regressione OLS (Hair, Hult,
Ringle, & Sarstedt, 2014).
L'obiettivo principale dei PLS-SEM è quello di individuare non solo la significatività dei
coefficienti di percorso nel modello strutturale ma anche gli effetti e la loro rilevanza
nel modello. Inoltre dobbiamo valutare non solo l'effetto diretto di un costrutto su un
altro, ma anche gli eventuali effetti indiretti attraverso uno o più costrutti, costruiti
mediante effetto di mediazione. La somma degli effetti diretti e indiretti viene
identificato come effetto totale.
La misura più comunemente utilizzata per valutare il modello strutturale è il
coefficiente di determinazione R2. Questo coefficiente è una misura predittiva del
modello e esso rappresenta la percentuale di varianza della variabile latente
(dipendente nella regressione) spiegata dalle variabili latenti che la precedono
(indipendenti nella regressione). Il valore R2 varia da 0 a 1 con valori più elevati che
78
indicano una elevata accuratezza predittiva del modello. Non esiste una regola pratica
di accettazione di questo valore, ma dipende dalla complessità del modello e della
disciplina di ricerca. Mentre i valori di R2 di 0,20 possono essere considerati accettabili
nei comportamenti dei consumatori, in altri studio sui driver di successo (ad esempio
nello spiegare la soddisfazione o la fedeltà del cliente) ci si aspettano valori molto
elevati comunque al di sopra di 0,75. A livello accademico e su questioni di marketing, i
valori di R2 di 0,75-0,50-0,25 delle variabili latenti possono essere descritte come
un'accuratezza predittiva rispettivamente alta, moderata o debole (Hair, Ringle, &
Sarstedt, 2011).
Se usiamo solo R2 come unica elemento per comprendere l'accuratezza predittiva di un
modello, si ha la tendenza a sopravvalutare il modelli con molte variabili indipendenti.
Questo perché più sono i percorsi che puntano su un determinato costrutto di
destinazione, maggiore sarà il valore di R2. Perciò selezionare un modello rispetto a un
altro valutando solo R2 non è l'unico approccio: si devono selezionare i modelli che
meglio si adattano a spiegare i dati (e quindi con un valore elevato di R2) ma che hanno
anche un minor numero di costrutti,in modo da avere modelli di parsimoniosi. Come
nei modelli di regressione multipla, il valore di R2 aggiustato viene utilizzato come
criterio per evitare distorsioni in modelli complesse (Hair, Hult, Ringle, & Sarstedt,
2014).
Oltre a valutare i valori di R2 su tutte le variabili indipendenti, possiamo osservare
anche la variazione dei valori di R2 quando un costrutto indipendente viene rimosso dal
modello: questo può essere utilizzato per valutare se il costrutto omesso ha un effetto
sostanziale sui costrutti dipendenti. La variazione dei valori di R2 si calcola stimando
due modelli di percorso differenti di PLS-SEM. La procedure è molto semplice: prima si
calcola il modello che include tutte le variabili latenti dipendenti, successivamente si
stima un secondo modello dal quale è stata esclusa una variabile latente. Attraverso il
coefficiente f2 possiamo identificare quale è stato effetto dell'eliminazione del
costrutto e possiamo definire questo effetto come piccolo (0,02), medio (0,15)o
grande (0,35) impatto sull'intera modello (Cohen, 1998).
79
Oltre a valutare la grandezza dei valori di R² come criterio di precisione predittiva del
modello percorso, possono esaminare anche il valore Q² di Stone-Geisser come criterio
di rilevanza predittiva, cioè di precisione della stima delle variabili latenti. Il valore Q² si
ottiene utilizzando la procedura di blindfolding (Geisser, 1974). La procedura di
blindfolding è applicata solo ai costrutti latenti nei modello di misurazione riflettente.
Blindfolding è una tecnica di riutilizzo del campione che inizia con il primo e elimina
ogni d-esimo dati negli indicatori. Quindi, la procedura calcola i parametri del modello
di percorso PLS utilizzando i dati rimanenti. I dati omessi sono considerati valori
mancanti e trattati di conseguenza (ad esempio, utilizzando la sostituzione di valore
medio). Le stime risultanti vengono quindi utilizzate per predire i dati omessi. La
differenza tra i dati veri (cioè, quelli omessi) e quelli previsti viene quindi utilizzata
come input per la misura Q² (Stone, 1974).
Blindfolding è un processo iterativo. Nella successiva iterazione, l'algoritmo inizia con il
secondo dati e continua come descritto in precedenza. Dopo ogni iterazione, ogni dati
è stato omesso e il modello viene riesaminato. Quando PLS-SEM mostra rilevanza
predittiva, prevede accuratamente i dati degli indicatori un valore Q² maggiore di 0 per
una determinata variabile latente indica la rilevanza predittiva del modello di percorso
per questo particolare costrutto (Hair, Hult, Ringle, & Sarstedt, 2014). Come già detto,
questo criterio è applicabile alle variabili latenti con modelli di misura riflessivi e a
quelle a singolo elemento. I valori Q2 stimati attraverso la procedura Blindfolding
rappresentano una misura di quanto bene il modello di percorso può prevedere i valori
originariamente osservati.
80
81
CAPITOLO 6 - La PLS-SEM nell'analisi delle opinioni degli
studenti dell'Università di Gazi di Ankara in Turchia
Per comprendere al meglio la funzionalità e la potenzialità dei modelli di equazioni
strutturali con PLS applicata alla Customer Satifaction andremo a sviluppare un’analisi
sulle opinioni degli studenti dell'Università di Gazi di Ankara in Turchia.
L'idea iniziale era quella di utilizzare come base di analisi della CS sulle opinioni degli
studenti il database che l'Università IULM possiede in quanto ai propri studenti si
richiede di compilare un questionario valutativo di ogni singolo corso prima di
prenotarsi per sostenere un esame e metterli a confronto con almeno un altro
database di altre Università. Per motivi legati a politiche sulla privacy dell'università,
non abbiamo avuto l'opportunità di elaborare tali dati. Per questa esigenza abbiamo
optato, per compiere la nostra analisi, l'adozione di un database di pubblico dominio
distribuito gratuitamente dal sito http://cml.ics.uci.edu/ (Center for Machine Learning
and Intelligent Systems by Irvine, University of California, Bren School of Information
and Computer Science) del dataset dal nome Turkiye Student Evaluation Data Set in
quanto validato a livello internazionale, rispettoso degli standard imposti a livello
internazionale e molto simile al questionario utilizzato dalla IULM.
Il set di dati è proviene dal dipartimento di statistica dell'Università di Gazi di Ankara in
Turchia e contiene punteggi di valutazione forniti da 5820 studenti dell’ Università. La
data di pubblicazione del data set risale al 1 Settembre 2013. Esso è composto da 28
domande specifiche di valutazione del corso e 5 attributi. Le domande sottoposte agli
studenti sono identificate attraverso il codice Q1-Q28, si basano su scala di Likert da 1
a 5: da 1 "per nulla soddisfatto" fino a 5 "pienamente soddisfatto". I 5 attributi sono il
codice identificativo dei docenti (da 1 a 3), i diversi corsi (da 1 a 13), il numero di volte
in cui lo studente ha ripetuto un corso, il livello di presenza del corso durante l'anno
accademico (da 0 a 4 dove 0 è il minimo) e il livello di difficoltà percepita del percorso
intrapreso dallo studente, espresso con una scala di Likert da 1 "poco difficile" a
5"molto difficile", in realtà esso non è propriamente un attributo ma una valutazione.
82
Nella tabella sottostante potete leggere le domande che sono state sottoposte agli
studenti.
Tabella 1 - Domande sottoposte agli studenti per indagare il livello di soddisfazione
Q1: Il contenuto del corso semestrale, il metodo e la valutazione del sistema di insegnamento sono stati forniti alla partenza.
Q2: Gli obiettivi e il corso che si propone, sono stati chiaramente indicato all'inizio del periodo.
Q3: Il corso valeva l'importo del credito assegnato.
Q4: Il corso è stato tenuto in base al programma annunciato il primo giorno di lezione.
Q5: Le discussioni in classe, i compiti a casa, le applicazioni e gli studi sono stati soddisfacenti.
Q6: Il libro di testo e le altre risorse del corso sono stati sufficienti e adeguatamente aggiornati.
Q7: Il corso ha permesso il lavoro sul campo, applicazioni, laboratori, discussioni e altri studi.
Q8: i quiz, le assegnazioni, i progetti e gli esami hanno contribuito ad aiutare l'apprendimento.
Q9: Ho molto gradito la classe ed ero impaziente di partecipare attivamente durante le lezioni.
Q10: Le mie aspettative iniziali sul corso sono state raggiunte al termine del periodo o anno.
Q11: Il corso è stato rilevante e vantaggioso per la mia crescita professionale.
Q12: Il corso mi ha aiutato a guardare la vita e il mondo con una nuova prospettiva.
Q13: la conoscenza del docente era rilevante e aggiornata.
Q14: Il Docente è venuto preparato durante le lezioni.
Q15: Il Docente ha insegnato secondo il piano di lezione annunciato.
Q16: Il Docente si è impegnato durante il corso ed era comprensibile.
Q17: Il Docente è arrivato puntuale per le lezioni.
Q18: Il Docente si è espresso in modo adeguato e facile da seguire.
Q19: Il Docente ha fatto un uso efficace delle ore di lezione.
Q20: Il Docente ha spiegato il corso ed era desideroso di essere disponibile per gli studenti.
Q21: Il Docente ha dimostrato un approccio positivo per gli studenti.
Q22: Il Docente era aperto e rispettoso delle opinioni digli studenti sul corso.
Q23: Il Docente ha incoraggiato la partecipazione al corso.
Q24: Il Docente ha dato importanti compiti a casa/progetti, e ha contribuito a guidare i studenti.
Q25: Il Docente ha risposto alle domande durante e fuori dal corso.
Q26: Il sistema di valutazione del docente (domande intermedia e finale, i progetti, le assegnazioni, ecc) misura in modo efficace gli obiettivi del corso.
Q27: Il Docente ha fornito le soluzioni per gli esami e li ha discusso con gli studenti.
Q28: Il Docente tratta tutti gli studenti in modo giusto ed obiettivo.
Il primo passaggio da compiere per trarre conclusioni solide e statisticamente valide è
quello di comprendere la composizione del data set. Per far questo usufruiremo di
diverse tecniche statistiche (analisi di statistica descrittiva, analisi di contingenza e
analisi fattoriale) che ci premettono di definire la struttura del modello e
successivamente procederemo con un processo di "pulitura dei dati" (una sequenza di
modifiche del modello strutturale) che ci permetterà di comprendere quali variabili
sono più o meno utili per la nostra analisi della CS delle opinioni degli studenti.
83
6.1 Analisi del dataset
Al fine di costruire il nostro modello di PLS-SEM, bisogna comprendere in modo
adeguato il database che stiamo utilizzando per l'analisi. Accediamo a questa fase
preliminare attraverso l'utilizzo di un’analisi di statistica descrittiva (per compiere
questa operazione ci siamo avvalsi del software IBM SPSS Statistics versione 20.1) che
ci permetterà di comprendere in modo più dettagliato ogni singolo item. La fase
preliminare è l'analisi descrittiva delle variabili nel dataset, che eseguiamo
separatamente per le valutazioni e per gli attributi.
Tabella 2 - Analisi Descrittiva (Valutazioni)
N Media Deviazione
std. Asimmetria Curtosi Min. Max
Q01: The semester course content, teaching method and evaluation system were provided at the start
5820 2,93 1,341 -0,046 -1,143 1 5
Q02: The course aims and objectives were clearly stated at the beginning of the period
5820 3,07 1,285 -0,204 -0,978 1 5
Q03: The course was worth the amount of credit assigned to it 5820 3,18 1,254 -0,318 -0,828 1 5
Q04: The course was taught according to the syllabus announced on the first day of class
5820 3,08 1,285 -0,207 -0,975 1 5
Q05: The class discussions, homework assignments, applications and studies were satisfactory
5820 3,11 1,279 -0,218 -0,95 1 5
Q06: The textbook and other courses resources were sufficient and up to date
5820 3,11 1,281 -0,23 -0,945 1 5
Q07: The course allowed field work, applications, laboratory, discussion and other studies
5820 3,07 1,279 -0,189 -0,967 1 5
Q08: The quizzes, assignments, projects and exams contributed to helping the learning
5820 3,04 1,283 -0,134 -0,991 1 5
Q09: I greatly enjoyed the class and was eager to actively participate during the lectures
5820 3,17 1,269 -0,279 -0,87 1 5
Q10: My initial expectations about the course were met at the end of the period or year
5820 3,09 1,275 -0,201 -0,935 1 5
Q11: The course was relevant and beneficial to my professional development
5820 3,18 1,295 -0,297 -0,928 1 5
Q12: The course helped me look at life and the world with a new perspective
5820 3,04 1,306 -0,144 -1,029 1 5
Q13: The Instructor's knowledge was relevant and up to date 5820 3,24 1,264 -0,377 -0,809 1 5
Q14: The Instructor came prepared for classes 5820 3,29 1,255 -0,432 -0,743 1 5
Q15: The Instructor taught in accordance with the announced lesson plan
5820 3,29 1,253 -0,43 -0,732 1 5
Q16: The Instructor was committed to the course and was understandable
5820 3,17 1,288 -0,289 -0,919 1 5
Q17: The Instructor arrived on time for classes 5820 3,4 1,268 -0,535 -0,664 1 5
Q18: The Instructor has a smooth and easy to follow delivery/speech
5820 3,22 1,28 -0,347 -0,862 1 5
Q19: The Instructor made effective use of class hours
5820 3,26 1,268 -0,385 -0,799 1 5
Q20: The Instructor explained the course and was eager to be helpful to students
5820 3,29 1,277 -0,401 -0,806 1 5
84
Q21:The Instructor demonstrated a positive approach to students
5820 3,31 1,27 -0,423 -0,772 1 5
Q22:The Instructor was open and respectful of the views of students about the course
5820 3,32 1,268 -0,435 -0,756 1 5
Q23:The Instructor encouraged participation in the course 5820 3,2 1,273 -0,309 -0,861 1 5
Q24:The Instructor gave relevant homework assignments/projects, and helped/guided students
5820 3,17 1,276 -0,273 -0,899 1 5
Q25:The Instructor responded to questions about the course inside and outside of the course
5820 3,31 1,257 -0,436 -0,731 1 5
Q26:The Instructor's evaluation system (midterm and final questions, projects, assignments, etc) effectively measured the course objectives
5820 3,22 1,271 -0,346 -0,837 1 5
Q27:The Instructor provided solutions to exams and discussed them with students
5820 3,15 1,292 -0,277 -0,947 1 5
Q28:The Instructor treated all students in a right and objective manner
5820 3,31 1,279 -0,427 -0,786 1 5
Si evince dalle tabelle sovrastanti l’assenza di valori mancanti che successivamente ci
permette di non applicare nessuna tecnica di risoluzione di tale problema. Un ulteriore
elemento suscettibile d’attenzione è constatare ed evidenziare una eventuale non
normalità dei dati, ancorché il PLS sia poco sensibile alle deviazioni dei dati dalla
normalità. Consideriamo a questo fine i valori di asimmetria e curtosi: valori
dell'asimmetria sono tutti ampiamente all'interno del range (-1, +1), quindi le
valutazioni sono tutte accettabilmente simmetriche; i valori di curtosi sono in genere
un po' più elevati, ma una sola valutazione è esterna al range accettabile (Q01: The
semester course content, teaching method and evaluation system were provided at
the start: curtosi = -1,143). A questo livello di analisi si può quindi concludere che i dati
oggetto di analisi non mostrano violazioni gravi delle ipotesi di normalità.
Tabella 3 - Analisi Descrittiva (Attributi)
N Media
Deviazione std.
Asimmetria Curtosi Minimo Massimo
Instructor's identifier {1,2,3} 5820
1 3
Course code {1-13} 5820
1 13
Number of times the student is taking this course
5820 1,21 ,532 2,438 4,789 1 3
Level of attendance {0, 1, 2, 3, 4} 5820 1,68 1,475 ,230 -1,411 0 4
L'analisi descrittiva degli attributi è stata approfondita anche tramite tabelle di
frequenza e tavole di contingenza. La combinazione delle variabili docente e corso
(Tabella 4) mostra che dei 13 corsi presenti nel database, solo nel 13esimo sono
presenti due docenti mentre nei restanti corsi si è valutato un solo docente, cioè 12
corsi su 13 sono tenuti da un solo docente. Osserviamo inoltre che né la distribuzione
85
dei docenti (ultima riga di Tabella 4) né quella dei corsi (ultima colonna di Tabella 4)
sono uniformi. Ai nostri fini - e in assenza di maggiori dettagli - possiamo ritenere che
ciò corrisponda all'effettiva suddivisione degli studenti tra i diversi corsi. Quello che è
rilevante sottolineare è che la numerosità per singolo docente e per singolo corso è
sempre sufficiente per replicare l'analisi del modello strutturale a livello individuale, e
quindi sono possibili, se interessanti, approfondimenti per docente o per corso. Fa
eccezione solo il corso 12, con 41 casi: troppo pochi per una analisi individuale.
Tabella 4 - Tavola di contingenza (Course code {1-13} * Instructor's identifier {1,2,3})
Instructor's identifier {1,2,3} Totale
1 2 3
Course code {1-13}
1 0 303 0 303 5,21%
2 140 0 0 140 2,41%
3 0 0 904 904 15,53%
4 0 0 187 187 3,21%
5 0 0 656 656 11,27%
6 0 558 0 558 9,59%
7 187 0 0 187 3,21%
8 0 0 500 500 8,59%
9 0 0 571 571 9,81%
10 448 0 0 448 7,70%
11 0 484 0 484 8,32%
12 0 0 41 41 0,70%
13 0 99 742 841 14,45%
Totale 775 1444 3601 5820 100%
13% 25% 62% 100%
Ulteriore dettaglio da visionare riguardo l'analisi descrittiva del database sono gli altri
tre attributi presenti: quanto volte gli studenti hanno ripetuto l'esame, qual è il livello
di frequenza dei corsi e qual è stata la difficoltà percepita del corso. Attraverso le
tabelle di frequenza (Tabella 5) possiamo notare che: più del 84% non ha ripetuto
l'esame, 1/3 si è applicato poco o nulla e 30% degli studenti ha percepito un livello di
difficoltà dei corsi medio. Riprendere qui la media, desunta dalla tabella descrittive.
Per ulteriori dettagli è possibile osservare le tabelle sottostanti. Tutti questi valori
saranno utili quando costruiremo il nostro modello di equazioni strutturali.
86
Tabella 5 - Tabelle di Frequenza
Number of times the student is taking this course
Frequenza Percentuale Percentuale valida Percentuale
cumulata
Validi
1 4909 84,3 84,3 84,3
2 576 9,9 9,9 94,2
3 335 5,8 5,8 100,0
Totale 5820 100,0 100,0
Level of attendance {0, 1, 2, 3, 4}
Frequenza Percentuale Percentuale valida Percentuale
cumulata
Validi
0 1902 32,7 32,7 32,7
1 1028 17,7 17,7 50,3
2 792 13,6 13,6 64,0
3 1252 21,5 21,5 85,5
4 846 14,5 14,5 100,0
Totale 5820 100,0 100,0
Level of difficulty as perceived by the student {1,2,3,4,5}
Frequenza Percentuale Percentuale valida Percentuale
cumulata
Validi
1 1620 27,8 27,8 27,8
2 549 9,4 9,4 37,3
3 1774 30,5 30,5 67,7
4 1225 21,0 21,0 88,8
5 652 11,2 11,2 100,0
Totale 5820 100,0 100,0
Per definire il modello di equazioni strutturali possiamo usare in parallelo due
approcci: uno teorico-esperienziale, basato su considerazioni ipotetiche e soggettive
(metodo qualitativo), e l'altro matematico-statistico (metodo quantitativo). Sul piano
quantitativo, per costruire il modello di equazioni strutturali dobbiamo porci la
domanda: esiste una forma di raggruppamento "spontanea" in blocchi distinti delle
87
domande di valutazione Q1-Q28 sottoposte agli studenti? Per rispondere a questo
quesito, abbiamo eseguito un'analisi fattoriale delle 28 valutazioni. Il primo risultato
dell'analisi (Tabella 5) è stato ottenuto estraendo due fattori, che rappresentano l'87%
della varianza, e ruotandoli con metodo varimax.
Tabella 6 - Analisi Fattoriale variabili Q1-Q28
Componente Autovalori iniziali Pesi dei fattori non ruotati
Totale % di varianza % cumulata Totale % di varianza % cumulata
1 23,041 82,289 82,289 23,041 82,289 82,289
2 1,253 4,475 86,764 1,253 4,475 86,764
3 ,395 1,410 88,174
4 ,361 1,289 89,463
5 ,290 1,035 90,498
6 ,256 ,915 91,413
7 ,204 ,729 92,142
8 ,183 ,655 92,797
9 ,172 ,616 93,413
10 ,143 ,510 93,922
11 ,138 ,493 94,416
12 ,137 ,489 94,905
13 ,119 ,425 95,330
14 ,116 ,416 95,746
15 ,114 ,408 96,154
16 ,110 ,392 96,545
17 ,106 ,378 96,923
18 ,101 ,359 97,282
19 ,095 ,340 97,623
20 ,093 ,331 97,954
21 ,085 ,302 98,256
22 ,084 ,301 98,557
23 ,080 ,287 98,845
24 ,077 ,276 99,121
25 ,071 ,253 99,374
26 ,068 ,242 99,616
27 ,056 ,199 99,815
28 ,052 ,185 100,000
Matrice dei componenti ruotataa
Componente
1 2
The semester course content, teaching method and evaluation system were provided at the start ,339 ,831
88
The course aims and objectives were clearly stated at the beginning of the period ,474 ,798
The course was worth the amount of credit assigned to it ,559 ,707
The course was taught according to the syllabus announced on the first day of class ,455 ,800
The class discussions, homework assignments, applications and studies were satisfactory ,505 ,794
The textbook and other courses resources were sufficient and up to date ,498 ,778
The course allowed field work, applications, laboratory, discussion and other studies ,469 ,816
The quizzes, assignments, projects and exams contributed to helping the learning ,459 ,815
I greatly enjoyed the class and was eager to actively participate during the lectures ,541 ,711
My initial expectations about the course were met at the end of the period or year ,527 ,789
The course was relevant and beneficial to my professional development ,560 ,695
The course helped me look at life and the world with a new perspective ,478 ,768
The Instructor's knowledge was relevant and up to date ,763 ,549
The Instructor came prepared for classes ,804 ,508
The Instructor taught in accordance with the announced lesson plan ,801 ,506
The Instructor was committed to the course and was understandable ,718 ,600
The Instructor arrived on time for classes ,842 ,381
The Instructor has a smooth and easy to follow delivery/speech ,775 ,529
The Instructor made effective use of class hours ,799 ,510
The Instructor explained the course and was eager to be helpful to students ,828 ,473
The Instructor demonstrated a positive approach to students ,844 ,449
The Instructor was open and respectful of the views of students about the course ,846 ,446
The Instructor encouraged participation in the course ,764 ,557
The Instructor gave relevant homework assignments/projects, and helped/guided students ,724 ,584
The Instructor responded to questions about the course inside and outside of the course ,835 ,456
The Instructor's evaluation system (midterm and final questions, projects, assignments, etc)
effectively measured the course objectives ,764 ,531
The Instructor provided solutions to exams and discussed them with students ,711 ,558
The Instructor treated all students in a right and objective manner ,824 ,443
Metodo estrazione: analisi componenti principali.
Metodo rotazione: Varimax con normalizzazione di Kaiser.
a. La rotazione ha raggiunto i criteri di convergenza in 3 iterazioni.
I due fattori corrispondono a due aree ben definite relative al corso e al docente. Ma
un modello in cui solamente due fattori possono delineare l'indice di soddisfazione
degli studenti è troppo riduttivo. Con lo scopo di rendere più articolato e dettagliato il
modello ed evidenziare al meglio le diverse sfaccettature della soddisfazione degli
studenti abbiamo eseguito nuovamente l’analisi fattoriale, separatamente per le
singole aree: corso e docente.
Tabella 7 - Analisi Fattoriale e matrice dei componenti ruotata variabili Q1-Q12"corso"
89
Componente Autovalori iniziali Pesi dei fattori non ruotati
Totale % di varianza % cumulata Totale % di varianza % cumulata
1 10,104 84,201 84,201 10,104 84,201 84,201
2 ,412 3,432 87,633 ,412 3,432 87,633
3 ,269 2,240 89,873 ,269 2,240 89,873
4 ,238 1,985 91,858 ,238 1,985 91,858
5 ,197 1,643 93,501
6 ,143 1,195 94,696
7 ,128 1,065 95,761
8 ,118 ,983 96,744
9 ,111 ,924 97,669
10 ,101 ,841 98,510
11 ,090 ,751 99,262
12 ,089 ,738 100,000
Matrice dei componenti ruotataa
Componente
1 2 3 4
The semester course content, teaching method and evaluation system were provided at
the start ,350 ,343 ,819 ,213
The course aims and objectives were clearly stated at the beginning of the period ,402 ,396 ,645 ,428
The course was worth the amount of credit assigned to it ,418 ,386 ,404 ,682
The course was taught according to the syllabus announced on the first day of class ,349 ,463 ,640 ,389
The class discussions, homework assignments, applications and studies were satisfactory ,395 ,635 ,452 ,388
The textbook and other courses resources were sufficient and up to date ,398 ,693 ,366 ,376
The course allowed field work, applications, laboratory, discussion and other studies ,454 ,699 ,407 ,268
The quizzes, assignments, projects and exams contributed to helping the learning ,503 ,662 ,419 ,217
I greatly enjoyed the class and was eager to actively participate during the lectures ,666 ,411 ,323 ,383
My initial expectations about the course were met at the end of the period or year ,593 ,561 ,407 ,295
The course was relevant and beneficial to my professional development ,763 ,340 ,300 ,372
The course helped me look at life and the world with a new perspective ,733 ,411 ,432 ,159
Metodo estrazione: analisi componenti principali.
Metodo rotazione: Varimax con normalizzazione di Kaiser.
a. La rotazione ha raggiunto i criteri di convergenza in 7 iterazioni.
Tabella 8 - Analisi Fattoriale e matrice dei componenti ruotata variabili Q13-Q28 "docente"
Componente Autovalori iniziali Pesi dei fattori non ruotati
Totale % di varianza % cumulata Totale % di varianza % cumulata
1 14,086 88,037 88,037 14,086 88,037 88,037
2 ,343 2,141 90,178 ,343 2,141 90,178
90
3 ,286 1,789 91,967
4 ,183 1,143 93,110
5 ,142 ,887 93,997
6 ,132 ,828 94,825
7 ,115 ,718 95,542
8 ,110 ,685 96,228
9 ,099 ,619 96,847
10 ,089 ,555 97,402
11 ,085 ,533 97,935
12 ,079 ,495 98,430
13 ,073 ,455 98,885
14 ,069 ,432 99,317
15 ,057 ,355 99,672
16 ,052 ,328 100,000
Matrice dei componenti ruotata
Componente
1 2
The Instructor's knowledge was relevant and up to date ,703 ,625
The Instructor came prepared for classes ,758 ,583
The Instructor taught in accordance with the announced lesson plan ,755 ,582
The Instructor was committed to the course and was understandable ,582 ,740
The Instructor arrived on time for classes ,867 ,410
The Instructor has a smooth and easy to follow delivery/speech ,662 ,668
The Instructor made effective use of class hours ,703 ,637
The Instructor explained the course and was eager to be helpful to students ,744 ,598
The Instructor demonstrated a positive approach to students ,751 ,590
The Instructor was open and respectful of the views of students about the course ,748 ,594
The Instructor encouraged participation in the course ,576 ,767
The Instructor gave relevant homework assignments/projects, and helped/guided students ,508 ,813
The Instructor responded to questions about the course inside and outside of the course ,710 ,628
The Instructor's evaluation system (midterm and final questions, projects, assignments, etc)
effectively measured the course objectives ,571 ,750
The Instructor provided solutions to exams and discussed them with students ,455 ,830
The Instructor treated all students in a right and objective manner ,706 ,609
Metodo estrazione: analisi componenti principali.
Metodo rotazione: Varimax con normalizzazione di Kaiser.
a. La rotazione ha raggiunto i criteri di convergenza in 3 iterazioni.
Per il macrofattore “corso”, abbiamo estratto tre fattori, corrispondenti al 92% della
varianza e che abbiamo ruotato col metodo varimax; li abbiamo identificati come:
materiale del corso (item Q05, Q06, Q07 e Q08: le discussioni in classe, i compiti a
91
casa, le applicazioni e gli studi sono stati soddisfacenti; il libro di testo e le altre risorse
del corso sono stati sufficienti e adeguatamente aggiornati; il corso ha permesso il
lavoro sul campo, applicazioni, laboratori, discussioni e altri studi; i quiz, le
assegnazioni, i progetti e gli esami hanno contribuito ad aiutare l'apprendimento),
presentazione del corso (item Q01, Q02 e Q04: il contenuto del corso semestrale, il
metodo e la valutazione del sistema di insegnamento sono stati forniti alla partenza; gli
obiettivi e il corso che si propone, sono stati chiaramente indicato all'inizio del periodo;
il corso è stato tenuto in base al programma annunciato il primo giorno di lezione) e
crediti del corso (item Q03: Il corso valeva l'importo del credito assegnato).
Da questo blocco d’analisi, altro elemento da evidenziare è l'identificazione di quattro
variabili (item da Q9 a Q12: ho molto gradito la classe ed ero impaziente di partecipare
attivamente durante le lezioni; le mie aspettative iniziali sul corso sono state raggiunte
al termine del periodo o anno; il corso è stato rilevante e vantaggioso per la mia
crescita professionale; il corso mi ha aiutato a guardare la vita e il mondo con una
nuova prospettiva) che hanno un significato di overall della CS, poiché rappresentano
sostanzialmente il livello di soddisfazione che lo studente esplicita direttamente circa
l'intero percorso di studio. Sottolineiamo questo elemento perché si demarca una
differenza rispetto al modello utilizzato nei questionari dall'Università IULM che
inserisce sono una sola domanda sulla valutazione overall della soddisfazione.
Misurare la CS con quattro variabili anziché una permette di avere più gradi di libertà e
meno rigidità nel modello, quindi una migliore ottimizzazione complessiva e un indice
di CS più robusto.
Nel macrofattore "docente" esiste una forte correlazione fra i dati, che tenderebbe a
concentrare tutti gli item in un unico fattore. Abbiamo tuttavia deciso di forzare
l'analisi fattoriale ed estrarre due fattori, corrispondenti al 90% della varianza e ruotati
col metodo varimax, e li abbiamo identificati come: area relazionale (item da Q14 a
Q18, da Q20 a Q22, Q25 e Q28:il docente è venuto preparato durante le lezioni; il
docente ha insegnato secondo il piano di lezione annunciato; il docente si è impegnato
durante il corso ed era comprensibile; ...... ; il docente tratta tutti gli studenti in modo
giusto ed obiettivo) ed efficacia nell'insegnamento (item Q13, Q19, da Q23,Q24, Q26
e Q27:la conoscenza del docente era rilevante e aggiornata; il docente ha fatto un uso
92
efficace delle ore di lezione;..... ;il docente ha fornito le soluzioni per gli esami e li ha
discusso con gli studenti).
Nella tabella successiva riassumiamo i cinque fattori individuati più la CS che
costituiranno le variabili latenti del modello; per ciascuna di esse le variabili manifeste
saranno identificate - almeno in prima approssimazione - con gli item che presentano
le correlazioni maggiori con il fattore.
Tabella 9 - Schema riepilogativo per la costruzione del modello di SEM
Customer Satisfacion
Q9: Ho molto gradito la classe ed ero impaziente di partecipare attivamente durante le lezioni.
Q10: Le mie aspettative iniziali sul corso sono state raggiunte al termine del periodo o anno.
Q11: Il corso è stato rilevante e vantaggioso per la mia crescita professionale.
Q12: Il corso mi ha aiutato a guardare la vita e il mondo con una nuova prospettiva.
Macroarea "Corso"
Crediti Q3: Il corso valeva l'importo del credito assegnato.
Presentazione
Q1: Il contenuto del corso semestrale, il metodo e la valutazione del sistema di insegnamento sono stati forniti alla partenza.
Q2: Gli obiettivi e il corso che si propone, sono stati chiaramente indicato all'inizio del periodo.
Q4: Il corso è stato tenuto in base al programma annunciato il primo giorno di lezione.
Materiale
Q5: Le discussioni in classe, i compiti a casa, le applicazioni e gli studi sono stati soddisfacenti.
Q6: Il libro di testo e le altre risorse del corso sono stati sufficienti e adeguatamente aggiornati.
Q7: Il corso ha permesso il lavoro sul campo, applicazioni, laboratori, discussioni e altri studi.
Q8: i quiz, le assegnazioni, i progetti e gli esami hanno contribuito ad aiutare l'apprendimento.
Macroarea "Docente"
Relazione
Q14: Il Docente è venuto preparato durante le lezioni.
Q15: Il Docente ha insegnato secondo il piano di lezione annunciato.
Q16: Il Docente si è impegnato durante il corso ed era comprensibile.
Q17: Il Docente è arrivato puntuale per le lezioni.
Q18: Il Docente si è espresso in modo adeguato e facile da seguire.
Q20: Il Docente ha spiegato il corso ed era desideroso di essere disponibile per gli studenti.
Q21: Il Docente ha dimostrato un approccio positivo per gli studenti.
Q22: Il Docente era aperto e rispettoso delle opinioni digli studenti sul corso.
Q25: Il Docente ha risposto alle domande durante e fuori dal corso.
Q28: Il Docente tratta tutti gli studenti in modo giusto ed obiettivo.
Efficacia
Q13: la conoscenza del docente era rilevante e aggiornata.
Q19: Il Docente ha fatto un uso efficace delle ore di lezione.
Q23: Il Docente ha incoraggiato la partecipazione al corso.
Q24: Il Docente ha dato importanti compiti a casa/progetti, e ha contribuito a guidare i studenti.
Q26: Il sistema di valutazione del docente (domande intermedia e finale, i progetti, le assegnazioni, ecc) misura in modo efficace gli obiettivi del corso.
93
Q27: Il Docente ha fornito le soluzioni per gli esami e li ha discusso con gli studenti.
Prima di procedere con la costruzione di un modello di base per effettuare le nostre
analisi, verifichiamola consistenza interna di ogni singolo costrutto,ovvero verifichiamo
la coerenza tra le variabili manifeste di ogni variabile latente raggruppate nella
specifica etichetta (macroaree). Per far ciò ci avvaliamo del coefficiente Alpha di
Cronbach. Nella tabella 10 notiamo che tutti i predittivi (variabili latenti in PLS-SEM),
che abbiamo individuato e verificato, presentano un'altissima consistenza interna e
superano la soglia di accettazione di 0,70: raggiungendo e oltrepassando il valore di
0,95. Inoltre, provando a verificare un eventuale consistenza interna tra le variabili
"livelli di difficoltà" e "livello di frequenza" non è stata riscontrata un adeguata
coerenza tra le variabili.
Tabella 10 - Coerenza interna su tutte le variabili attraverso analisi di Alpha di Cronbach
Variabile manifesta Codifica item Alfa di Cronbach
Customer Satisfaction Q09: Q10; Q11; Q12;
0,958
Presentazione Q01; Q02; Q04; 0,95
Materiale Q05; Q06; Q07; Q08;
0,968
Relazione Q14; Q15; Q16; Q17; Q20; Q21; Q22; Q25; Q28
0,985
Efficacia Q13; Q19; Q23; Q24; Q26; Q27
0,976
6.2 La Costruzione del Modello di Base (Prototipo) ed eventuali Ipotesi di
sviluppo
Termina così la fase preliminare che consiste nelle verifiche preliminari sul database e
nell'identificazione delle variabili latenti. Al fine di realizzare il modello di CS degli
studenti dell'Università di Gazi, ci avvaliamo del software SmartPLS (è un software
ideato e sviluppato da F. Hair, attuale DBA Director e Cleverdon Chair of Business
94
dell'Università del sud dell'Alabama negli USA; distribuito da SmartPLS GmbH con la
versione 2.0 gratuita e l'ultima versione a pagamento molto più potente con una
periodo di prova di 30 giorni; disponibile sul sito https://www.smartpls.com; esso è
programmato in Java e può essere eseguito su diversi sistemi operativi come Windows
e Mac), è specificatamente disegnato per lo sviluppo di algoritmi PLS-SEM e dotato di
una comoda interfaccia grafica.
Esponiamo di seguito le varie fasi della realizzazione del prototipo di base della nostra
equazione strutturale. Le variabili latenti prese in considerazioni sono:
• materiale del corso;
• presentazione del corso;
• crediti del corso;
• grado di relazione del docente;
• efficacia del docente nell'insegnamento;
• Customer Satisfacion.
Il modello interno che descrive le relazioni tra le variabili latenti e la CS nella sua
versione più semplice è riportato in figura sottostante.
Figura11 - Prototipo Modello Interno
95
Delineato il modello, procediamo con la costruzione del modello di misurazione
(modello esterno), che descrive le relazioni tra le variabili latenti e le loro variabili
manifeste (misure). Attuando un ragionamento logico-dedutivo al fine di configurare in
modo adeguato il modello di misurazione (modello esterno), si è deciso di adottare per
tutte le variabili latenti una relazione di tipo riflessivo. Il passaggio successivo è di
assegnare le variabili-indicatori manifeste (domande del questionario) alle singole
variabili latenti (costrutti) e per fare ciò ci avvaliamo dell'analisi fattoriale eseguita
nella fase preliminare, come riportato in figura 12.
Figura12 - Prototipo Modello Esterno ed Interno
Assegnate le variabili manifeste ai singoli costrutti (variabili latenti) e avendole
collegate al costrutto Customer Satifaction, abbiamo posto le fondamenta per lanciare
l'algoritmo che ci restituirà valori che indicheranno quanto ogni singolo costrutto pesa
(cioè ha maggiore valenza) sulla soddisfazione globale degli studenti. Adesso possiamo
eseguiamo il calcolo dell'algoritmo, cioè la stima dei parametri del modello,utilizzando
i valori opzionali standard, già discussi della nei capitoli precedenti, e osservare i
risultati riportati nella figura sottostante.
96
Figura13 - Risultati Algoritmo Prototipo
Quali sono i risultati che l'algoritmo ha elaborato? Con sole 3 interazioni (indice di
solidità ed adeguatezza nella struttura del modello), il PLS individua un indice di CS con
R2 =0,89, cioè le variabili latenti spiegano complessivamente l'89% della Soddisfazione
degli utenti del caso che stiamo analizzando. Oltre a ciò l'algoritmo ci ha quantificato i
valori delle singole frecce rispetto la CS (path coefficient cioè i coefficienti di relazione
delle regressioni multiple) e dalla tabella sottostante riusciamo a quantificare quanto
pesano singolarmente le 5 variabili latenti che abbiamo individuato come elementi di
definizione dell'indice di CS; inoltre possiamo osserviamo come la variabile (macroarea
di osservazione del fenomeno analizzato) da noi etichettata"materiale del corso" è
quella con valore nettamente più elevata perciò predominante nel modello dai noi
costruito.
Tabella 14 - Path Coefficient variabili latenti su CS
Original Sample (O) T Statistics
Crediti -> Customer Satifaction
0,0855 0,5813
Customer Satifaction -> Frequenza Corso
0,169 1,6527
Efficacia Docente -> Customer Satifaction
0,1566 0,5065
97
Materiale Corso -> Customer Satifaction
0,5033 2,8656
Presentazione Corso -> Customer Satifaction
0,1053 0,6914
Relazione Docente -> Customer Satifaction
0,1341 0,4681
Per accettare il risultato bisogna effettuare i controlli sull'affidabilità e sulla validità del
modello, descritti del capito precedente. Per quanto concerne l'affidabilità del
modello, bisogna verificare che tutti gli outer loading abbiano un valore superiore a
0,70: nel nostro modello (Tabella 15) i valori sono tutti ampiamente sopra questa
soglia. Per la consistenza interna è necessario che la Composite Reliability abbia un
valore superiore a 0,70: nel nostro caso(tabella 15), lo supera abbondantemente.
Riguardo alla validità del modello, è necessario che l'AVE abbia valori superiori a 0,50 e
nella tabella seguente, che riassume i valori di check di controllo, si vede che supera
questo valore per ogni variabile latente. Per verificare la validità discriminante, è
necessario che la radice quadrata AVE di ogni singola variabile latente abbia un valore
uguale o superiore alla correlazione tra le variabili latenti, ed anche questo insieme di
valori risultano abbondantemente validati.
Tabella 15 - Check di controllo modello e correlazione variabili latenti, rielaborazione in Microsoft Excel
AVE Composite Reliability
R Square Cronbachs
Alpha Communality Redundancy
sqrt AVE
CS 0,8875 0,9693 0,8898 0,9577 0,8875 0,1234
0,942072184
Crediti 1 1 0 1 1 0
1
Materiale 0,9123 0,9765 0 0,9679 0,9123 0
0,955143968
Presentazione 0,9087 0,9676 0 0,9498 0,9087 0
0,953257573
Efficacia 0,8924 0,9803 0 0,9759 0,8924 0
0,944669254
Relazione 0,8923 0,9881 0 0,9866 0,8923 0
0,944616324
CS Crediti Materiale Presentazione Efficacia Relazione
CS 1 0 0 0 0 0 Crediti 0,853 1 0 0 0 0 Materiale 0,927 0,8611 1 0 0 0 Presentazione 0,8767 0,8558 0,906 1 0 0 Efficacia 0,8952 0,8399 0,8896 0,8444 1 0 Relazione 0,8798 0,839 0,8638 0,8231 0,9712 1
98
Ulteriore quesito da porci è: ’’I coefficienti del modello interno (path coefficient) sono
statisticamente significativi?’’. Per rispondere al quesito ci avvaliamo del
bootstrapping. Questa procedura permette di verificare la significatività dei
coefficienti, senza richiedere le ipotesi tipiche delle tecniche parametriche, come la
normalità delle distribuzioni. Dal grafico e dalla tabella sottostate possiamo notare
come in tutti i coefficienti del modello,sia interno che esterno (valori sulla frecce),
siano statisticamente significativi per un α = 0,05 per un test t a due code in quanto
nessun valore risulta compreso tra +2 e -2.
Grafico e Tabella 16 - Risultati Bootstrapping Prototipo
Original Sample
(O)
T Statistics
Crediti -> Customer Satifaction 0,0852 4,9994
Efficacia Docente -> Customer Satifaction 0,1575 4,3792
Materiale Corso -> Customer Satifaction 0,5035 20,699
Presentazione Corso -> Customer Satifaction 0,1056 5,399
Relazione Docente -> Customer Satifaction 0,133 4,1155
Questo modello appena sviluppato pur nella forma più semplice, nella sostanza,
rappresenta una ottima rappresentazione della CS dal punto di vista numerico e inoltre
esso risulta soddisfacente dal punto di vista interpretativo. Il risultato principale è il
peso preponderante del materiale del corso.
99
Completato, verificato e validato il nostro prototipo di modello relativo alla
soddisfazione globale degli studenti dell'Università di Gazi di Ankara in Turchia, adesso
proviamo ad esplorare diverse ipotesi di tipo logico-deduttivo, attraverso un
interpretazione soggettiva del questionario, con lo scopo di estendere il nostro
modello di base per inserire altri potenziali variabili latenti/fattori, oltre quelli che
abbiamo già identificato, che possono influenzare direttamente o indirettamente (cioè
attraverso effetti mediati) la CS.
Fondamentalmente cerchiamo di inserire due elementi che sin ora non abbiamo preso
in considerazione nel nostro modello di PLS-SEM ed essi sono: la variabile difficoltà
percepita del corso (dove abbiamo notato come, attraverso l'analisi delle statistiche
descrittive del database, oltre il 67% degli studenti hanno dichiarato un livello di
difficoltà dei corsi medio-semplici) e la variabile che rileva il livello di frequenza dei
corsi (dove ricordiamo, sempre attraverso l'analisi delle statistiche descrittive, che
circa 1/3 degli studenti non frequenta i corsi e solo il 15% li frequenta in modo
assiduo).
Le ipotesi che esploriamo, per estendere il modello, sono:
• riguardo la variabile difficoltà percepita dei corsi, se le dichiarazioni iniziali dei corsi
(cioè quello che noi abbiamo delineato con la variabile "presentazione corso")
influenzano la difficoltà percepita e dunque se essa influenza anche direttamente ed
indirettamente la soddisfazione globale; per quanto riguarda il livello di frequenza dei
corsi, se il corso è impegnativo, è questa situazione lo studente può dedurla dal
numero di crediti assegnati ai diversi corsi, essi si impegnano di più e di conseguenza
restano maggiormente soddisfatti?
• per quanto riguarda il livello di frequenza dei corsi, se il corso è impegnativo, è questa
situazione lo studente può dedurla dal numero di crediti assegnati ai diversi corsi, essi
si impegnano di più e di conseguenza restano maggiormente soddisfatti.
Per verificare queste due ipotesi, è necessario inserire le due variabili nel modello.
Come potete notare dal grafico sottostante, le variabili sono state comprese nel
modello attraverso un effetto mediazione. Nello specifico, la variabile "Frequenza
Corso" è stata inserita assieme alla variabile "crediti del corso"; mentre la variabile
100
"difficoltà percepita del corso" assieme alla variabile "presentazione corso" per
contribuire alla soddisfazione globale. Per verificare l'attendibilità statistica
dell'inserimento di queste variabili è stata eseguita la procedura di bootstrapping di
questo nuovo modello.
Tabella 17 - Proposta nuovo modello CS
Tabella 18 - Bootstrapping nuovo modello
I risultati della modifica dell'algoritmo di base sulle due ipotesi che abbiamo
individuato non hanno portato un miglioramento del modello anche se tutti gli
elementi risultano statisticamente significativi. Nello specifico, anche se la variabile
101
"crediti" in misura modesta (0,178) influenza la variabile "frequenza del corso", essa
non ha nessun effetto (0,019) sulla variabile soddisfazione (CS). Per quanto riguarda la
variabile "difficoltà percepita del corso”, non vi risulta un adeguata influenza da parte
della variabile "presentazione del corso" e addirittura si presenta un valore negativo (-
0,023) di influenza sulla soddisfazione degli studenti. Possiamo sostenere, di fatto,
l'eliminazione di entrambe le variabili ipotizzate poiché non risultano rilevanti ai fini
della rilevazione della soddisfazione.
Piuttosto è possibile esplorare una terza ipotesi: essa ha come oggetto la possibilità di
considerare la variabile "frequenza del corso" come conseguenza della soddisfazione.
Questa ipotesi risponde alla possibile domanda: ‘’se si percepisce che un corso sia
adeguatamente soddisfacente allora si frequenterà di più?’’
Tabella 19 - Algoritmo definitivo della CS in SmartPLS
102
Tabella 20 - Bootstrap Algoritmo definitivo PLS-SEM
Anche se questa ultima versione dell'algoritmo risulta uguale al modello pilota che
abbiamo sviluppato precedentemente, in questa versione è presente un ulteriore
elemento, ovvero la ”frequenza dei corsi". Anche se di modesto valore e non
determinante (R2= 0,029), esiste un legame statisticamente significativo (con valore del
coefficiente di 0,169con t=12,793 perciò valido) tra la soddisfazione dello studente e la
sua frequenza dal corso, poiché a livello logico sappiamo quanto esso può essere
condizionato in realtà da altri fattori di tipo endogeno quali il carattere, il grado di
disciplina dello studente e la volontà di ottenere una borsa di studio e via dicendo.
6.3 Dal Modello di algoritmo globale al modello su misura per singola
indagine
Prima di passare all'ultimo paragrafo, che approfondirà ulteriormente l'analisi della CS
nel modello "globale", cioè che considera l'intero database, in questo testiamo quanto
il nostro modello di algoritmo PLS-SEM che abbiamo creato possa aiutarci ad indagare
in modo più approfondito la soddisfazione degli studenti per singolo corso di laurea
(nel database sono presenti 13 con codifica "class") e per singolo docente (sono
presenti 3 con codifica "instr"), cioè capire eventuali punti di forza o punti di
debolezza. Non ci dilungheremo riportando tutti risultati ottenibili applicando il nostro
103
modello di algoritmo per tutti i corsi di laurea, i docenti e i livelli di frequenza dei corsi
presenti nel database (anche se la procedura sarebbe abbastanza veloce grazie alla
grande potenzialità dello strumento che stiamo utilizzando), anche se per un controllo
interno di un università, istituto o azienda che sia, sarebbe auspicabile se non di vitale
importanza conoscere a pieno la reale soddisfazione dei propri utenti e se si voglia
applicare a pieno le strategie di CRM.
In questa fase semplicemente mostriamo due esempi, per far capire quanto è utile
questa modalità di indagine della soddisfazione degli utenti, mettendoli a confronto
con il modello che considera l'intero database. Abbiamo preso in considerazione a
titolo esemplificativo il sottocampione "class1" per quanto riguarda i corsi di laurea e il
sottocampione "inst1" per i docenti.
Si può osservare dalla tabella sottostante del sottocampione, che considera una delle
13 classi (da noi identificate come corsi di laurea), con codifica "class1" con una
numerosità di 303 valutazioni (risposte per questionari) possiamo notare come i pesi
specifici delle variabili latenti (macroclassi) che abbiamo identificati sono differenti;
infatti in questo specifico caso i crediti, l'efficacia del docente; la presentazione del
corso e la relazione docente-studente pesano di più rispetto al modello globale e il
materiale del corso, elemento che nettamente ha maggiore valenza nel modello
globale, presenta un valore assai inferiore.
Inoltre osservando l'R2 anche esso cresce se pur di poco. Possiamo tranquillamente
affermare come in questo caso ci sia una minore polarizzazione delle aree che abbiamo
identificato. Tutti contribuisco in modo più equo alla definizione della soddisfazione
dello studente. Ultimo elemento da sottolineare è quanto la CS possa influenzare la
frequenza dello studente. Se nel caso "globale" esso aveva una modestissima influenza
in questo caso la sua influenza se pur di pochissimo aumenta. Per concludere sono
stati effettuati tutti i controlli statistici (t-test, bootstrapping, etc.. ) e anche questo
modello su misura su specifico corso in tutti i sui elementi presentano valenza
statistica.
104
Tabella 21 - Differenza tra modello specifico e modello "globale" e Algoritmo PLS-SEM "class1"
Modello Specifico per
"class1" n° 303 (Path Coefficient)
R2
Modello Globale
(Path Coefficient)
R2
Crediti -> Customer Satifaction 0,165
0,901
0,085
0,890
Efficacia Docente -> Customer Satifaction 0,212 0,157
Materiale Corso -> Customer Satifaction 0,304 0,503
Presentazione Corso -> Customer Satifaction 0,115 0,105
Relazione Docente -> Customer Satifaction 0,195 0,133
Customer Satifaction -> Frequenza 0,259 0,067 0,133 0,029
Anche in questo altro esempio abbiamo utilizzato il nostro modello per indagare il
sottocampione che considera una dei 3 docenti, con codifica "instr1", con una
numerosità di 775 valutazioni (risposte per questionari) ben più ampia del caso
precedente. Dalla tabella sottostante si nota come i pesi specifici delle variabili latenti
(macroclassi) che abbiamo identificati sono differenti; infatti notiamo che sia nella
macro area crediti e sia nella relazione docente-studente abbiamo addirittura un valori
negativi cioè c'è un coefficiente negativo, decisamente contro intuitivo, ma non è
105
significativo (come si vede facendo il bootstrap, non riportato qui) e quindi si può
trascurare: il significato è che i crediti sono del tutto influenti rispetto alla CS. Invece
aumenta lievemente di valore sia l'efficacia del docente e sia la presentazione del
corso. Come nel modello "globale" ancora una volta l'area etichettata materiale corso
è predominate nel modello. Una possibile interpretazione di questo sottocampione
può essere che la/le materie del docente vengono considerati dagli studenti meno
difficili e che non hanno bisogno di un approfondimento ulteriore col docente.
Inoltre osservando l'R2 anche esso cresce se pur di poco. Per quanto riguarda di quanto
la CS possa influenzare la frequenza dello studente come nel modello "globale"
presenta una modestissima influenza. Per concludere anche in questo caso sono stati
effettuati tutti i controlli statistici (t-test, bootstrapping, etc.. ) e anche questo modello
su misura su specifico docente presenta valenza statistica.
Tabella 22 - Differenza tra modello specifico e modello "globale" e Algoritmo PLS-SEM "instr1"
Modello Specifico per "instr1" n°
775 (Path Coefficient)
R2
Modello Globale
(Path Coefficient)
R2
Crediti -> Customer Satifaction -0,07
0,923
0,085
0,89
Efficacia Docente -> Customer Satifaction 0,341 0,157
Materiale Corso -> Customer Satifaction 0,534 0,503
Presentazione Corso -> Customer Satifaction 0,2 0,105
Relazione Docente -> Customer Satifaction -0,022 0,133
Customer Satifaction -> Frequenza 0,217 0,047 0,133 0,029
106
6.4 Ulteriore Analisi sugli indicatori di Soddisfazione
Il grande vantaggio della creazione e definizione del modello complessivo di
soddisfazione risiede nel disporre per ogni singolo caso, dei 5820 casi del nostro
database, la stima di ciascuna variabile latente. (vedi Tabella 21, che riporta a titolo di
esempio i primi casi del dataset).
Tabella 23 - Valori per singolo caso delle variabili latenti del modello definitivo
107
La possibilità di avere questi valori (indici) per singolo caso permette di indagare in
modo più approfondito sul fenomeno che stiamo analizzando. Esportando questi valori
in IBM SPSS possiamo valutare se esistano differenze sostanziali rispetto a gruppi
interni al campione (ricordiamo che il campione è suddiviso in 3 docenti e 13 corsi).
Attraverso le analisi descrittive andiamo ad osservare se esistano differenze sostanziali
sulle medie delle singole variabili latenti che abbiamo individuato nel nostro modello
definitivo. In effetti possiamo notare, dalla tabella sottostante, come la media globale
della variabile frequenza risulti molto inferiore rispetto alle altre variabili con un valore
della media di appena 1,67 su 5. Invece la variabile che presenta un valore della media
più elevata è la relazione docente-studente con un valore di 3,29 su 5. Le altre variabili
si aggirano intorno ad una valore di 3/3,2 su 5. L'indice media di soddisfazione globale
degli studenti secondo quanto stabilito attraverso la costruzione del nostro algoritmo
risulta 3,12 su 5.
Tabella 24 - Statistiche descrittive delle variabili latenti modello generato
N Media Deviazione std. Asimmetria Curtosi
Crediti 5820 3,1787 1,25357 -,318 -,828
CS 5820 3,1192 1,21176 -,227 -,797
Efficacia 5820 3,2086 1,20348 -,342 -,702
Frequenza 5820 1,6756 1,47498 ,230 -1,411
Materiale 5820 3,0804 1,22314 -,183 -,850
Presentazione 5820 3,0304 1,24217 -,126 -,928
Relazione 5820 3,2903 1,19959 -,451 -,603
L'analisi della varianza (ANOVA test) ci permette di confrontare i diversi gruppi di dati
presenti nel campione (3 docenti e 13 corsi) attraverso il confronto della variabilità
interna a questi gruppi con la variabilità presente tra i gruppi. In sostanza, andremo a
comprendere se esistano differenze nelle medie all'interno di ogni singolo sottogruppo
presente nel database. Effettuando l'ANOVA test, usando come fattore di indicazione
del sottogruppo la codifica identità docenti (istruttori) e come variabili dipendenti le
variabili latenti che abbiamo individuato, possiamo notare che tutti i valori sono
statisticamente significativi con un livello di confidenza del 95% su un test a due code
(vedi valore di F e significatività dei singoli valori) e che per ogni singola variabile si
108
presentano valori della media differenti per ogni singolo docente. Ad esempio,
andando ad analizzare nel dettaglio la variabile CS, possiamo notare che il docente
identificato con il numero 1 è stato più apprezzato con un valore della media di 3,36 su
5,ma su un campione più ridotto di studenti (cioè nella globalità gli studenti sono
rimasti più soddisfatti per quei corsi con cui era presente quel specifico docente)
rispetto al docente identificato con il valore 3: in media meno apprezzato con un
valore della media di 2,98 su 5 ma su un campione di studenti quasi 5 volte più ampio.
Si può notare inoltre che questo andamento si presenta anche sulle altre variabili
prese in considerazione.
Tabella 25 - ANOVA test sulle variabili latenti individuate nel modello definitivo con
variabile docente
Descrittivi
N Media Deviazione
std.
Errore
std.
Intervallo di confidenza
95% per la media
Minimo Massimo
Limite
inferiore
Limite
superiore
Crediti
1 775 3,3677 1,30205 ,04677 3,2759 3,4596 1,00 5,00
2 1444 3,3712 1,19338 ,03140 3,3096 3,4328 1,00 5,00
3 3601 3,0608 1,25230 ,02087 3,0199 3,1017 1,00 5,00
Totale 5820 3,1787 1,25357 ,01643 3,1465 3,2109 1,00 5,00
CS
1 775 3,3568 1,27554 ,04582 3,2669 3,4468 1,00 5,00
2 1444 3,3283 1,13945 ,02999 3,2695 3,3871 1,00 5,00
3 3601 2,9842 1,20636 ,02010 2,9448 3,0236 1,00 5,00
Totale 5820 3,1192 1,21176 ,01588 3,0880 3,1503 1,00 5,00
Efficacia
1 775 3,3882 1,26656 ,04550 3,2989 3,4775 1,00 5,00
2 1444 3,4357 1,13235 ,02980 3,3772 3,4941 1,00 5,00
3 3601 3,0788 1,19908 ,01998 3,0397 3,1180 1,00 5,00
Totale 5820 3,2086 1,20348 ,01578 3,1777 3,2395 1,00 5,00
Frequenza
1 775 1,9987 1,42196 ,05108 1,8984 2,0990 ,00 4,00
2 1444 1,7867 1,45201 ,03821 1,7117 1,8617 ,00 4,00
3 3601 1,5615 1,48199 ,02470 1,5131 1,6099 ,00 4,00
Totale 5820 1,6756 1,47498 ,01933 1,6377 1,7135 ,00 4,00
Materiale
1 775 3,3576 1,26710 ,04552 3,2683 3,4470 1,00 5,00
2 1444 3,2541 1,17336 ,03088 3,1935 3,3146 1,00 5,00
3 3601 2,9510 1,21482 ,02024 2,9113 2,9907 1,00 5,00
Totale 5820 3,0804 1,22314 ,01603 3,0489 3,1118 1,00 5,00
Presentazione 1 775 3,2762 1,27955 ,04596 3,1860 3,3665 1,00 5,00
109
2 1444 3,2309 1,18546 ,03120 3,1697 3,2921 1,00 5,00
3 3601 2,8972 1,23768 ,02063 2,8567 2,9376 1,00 5,00
Totale 5820 3,0304 1,24217 ,01628 2,9985 3,0624 1,00 5,00
Relazione
1 775 3,4208 1,26403 ,04541 3,3316 3,5099 1,00 5,00
2 1444 3,5061 1,13885 ,02997 3,4473 3,5649 1,00 5,00
3 3601 3,1757 1,19462 ,01991 3,1366 3,2147 1,00 5,00
Totale 5820 3,2903 1,19959 ,01572 3,2595 3,3211 1,00 5,00
* i valori in azzurro rappresentano i valori più alti, invece in verde i valori più bassi
ANOVA univariata
Somma dei
quadrati
df Media dei
quadrati
F Sig.
Crediti
Fra gruppi 131,242 2 65,621 42,352 ,000
Entro gruppi 9012,916 5817 1,549
Totale 9144,158 5819
CS
Fra gruppi 172,524 2 86,262 59,937 ,000
Entro gruppi 8371,926 5817 1,439
Totale 8544,450 5819
Efficacia
Fra gruppi 160,104 2 80,052 56,322 ,000
Entro gruppi 8267,915 5817 1,421
Totale 8428,019 5819
Frequenza
Fra gruppi 145,607 2 72,803 33,842 ,000
Entro gruppi 12513,929 5817 2,151
Totale 12659,535 5819
Materiale
Fra gruppi 163,380 2 81,690 55,628 ,000
Entro gruppi 8542,221 5817 1,468
Totale 8705,600 5819
Presentazione
Fra gruppi 168,813 2 84,406 55,733 ,000
Entro gruppi 8809,762 5817 1,514
Totale 8978,575 5819
Relazione
Fra gruppi 127,739 2 63,869 45,056 ,000
Entro gruppi 8245,861 5817 1,418
Totale 8373,600 5819
110
Tabella 26 - Frequenza campionaria dei singoli corsi su un totale di 5820 studenti campionati
Riapplicando l'ANOVA test usando stavolta come fattore di indicazione del
sottogruppo la codifica corsi e come variabili dipendenti le variabili latenti possiamo
notare che anche in questo caso tutti i valori sono statisticamente significativi per un
intervallo di confidenza del 95% con test a due code e come in valore assoluto il corso
che rileva medie di apprezzamento su tutte le variabili superiore rispetto agli altri è
quello con la codifica numero 2 ma è anche quello che risulta il secondo con la più
bassa frequenza campionaria. Entrando nella specifico la variabile CS presenta una
modesta variabilità nelle medie nei differenti corsi come è presente questo andamento
nelle altre variabili.
Tabella 27 - Tabella 20 - ANOVA test sulle variabili latenti individuate nel modello
definitivo con variabile corsi
Descrittivi
N Media Deviazione
std.
Errore
std.
Intervallo di confidenza
95% per la media
Minimo Massimo
Limite
inferiore
Limite
superiore
Crediti
1 303 3,3993 1,17180 ,06732 3,2669 3,5318 1,00 5,00
2 140 3,4857 1,39622 ,11800 3,2524 3,7190 1,00 5,00
3 904 2,9945 1,25620 ,04178 2,9125 3,0765 1,00 5,00
4 187 2,8877 1,04892 ,07670 2,7364 3,0390 1,00 5,00
5 656 3,1204 1,22411 ,04779 3,0266 3,2143 1,00 5,00
6 558 3,3996 1,20135 ,05086 3,2997 3,4995 1,00 5,00
7 187 3,1176 1,30221 ,09523 2,9298 3,3055 1,00 5,00
303
140
904
187
656558
187
500571
448 484
41
841
1 2 3 4 5 6 7 8 9 10 11 12 13
111
8 500 3,3300 1,17638 ,05261 3,2266 3,4334 1,00 5,00
9 571 3,2172 1,17807 ,04930 3,1203 3,3140 1,00 5,00
10 448 3,4353 1,26041 ,05955 3,3182 3,5523 1,00 5,00
11 484 3,3512 1,18329 ,05379 3,2456 3,4569 1,00 5,00
12 41 3,0000 1,26491 ,19755 2,6007 3,3993 1,00 5,00
13 841 2,8799 1,36228 ,04698 2,7877 2,9721 1,00 5,00
Totale 5820 3,1787 1,25357 ,01643 3,1465 3,2109 1,00 5,00
CS
1 303 3,4289 1,14538 ,06580 3,2994 3,5583 1,00 5,00
2 140 3,5591 1,39125 ,11758 3,3266 3,7916 1,00 5,00
3 904 2,9144 1,22340 ,04069 2,8345 2,9942 1,00 5,00
4 187 2,8892 ,98181 ,07180 2,7476 3,0309 1,00 5,00
5 656 3,0631 1,19001 ,04646 2,9719 3,1543 1,00 5,00
6 558 3,3375 1,15281 ,04880 3,2417 3,4334 1,00 5,00
7 187 3,0131 1,24369 ,09095 2,8337 3,1925 1,00 5,00
8 500 3,1939 1,09174 ,04882 3,0979 3,2898 1,00 5,00
9 571 3,1415 1,12898 ,04725 3,0487 3,2343 1,00 5,00
10 448 3,4371 1,22597 ,05792 3,3233 3,5509 1,00 5,00
11 484 3,2860 1,11803 ,05082 3,1862 3,3859 1,00 5,00
12 41 2,7932 1,26746 ,19794 2,3931 3,1932 1,00 5,00
13 841 2,8191 1,31617 ,04539 2,7300 2,9082 1,00 5,00
Totale 5820 3,1192 1,21176 ,01588 3,0880 3,1503 1,00 5,00
Efficacia
1 303 3,4680 1,15433 ,06631 3,3375 3,5985 1,00 5,00
2 140 3,6119 1,36557 ,11541 3,3838 3,8401 1,00 5,00
3 904 3,0110 1,20876 ,04020 2,9321 3,0899 1,00 5,00
4 187 2,9867 ,96123 ,07029 2,8480 3,1253 1,00 5,00
5 656 3,2154 1,13527 ,04432 3,1284 3,3025 1,00 5,00
6 558 3,4311 1,14742 ,04857 3,3357 3,5265 1,00 5,00
7 187 3,1086 1,27400 ,09316 2,9248 3,2924 1,00 5,00
8 500 3,2952 1,11282 ,04977 3,1975 3,3930 1,00 5,00
9 571 3,1684 1,13955 ,04769 3,0748 3,2621 1,00 5,00
10 448 3,4350 1,21322 ,05732 3,3224 3,5477 1,00 5,00
11 484 3,4193 1,08688 ,04940 3,3222 3,5163 1,00 5,00
12 41 2,9834 1,35939 ,21230 2,5543 3,4125 1,00 5,00
13 841 2,9238 1,33567 ,04606 2,8334 3,0142 1,00 5,00
Totale 5820 3,2086 1,20348 ,01578 3,1777 3,2395 1,00 5,00
Frequenza
1 303 1,7492 1,51257 ,08689 1,5782 1,9202 ,00 4,00
2 140 2,0714 1,28434 ,10855 1,8568 2,2860 ,00 4,00
3 904 1,4757 1,45796 ,04849 1,3805 1,5708 ,00 4,00
4 187 1,4332 1,42918 ,10451 1,2270 1,6393 ,00 4,00
5 656 1,7424 1,46275 ,05711 1,6302 1,8545 ,00 4,00
6 558 1,7581 1,40934 ,05966 1,6409 1,8753 ,00 4,00
7 187 2,0374 1,43448 ,10490 1,8305 2,2444 ,00 4,00
112
8 500 1,9820 1,58072 ,07069 1,8431 2,1209 ,00 4,00
9 571 1,4273 1,44230 ,06036 1,3088 1,5459 ,00 4,00
10 448 1,9598 1,45881 ,06892 1,8244 2,0953 ,00 4,00
11 484 1,8760 1,43785 ,06536 1,7476 2,0045 ,00 4,00
12 41 1,7073 1,28926 ,20135 1,3004 2,1143 ,00 4,00
13 841 1,3829 1,45925 ,05032 1,2841 1,4816 ,00 4,00
Totale 5820 1,6756 1,47498 ,01933 1,6377 1,7135 ,00 4,00
Materiale
1 303 3,3178 1,15709 ,06647 3,1870 3,4486 1,00 5,00
2 140 3,5767 1,35773 ,11475 3,3499 3,8036 1,00 5,00
3 904 2,9281 1,20579 ,04010 2,8494 3,0068 1,00 5,00
4 187 2,7433 1,07218 ,07841 2,5886 2,8980 1,00 5,00
5 656 3,1360 1,15679 ,04516 3,0473 3,2247 1,00 5,00
6 558 3,2963 1,17832 ,04988 3,1983 3,3942 1,00 5,00
7 187 3,0131 1,26019 ,09215 2,8313 3,1949 1,00 5,00
8 500 3,0319 1,17179 ,05240 2,9289 3,1349 1,00 5,00
9 571 3,0683 1,14886 ,04808 2,9739 3,1627 1,00 5,00
10 448 3,4330 1,21475 ,05739 3,3202 3,5458 1,00 5,00
11 484 3,1850 1,16572 ,05299 3,0809 3,2891 1,00 5,00
12 41 2,7986 1,29325 ,20197 2,3904 3,2068 1,00 5,00
13 841 2,7818 1,33166 ,04592 2,6917 2,8719 1,00 5,00
Totale 5820 3,0804 1,22314 ,01603 3,0489 3,1118 1,00 5,00
Presentazione
1 303 3,2903 1,17240 ,06735 3,1577 3,4228 1,00 5,00
2 140 3,4578 1,37080 ,11585 3,2287 3,6869 1,00 5,00
3 904 2,8923 1,23226 ,04098 2,8118 2,9727 1,00 5,00
4 187 2,5673 1,07914 ,07891 2,4116 2,7230 1,00 5,00
5 656 3,1204 1,17610 ,04592 3,0302 3,2105 1,00 5,00
6 558 3,2238 1,18644 ,05023 3,1251 3,3224 1,00 5,00
7 187 2,8451 1,26773 ,09271 2,6622 3,0280 1,00 5,00
8 500 2,9137 1,21937 ,05453 2,8066 3,0209 1,00 5,00
9 571 2,9800 1,19810 ,05014 2,8815 3,0784 1,00 5,00
10 448 3,3995 1,21598 ,05745 3,2866 3,5124 1,00 5,00
11 484 3,2266 1,18194 ,05372 3,1210 3,3321 1,00 5,00
12 41 2,8964 1,26366 ,19735 2,4975 3,2952 1,00 5,00
13 841 2,7607 1,32738 ,04577 2,6709 2,8505 1,00 5,00
Totale 5820 3,0304 1,24217 ,01628 2,9985 3,0624 1,00 5,00
Relazione
1 303 3,5230 1,15329 ,06625 3,3926 3,6533 1,00 5,00
2 140 3,6573 1,35838 ,11480 3,4303 3,8843 1,00 5,00
3 904 3,0702 1,20157 ,03996 2,9918 3,1487 1,00 5,00
4 187 3,1227 ,93130 ,06810 2,9884 3,2571 1,00 5,00
5 656 3,3067 1,12630 ,04397 3,2204 3,3931 1,00 5,00
6 558 3,5019 1,16208 ,04919 3,4053 3,5986 1,00 5,00
7 187 3,1682 1,27067 ,09292 2,9848 3,3515 1,00 5,00
113
8 500 3,5117 1,07062 ,04788 3,4177 3,6058 1,00 5,00
9 571 3,2754 1,12237 ,04697 3,1831 3,3676 1,00 5,00
10 448 3,4523 1,21481 ,05739 3,3395 3,5651 1,00 5,00
11 484 3,4868 1,08701 ,04941 3,3897 3,5839 1,00 5,00
12 41 3,0461 1,33082 ,20784 2,6261 3,4662 1,00 5,00
13 841 2,9840 1,34831 ,04649 2,8927 3,0753 1,00 5,00
Totale 5820 3,2903 1,19959 ,01572 3,2595 3,3211 1,00 5,00
* i valori in azzurro rappresentano i valori più alti, invece in verde i valori più bassi
ANOVA univariata
Somma dei
quadrati
df Media dei
quadrati
F Sig.
Crediti
Fra gruppi 237,211 12 19,768 12,888 ,000
Entro gruppi 8906,948 5807 1,534
Totale 9144,158 5819
CS
Fra gruppi 276,642 12 23,053 16,192 ,000
Entro gruppi 8267,808 5807 1,424
Totale 8544,450 5819
Efficacia
Fra gruppi 236,629 12 19,719 13,979 ,000
Entro gruppi 8191,390 5807 1,411
Totale 8428,019 5819
Frequenza
Fra gruppi 311,783 12 25,982 12,219 ,000
Entro gruppi 12347,752 5807 2,126
Totale 12659,535 5819
Materiale
Fra gruppi 263,141 12 21,928 15,083 ,000
Entro gruppi 8442,459 5807 1,454
Totale 8705,600 5819
Presentazione
Fra gruppi 285,780 12 23,815 15,909 ,000
Entro gruppi 8692,795 5807 1,497
Totale 8978,575 5819
Relazione
Fra gruppi 248,679 12 20,723 14,811 ,000
Entro gruppi 8124,921 5807 1,399
Totale 8373,600 5819
114
Tabella 28 - Frequenza campionaria del livello di difficoltà percepito su un totale di 5820 studenti campionati
Altro aspetto da sottolineare riguarda la variabile del livello di difficoltà percepita.
Applicando nuovamente l'ANOVA test usando stavolta come fattore di indicazione del
sottogruppo livello di difficoltà percepita e come variabili dipendenti le nostre variabili
latenti che abbiamo individuato possiamo notare che, anche in questo caso, tutti i
valori sono statisticamente significativi per un intervallo di confidenza del 95% con test
a due code ed inoltre possiamo notare un atteggiamento quasi speculare di chi ha
dichiarato che i corsi presentano un livello di difficoltà facili (indicando 1) e chi ha
dichiarato che esso erano molto difficili (indicando 5). Osservando i valori delle medie
per specifico variabile e per specifico livello di difficoltà, chi ha dichiarata un livello
facile e molto difficile ha anche espresso in media un gradimento inferiore su quasi
tutte le variabili prese in considerazioni compresa la CS. Unica accezione, più tosto
comprensibile a livello logico, per la variabile livello di frequenza corso dove è possibile
notare come coloro che hanno dichiarato un livello di difficoltà facile abbiamo
effettivamente partecipato ai corsi in media molto meno rispetto agli altri studenti.
Questi atteggiamenti sono visibili osservando la tabella sottostante.
1620
549
1774
1225
652
1 2 3 4 5
115
Tabella 29- ANOVA test sulle variabili latenti individuate nel modello definitivo con variabile livello di difficoltà percepita
Descrittivi
N Media Deviazione
std.
Errore
std.
Intervallo di confidenza
95% per la media
Minimo Massimo
Limite
inferiore
Limite
superiore
Crediti
1 1620 2,8630 1,39610 ,03469 2,7949 2,9310 1,00 5,00
2 549 3,2823 1,18633 ,05063 3,1829 3,3818 1,00 5,00
3 1774 3,4566 1,08836 ,02584 3,4059 3,5073 1,00 5,00
4 1225 3,3306 1,10447 ,03156 3,2687 3,3925 1,00 5,00
5 652 2,8344 1,36565 ,05348 2,7293 2,9394 1,00 5,00
Totale 5820 3,1787 1,25357 ,01643 3,1465 3,2109 1,00 5,00
CS
1 1620 2,8545 1,36123 ,03382 2,7882 2,9209 1,00 5,00
2 549 3,2034 1,12279 ,04792 3,1093 3,2975 1,00 5,00
3 1774 3,3883 1,06203 ,02521 3,3389 3,4378 1,00 5,00
4 1225 3,2284 1,06604 ,03046 3,1686 3,2881 1,00 5,00
5 652 2,7684 1,31293 ,05142 2,6674 2,8693 1,00 5,00
Totale 5820 3,1192 1,21176 ,01588 3,0880 3,1503 1,00 5,00
Efficacia
1 1620 2,8979 1,35632 ,03370 2,8318 2,9640 1,00 5,00
2 549 3,2813 1,11429 ,04756 3,1879 3,3748 1,00 5,00
3 1774 3,4861 1,04961 ,02492 3,4373 3,5350 1,00 5,00
4 1225 3,3634 1,04204 ,02977 3,3050 3,4218 1,00 5,00
5 652 2,8731 1,29292 ,05063 2,7737 2,9726 1,00 5,00
Totale 5820 3,2086 1,20348 ,01578 3,1777 3,2395 1,00 5,00
Frequenza
1 1620 ,4765 1,10815 ,02753 ,4225 ,5305 ,00 4,00
2 549 1,8142 1,35292 ,05774 1,7008 1,9276 ,00 4,00
3 1774 2,1894 1,30433 ,03097 2,1287 2,2501 ,00 4,00
4 1225 2,2155 1,27479 ,03642 2,1441 2,2870 ,00 4,00
5 652 2,1258 1,44839 ,05672 2,0144 2,2371 ,00 4,00
Totale 5820 1,6756 1,47498 ,01933 1,6377 1,7135 ,00 4,00
Materiale
1 1620 2,8293 1,37082 ,03406 2,7625 2,8961 1,00 5,00
2 549 3,1029 1,13693 ,04852 3,0076 3,1982 1,00 5,00
3 1774 3,3281 1,09044 ,02589 3,2773 3,3789 1,00 5,00
4 1225 3,2120 1,07024 ,03058 3,1520 3,2720 1,00 5,00
5 652 2,7638 1,32729 ,05198 2,6617 2,8658 1,00 5,00
Totale 5820 3,0804 1,22314 ,01603 3,0489 3,1118 1,00 5,00
Presentazione
1 1620 2,7822 1,37407 ,03414 2,7153 2,8492 1,00 5,00
2 549 3,0351 1,15018 ,04909 2,9387 3,1316 1,00 5,00
3 1774 3,2657 1,11725 ,02653 3,2137 3,3177 1,00 5,00
4 1225 3,1564 1,11942 ,03198 3,0936 3,2191 1,00 5,00
5 652 2,7664 1,35029 ,05288 2,6626 2,8703 1,00 5,00
116
Totale 5820 3,0304 1,24217 ,01628 2,9985 3,0624 1,00 5,00
Relazione
1 1620 2,9406 1,36666 ,03395 2,8740 3,0072 1,00 5,00
2 549 3,3803 1,13652 ,04851 3,2851 3,4756 1,00 5,00
3 1774 3,5759 1,03019 ,02446 3,5279 3,6238 1,00 5,00
4 1225 3,4599 1,01371 ,02896 3,4031 3,5167 1,00 5,00
5 652 2,9876 1,27614 ,04998 2,8895 3,0857 1,00 5,00
Totale 5820 3,2903 1,19959 ,01572 3,2595 3,3211 1,00 5,00
ANOVA univariata
Somma dei
quadrati
df Media dei
quadrati
F Sig.
Crediti
Fra gruppi 409,971 4 102,493 68,237 ,000
Entro gruppi 8734,187 5815 1,502
Totale 9144,158 5819
CS
Fra gruppi 340,743 4 85,186 60,382 ,000
Entro gruppi 8203,707 5815 1,411
Totale 8544,450 5819
Efficacia
Fra gruppi 398,686 4 99,672 72,184 ,000
Entro gruppi 8029,333 5815 1,381
Totale 8428,019 5819
Frequenza
Fra gruppi 3297,224 4 824,306 511,983 ,000
Entro gruppi 9362,311 5815 1,610
Totale 12659,535 5819
Materiale
Fra gruppi 297,836 4 74,459 51,498 ,000
Entro gruppi 8407,764 5815 1,446
Totale 8705,600 5819
Presentazione
Fra gruppi 262,908 4 65,727 43,852 ,000
Entro gruppi 8715,667 5815 1,499
Totale 8978,575 5819
Relazione
Fra gruppi 442,223 4 110,556 81,056 ,000
Entro gruppi 7931,376 5815 1,364
Totale 8373,600 5819
117
Conclusioni
I PLS-SEM stanno godendo di una crescente popolarità come metodi di analisi
multivariate in varie discipline quali: la contabilità, il marketing, i sistemi informativi,
sistemi di gestione operativa e infine nel recentissimo periodo anche nella gestione
strategica. Proprio nella gestione strategica questa metodologia di elaborazione dati
esprime la propria potenzialità.
I progressi tecnologici e le metodologici nel campo della elaborazione dati stanno
fornendo ai ricercatori e i manager una vera rivoluzione. Metodologie di elaborazione
dei dati di seconda generazione come PLS-SEM stanno permettendo di applicare i
principi della Customer Relationship Management CRM.
Concetti come la misurazione della brand equity relativa alla qualità percepita, alla
fedeltà della marca, la fiducia più in generale e alla Customer Satisfaction, attraverso
l'applicazione di tutte queste serie di metodologie di applicazione di elaborazione dei
dati, permettono a chi si occupa dell'aspetto strategico e gestionale degli enti o
aziende validi strumenti, ma soprattutto valide informazioni per valutare in modo
sempre più scientifico la comprensione del comportamento dell'utente o cliente.
Se fino a pochi decenni fa le principali decisioni aziendali venivano spesso intraprese
da intuizioni del management oggi oltre a ciò si stanno inserendo, grazie all'avvento
delle tecnologie e al miglioramento delle metodologie statistico-matematico, tutta una
serie di supporti che permettono di intraprendere decisioni strategiche sempre più
consapevoli.
I PLS-SEM è senza dubbio uno strumento potente e flessibile non solo perché è capace
di elaborare sia piccoli che grandi quantità di dati dando validi risultati in un brevissimo
tempo e fatica ma anche perché permette di estrapolare diverse possibilità e
informazioni che modelli di prima generazione quali una regressione semplice e
multipla non sono in grado; questo è dovuto senza dubbio alla capacità di questo
strumento di analisi multivariate di ottimizzare tutti dati e le variabili
simultaneamente.
118
La sua capacità predittiva, la possibilità di utilizzare piccoli campioni (comunque
significativi), di utilizzare dati che non siano necessariamente distribuiti normalmente
(asimmetrie e curtosi non sono dei vincoli), la possibilità di utilizzare dati con scale
metriche differenti che variano da ordinali a categorici, della possibilità di costruire
modelli di misurazione formativi e riflessivi, dalla capacità di costruire modelli
complessi ma allo stesso tempo parsimoniosi attraverso l'utilizzo di una strutturazione
delle variabili utilizzando effetti di mediazione (diretti ed indiretti) per la comprensione
di eventuali "causa-effetto", ed infine la capacità di generare indici facilmente leggibili
danno la possibilità di indagare su singoli risultati e di effettuare sottoanalisi atte a
comprendere ad esempio la soddisfazione dei clienti nella sua globalità ma anche la
specificità di una determinata area. Ed è quello che volevamo fare con i dati
dell'Università IULM ma che abbiamo fatto con l'elaborazione dei dati dell'Università di
Gazi.
La costruzione di un modello globale e l'utilizzo di esso per indagare specifici corsi,
facoltà e docenti per identificare punti di forza e punti di debolezza attraversa la
generazione di indici di soddisfazione degli studenti alla ricerca di eventuali
scostamenti (parziale o sostanziali) rispetto allo standard è stato il nostro obiettivo. Ma
questo stesso obiettivo si potrebbe fare ed in effetti si fa, si faceva e si continua a fare
con strumenti elementare cioè modelli multivariati classici come l'utilizzo combinato di
fattoriale ed regressione, ma perché allora abbiamo usato i modelli di equazioni
strutturali?
Sostanzialmente per 2 motivi, perché come abbiamo detto precedentemente
permettono di effettuare una "ottimizzazione globale" e come se tutte le fattoriali e
tutte la regressione venissero fatte nello stesso momento ma allo stesso tempo
ottimizzate assieme. Il secondo motivo molto più interessante è la capacità dei SEM di
rappresentare ed includere nel modello anche la precedenza o la successione delle
relazioni tra le variabili latenti e osservate, e questo con modelli classici non è fattibile,
cioè è possibile ottenere un analisi molto più organica e parsimoniosa e questo
permette di fare un salto concettuale in quanto non serve mettere tutto sullo stesso
piano ma si possono tenere conto di osservazioni o fattori che sono avvenute
precedentemente oppure dopo. Ad esempio qualcosa può non influenzare prima la
119
soddisfazione ma la può influenzare attraverso qualche altra cosa ed è il caso tipico dei
servizi aggiuntivi che dipendono da quanto costano, quindi il prezzo influenza il
gradimento del servizio se lo si regala come bonus e l'utente si sentirà entusiasta ma se
il relativo costo del servizio è cospicuo allora cambia la percezione. I modelli di
equazioni strutturali oltre alla nostra tipologia di indagine permette di effettuare
questi tipi di analisi.
120
121
Bibliografia
Albano, R., & Testa, S. (2002). Statistica per la ricerca sociale. Roma: Carocci.
Albers, S., & Hildebrandt, L. (2006). Methodological problems in success factor studies –
Measurement error, formative versus reflective indicators and the choice of the structural
equation model. Berlin: Zeitschrift für betriebswirtschaftliche Forschung.
Angelini, A. (2011). Customer relationship management e customer satisfacion. Milano:
FrancoAngeli.
Bacon, L. D. (1999). Using LISREL and PLS to Measure Customer Satisfaction, Sawtooth
Software Conference Proceedings., (p. 305-306). La Jolla, California.
Barbaranelli, C. (2003). Analisi dei dati. Milano: Led.
Brand, W. (1988). Customer-satisfaction suties changing marketing strategies. Marketing
News.
Chen, I. J., & Popovic, K. (2003). Understanding customer relationship management (CRM).
Business process management journal, n.5.
Chin, W. W. (1998). The PLS approch to structural equation reasearch. New York: Lawrence
Erlbaum.
Chin, W. W., Marcolin, B. L., & Newsted, P. R. (2003). A partial least squares latent variable
modeling approach for measuring interaction effects: results from a Monte Carlo simulation
study and an electronicelectronic-mail emotion/adoption study. Information Systems Research
n.14(2).
Cohen, J. (1998). Statistical power analysis for behavioral sciences. Mahwah, NY: Lawrence
Erlbaum.
Costabile, M. Il .
Costabile, M. (2001). Il capitale relazionale. Milano: McGraw-Hill.
Costabile, M., & Marzocchi, G. (1995). l'analisi e la misurazione della customer satisfaction
nelle banche. Micro&Macro Marketing, n.3.
122
Croutsche, J. J. (2009). Analyse des données en Marketing, en Management et en Sciences
Sociales:Conceptualisation et Applications. Parigi: Eska.
Croutsche, J. J. (2002). Etude des relations de causalité: utilisation des modèles d’équations
structurelles. La revue des sciences de gestion.
David Garson, G. (2016). Partial Least Squares. Regression & Structural Equation Models. North
Carolina: Statistical Associates Publishing.
Davison, A. C., & Hinkley, D. (1997). Boodstrap methods and their application. Cambridge, UK:
Cambridge University Press.
Di Franco, G. (2016). I modelli di equazione strutturali:concetti, strumenti e applicazioni.
FrancoAngeli.
Di Franco, G. (2011). tecniche modelli di analisi multivariati. Milano: FrancoAngeli.
Diamantopoulos, A., & Riefler, P. (2011). Using formative measures in international marketing
models: A cautionary tale using consumer animosity as an example. Advances in International
Marketing.
Drolet, A., & Morrison, D. (2001). Do we really need multiple-item measures in service
research? Journal of Service Research, number 3.
Druker, P. F. (1973). Management: task, responsibility, practice. New York: Harper & Row.
Falbo, P. (1998). Il vantaggio della soddisfazione del cliente. De Qualitate, n.5.
Falk, R. F., & Miller, N. B. (1992). A primer for soft modeling. Akron (OH): University of Akron
Press.
Fernandes, V. (2012). (Re)discovering the PLS approach in management science.
M@n@gement vol. 15 no. 1.
Fornell, C., & Bookstein, F. L. (1994). Two Structural Equation Models: LISREL and PLS applied
to Consumer Exit-Voice Theory. Journal of Marketing Research n.19.
Fossati, L. (2006). L’analisi fattoriale in psicologia. (P. Pasotto, A cura di) Tratto il giorno Aprile
23, 2017 da ITEMS: http://items.giuntios.it/showArticolo.do?idArt=134&print=true
123
Frank, B., & Hennig-Thurau, T. (2008). Identifying hidden structures in marketing’s structural
models through Universal Structure Modeling: An explorative Bayesian Neural Network
complement to LISREL and PLS. Journal of Research and Managemen .
Fuchs, C., & Diamontopoulos, A. (2009). Using single-item measures for construct
measuremnet in management research: Conceptual issues abd application giudelines. Die
Betriebswirtschaft, 69.
Geisser, S. (1974). A Predictive Approach to the Random Effects Model. Biometrika.
Gerson, R. F. (1995). Come misurare la soddisfazione del cliente. Una guida per realizzare un
servizio di qualità. Milano: FrancoAngeli.
Giannini, M., & Pannocchia, L. (2006). L'analisi fattoriale esplorativa in psicologia. Firenze:
Giunti O.S. Organizzazioni Speciali.
Goldberger, A. S. (1968). Topics in Regression Analysis. New York: McMillan.
Gomburg, C., & Giering, A. (2001). Personal characteristic as moderators of the relationship
between customer satisfaction and loyalty an empirial analysis. Psychology and Marketing n18.
Grandis, R., & Negro, G. (2006). Gestire il disservizio. Milano: Il Sole 24 Ore Libri.
Gunduz, G., & Fokoue, E. (2013). UCI Machine Learning Repository. Irvine, CA: University of
California, School of Information and Computer Science.
Haenlein, M., & Kaplan, A. M. (2004). A beginner’s guide to partial least squares analysis,
Understanding Statistics.
Hair, J. F., Hult, T. G., Ringle, C. M., & Sarstedt, M. (2014). A Primer on Partial Least Squares
Structural Equation Modeling (PLS-SEM). Los Angeles: SAGE Publications, Inc.
Hair, J. F., Ringle, C. M., & Sarstedt, M. (2010). PLS-SEM: Indeed a silver bullet. Journal of
Marketing Theory and Practice. , 139-151.
Hair, J. F., Ringle, C. M., & Sarstedt, M. (2011). PLS-SEM: Indeed a silver bullet. Journal of
Marketing Theory and Practice. , 139-151.
Hair, J. F., Wolfinbarger Celsi, M., Money, A. H., Samouel, P., & Page, M. J. (2011). Essentials of
business research methods. New York: Sharpe.
Hallberg, G. (1999). I consumatori non sono tutti uguali. Milano: Editori di comunicazione Srl.
124
Henseler, J., & Fassott, G. (2010). Testing moderating effects in PLS pach model: un illustration
on available procedures. . Berlin: Handbook of partial least square.
Henseler, J., Ringle, C. M., & Sarstedt, M. (2012). Using PLS path modeling in international
advertising research. Okazaki: Handbook of research in international advertising.
Henseler, J., Ringle, C., & Sarstedt, M. (2012). Using PLS path modeling in international
advertising research. Okazaki: Handbook of research in international advertising.
Henseler, J., Ringle, C., & Sinkovics, R. (2009). The use of PLS path modeling in international
merketing. Advances in international marketing.
Hulland, J. (1999). Use of partial least squares (PLS) in strategic management research: a
review of four recent studies. Strategic Management Journal.
Hwang, H., Malhotra, N. K., Kim, Y., & Tomiuk, M. A. (2010). A comparative study on parameter
recovery of three approaches to structural equation modeling. Journal of Marketing Research.
Journal of Marketing Research, 47 (Aug) , 699-712.
Iasevoli, G. (1995). il processo di rilevazione della customer satisfaction delle imprese di servizi.
Micro&Macro Marketing, n.3.
Jakobowicz, E. (2007). Contributions aux modèles structurels à variables latentes. Thèse de
doctorat Conservatoire National des Arts et Métiers. Parigi.
Jones, T., & Sasser, W. (1995). Why satisfied customer defect? Harvard Business Review,
Vol.73.
Jöreskog, K. G., & Wold, H. O. (1982). The ML and PLS techniques for modelling with latent
variables: historical and comparative aspects. Amsterdam: Elsevier Science Publisher.
Kline, P. (1996). Manuale di psicometria. Roma: Astrolabio.
La Barbara, P. A., & Marzursky, D. (1983). A longitudinal assessment of customer
satisfaction/dissatisfasction: the dinamic aspect of cognitive process. Journal of marketing
research.
Lambin, J. (2000). Marketing strategico e operativo. . Milano: McGraw-Hill.
Levitt, T. (1960). Marketing Myopia. Harvard Business Review, vol.38.
Lohmoller, J. (1989). Latent variable path modeling with PLS. Heidelberg, Germany.
125
Low, J., & Cohen, K. P. (2003). Il vantaggio invisibile. Milano: FrancoAngeli.
Lubisco, A. (2006). Analisi Statistica Multivariata. Rimini: UniBo.
Marcoulides, G. A., & Saunders, C. (2006). PLS: a silver bullet? MIS Quarterly 30(2).
Matzler, K., Hinterhuber, H. H., Bailom, F., & Saurwein, E. (1997). un esempio semi qualitativo
per la valutazione della soddisfazione del cliente. Micro&Macro Marketing, n.1.
Maxwell, A. E. (1981). Multivariate Analysis in Behavioural research. Londra: FrancoAngeli.
Mooi, A. E., & Sarstedt, M. (2011). A concise guide to market research: the process, data and
methods using IBM SPSS Statistics. Berlino: Springer.
Mooi, E. A., & Sarstedt, M. (2011). A concise guide to market research: the process, data and
using IMB SPSS Statistic. Berlino: Springer.
Morales, G. M. (2010). Partial least squares (PLS) Methods: origins, evolution and application
to social sciences.
Nunally, J., & Bernstein, I. (1994). Psichometric theory. New York: McGraw-Hill.
Oliver, R. L. (1997). Satisfaction. A behaviural prospective on the customer. New York: McGraw-
Hill International Editions.
Orsingher, C. (2003). Un'analisi della soddisfazione del cliente nei servizi ad elevata
partecipazione. Micro&Macro Marketing.
Parasuraman, A., Zeithmal, V., & Berry, L. L. (1985). A concetptual model of service quality and
its implications for future research. Journal of marketing, vol. 49.
Pedrabissi, L., & Santinello, M. (2007). I test psicologici. Bologna: Il Mulino.
Piccolo, D. (2001). Statistica. Il Mulino.
Pitta, D. A. (1998). Marketing one to one and its dependence on knowledge discovery in
databases. Journal of customer marketing, n.5.
Quartapelle, A. Q. (1994). Customer satisfaction. Milano: McGraw-Hill.
Reinartz, W., Haenlein, M., & Henseler, J. (2009). An empirical comparison of the efficacy of
covariance-based and variance-based SEM.
126
Riconfi, L. (1993). Tre variabili. Un'introduzione all'analisi multivariati. Milano: FrancAngeli.
Ringle, C. M., Sarstedt, M., Schlittgen, R., & Taylot, C. R. (2012). PLS path modeling and
evolutionary segmantationn. Journal of Business Research.
Stone, M. (1974). Cross-Validatory Choice and Assessment of Statistical Predictions. Journal of
the Royal Statistical Society.
Tenenhaus, M. (1999). L’approche PLS. Revue de Statistique Appliquée.
Valdani, E., & Busacca, B. (1995). Customer Satisfaction: una nuova sfida. Micro&Macro
Marketing .
Varaldo, R., & Guido, G. (1997). il consumatore come prodotto: Customer satisfaction come
qualità del cliente. Micro&Macro Marketing.
Vinzi, E., Trinchera, L., & Amato, S. (2010). PLS Path Modeling: From Foundations to Recent
Developments and Open Issues for Model Assessment and Improvement. In E. Vinzi, W. W.
Chin, J. Henseler, & H. Wan, Handbook of Partial Least Squares: Concepts, Methods and
Applications (p. 47-82). Berlino.
Wilson, B., Callaghan, W., Ringle, C., & Henseler, J. (2007). Exploring casual path directionality
for a marketing model using Cohen's path method. Aas.
Wold, H. O. (1985). Partial Least Squares. New York: Wiley: Encyclopedia of statistical sciences.
6.
Wong, K. K. (2013). Partial Least Squares Structural Equation Modeling (PLS-SEM) Techniques
Using SmartPLS. Marketing Bulletin , (24) 2.
Wong, K. K. (2013). Partial Least Squares Structural Equation Modeling (PLS-SEM). Techniques
Using SmartPLS. Marketing Bulletin.
Wong, K. K., Vinzi, E., & Chin, W. W. (2011). Review of the book Handbook of Partial Least
Squares: Concepts, Methods and Applications. International Journal of Business Science &
Applied Management , (6) 52-54.