La nuova psicologia scientifica

99
CAPITOLO 1 – INTRODUZIONE Il modello comportamentista Negli ultimi decenni del XIX secolo, con il consolidarsi della fisiologia, dell’istologia e dell’anatomia comparata, si diffonde, nella ricerca psicologica europea, un atteggiamento sempre più orientato in senso oggettivistico. A questo progressivo cambiamento di orizzonte concettuale concorre il crescente favore che la teoria evoluzionistica incontra presso gli psicologi. L’obiettivo di far approdare la psicologia a procedure di ricerca controllabili intersoggettivamente richiede di modificare il modello wundtiano di analisi degli “elementi” fondamentali della vita psichica, basato essenzialmente sulla tecnica dell’introspezione. Con il comportamentismo, lo studio del comportamento umano beneficia di una revisione dei metodi e dell’integrazione della fisiologia e della psicologia animale. I metodi della fisiologia e della psicologia animale diffondono e consolidano una atteggiamento “obiettivisuìtico” in psicologia. Il comportamentismo spiega, infatti, i fenomeni psichici eliminando ogni riferimento a concetti non suscettibili di verifica, abbandonando ogni richiamo introspezionistico e basandosi esclusivamente sui materiali effettivamente osservati; i fenomeni psichici complessi, infatti, sono spiegati o sul piano dell’indagine fisiologica, individuando i determinanti “materiali” del fenomeno psichico, o lungo lo sviluppo filogenetico delle funzioni psichiche: in altri termini, si afferma una psicologia “senz’anima”. L’interprete più convinto della nuova prospettiva di ricerca è Watson, che, influenzato dalla psicofisiologia di Pavlov, assegna alla psicologia il compito di studiare le condizioni obiettive che determinano il comportamento. Egli spiega il comportamento individuando all’esterno dell’organismo, nell’ambiente, più che al suo interno, le catene causali di stimoli e risposte, considerati unità minimali del comportamento. L’indagine è limitata a individuare il semplice dato fenomenico per ricostruire le catene causali, lasciando fuori il mondo simbolico, intenzionale, mentale, e concentrandosi sull’osservabile, sui dati rilevabili. Il modello comportamentistico darà luogo a 2 indirizzi che si espimeranno nelle teorie della contiguità (stimolo e risposta) e nelle teorie del rinforzo. La revisione neocomportamentista introduce i determinanti fisiologici e biologici dell’organismo come mediatori tra stimolo e risposta. Si abbandona il primitivo riduzionismo. Il modello fenomenologico L’orientamento fenomenologico deve il maggior contributo a Ehrenfels, che ha coniato la nozione di qualità della forma, e evidenzia il nesso soggetto-oggetto, vanificato dall’associazionismo (che accentua le leggi additive determinanti il costituirsi dell’oggetto) e dall’introspezionismo (che nega l’oggetto dissolvendolo nell’analisi degli stati di coscienza). Questa relazione viene indagata nella percezione. l’indirizzo fenomenologico si consolida in Europa grazie al gruppo di psicologi della Scuola di Berlino (Wertheimer, Köhler, Koffka). OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora… http://www.opsonline.it

description

Sintesi del nuovo trattato di psicologia scientifica. Canestrani.

Transcript of La nuova psicologia scientifica

CAPITOLO 1 – INTRODUZIONE

Il modello comportamentistaNegli ultimi decenni del XIX secolo, con il consolidarsi della fisiologia, dell’istologia e

dell’anatomia comparata, si diffonde, nella ricerca psicologica europea, un atteggiamento sempre più orientato in senso oggettivistico. A questo progressivo cambiamento di orizzonte concettuale concorre il crescente favore che la teoria evoluzionistica incontra presso gli psicologi. L’obiettivo di far approdare la psicologia a procedure di ricerca controllabili intersoggettivamente richiede di modificare il modello wundtiano di analisi degli “elementi” fondamentali della vita psichica, basato essenzialmente sulla tecnica dell’introspezione.

Con il comportamentismo, lo studio del comportamento umano beneficia di una revisione dei metodi e dell’integrazione della fisiologia e della psicologia animale. I metodi della fisiologia e della psicologia animale diffondono e consolidano una atteggiamento “obiettivisuìtico” in psicologia. Il comportamentismo spiega, infatti, i fenomeni psichici eliminando ogni riferimento a concetti non suscettibili di verifica, abbandonando ogni richiamo introspezionistico e basandosi esclusivamente sui materiali effettivamente osservati; i fenomeni psichici complessi, infatti, sono spiegati o sul piano dell’indagine fisiologica, individuando i determinanti “materiali” del fenomeno psichico, o lungo lo sviluppo filogenetico delle funzioni psichiche: in altri termini, si afferma una psicologia “senz’anima”.

L’interprete più convinto della nuova prospettiva di ricerca è Watson, che, influenzato dalla psicofisiologia di Pavlov, assegna alla psicologia il compito di studiare le condizioni obiettive che determinano il comportamento. Egli spiega il comportamento individuando all’esterno dell’organismo, nell’ambiente, più che al suo interno, le catene causali di stimoli e risposte, considerati unità minimali del comportamento. L’indagine è limitata a individuare il semplice dato fenomenico per ricostruire le catene causali, lasciando fuori il mondo simbolico, intenzionale, mentale, e concentrandosi sull’osservabile, sui dati rilevabili.

Il modello comportamentistico darà luogo a 2 indirizzi che si espimeranno nelle teorie della contiguità (stimolo e risposta) e nelle teorie del rinforzo. La revisione neocomportamentista introduce i determinanti fisiologici e biologici dell’organismo come mediatori tra stimolo e risposta. Si abbandona il primitivo riduzionismo.

Il modello fenomenologico

L’orientamento fenomenologico deve il maggior contributo a Ehrenfels, che ha coniato la nozione di qualità della forma, e evidenzia il nesso soggetto-oggetto, vanificato dall’associazionismo (che accentua le leggi additive determinanti il costituirsi dell’oggetto) e dall’introspezionismo (che nega l’oggetto dissolvendolo nell’analisi degli stati di coscienza). Questa relazione viene indagata nella percezione. l’indirizzo fenomenologico si consolida in Europa grazie al gruppo di psicologi della Scuola di Berlino (Wertheimer, Köhler, Koffka).

La nuova psicologia, nota come psicologia della forma o Gestaltpsychologie, richiama l’attenzione sulla necessità di studiare in modo nuovo i fenomeni psichici. Le prime osservazioni di Wertheimer sul movimento apparente richiamano l’attenzione sulle condizioni strutturali dell’esperienza psicologica, sui sistemi di interi, sulle condizioni dinamiche che consentono il costituirsi della totalità.

In questa nuova cornice concettuale ha valore la percezione, che consente di cogliere il carattere della vita psichica, evitando di assolutizzare il valore dell’oggetto esterno. Vengono rintracciate strutture o Gestalten nel mondo fisico e in quello mentale e tra questi 2 domini si rintraccia la condizione che rende possibile una loro interpretazione. Tale condizione viene individuata nel postulato dell’isomorfismo, cioè in una corrispondenza di forme tra mondo fisico e mondo psichico, tra fisiologico e mentale, secondo un procedimento esplicativo analogico. Questa visione si esprime in 2 leggi psicologiche fondamentali: legge della formazione non additiva della totalità e legge della pregnanza. Per la prima il tutto si comprende a condizione che venga abbandonato l’atteggiamento di considerarlo risultante di una somma di elementi primitivi, che cessano di essere considerati addendi e diventano fattori appartenenti al tutto.così, gli elementi che entrano nella sensazione posseggono una funzione strutturata, ma anche strutturante, poiché costituiscono il materiale e concorrono a determinarne la struttura o configurazione.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Uno sviluppo dei principi della Gestalt è rintracciabile nella teoria del campo di Kurt Lewin, secondo cui la vita psichica è concepita in termini di progressive sintesi dinamicamente correlate. La teoria lewiniana ha consentito di utilizzare i postulati della psicologia della forma in alcuni settori della ricerca psicologica, come la psicologia sociale o quella dell’età evolutiva, senza dimenticare le indicazioni metodologiche e cliniche nelle psicoterapie di gruppo.

Il modello psicoanalitico

Secondo la psicoanalisi la comprensione della vita conscia è subordinata alla comprensione della vita psichica inconscia. L’attenzione alla vita inconscia non è una scoperta freudiana, poichè nella cultura dell’800 diversi autori hanno esaminato la questione dell’inconscio: nel campo filosofico Herbart riprende e sviluppa la concezione di Leibniz sull’inconscio, introducendo il concetto di soglia di coscienza e un’immagine topografica della vita psichica che postula un interscambio tra i contenuti psichici al di sotto della soglia (inconsci) e al di sopra (consci). L’attenzione per la dimensione pre-logica, irrazionale o istintuale è costante nel pensiero filosofico della seconda metà del XIX secolo e si esprime radicalmente nell’opera di Schopenhauer e nella sua tesi del “primato della volontà sull’intelletto”, cioè del mondo istintuale, biologico, inconscio su quello razionale, logico e analiticamente costruito.

In questa revisione della vita psichica, che approderà nella sistemazione concettuale e clinica di Freud, è determinante la psicopatologia francese, rappresentata da Charcot e Pierre Janet. Il primo fu importante nella formazione del sistema freudiano per quanto riguarda la ricerca di un’eziologia psicologica, in contrapposizione con quella tradizionale organica, per disturbi come l’isteria o le psiconevrosi.

Saranno proprio i fenomeni psichici che non trovano una spiegazione nel sistema di conoscenza di allora, a divenire il campo della ricerca freudiana. Le ricerche sull’ipnosi o dei fenomeni di suggestione avevano iniziato ad interessare molti medici e psichiatri, ma erano interessi che non rientravano in una teoria omogenea e sfuggivano ad un definito nucleo concettuale attorno al quale trovare la loro corretta collocazione o il loro correttivo. Sarà compito di Freud postulare questo nucleo e costituirvi attorno un sistema teorico, in grado di rispondere a un vasto campo di fenomeni.

Il modello teorico finale consolida l’orientamento che individua in un fattore o in una costellazione di fattori psicologici, la causa del disturbo mentale. L’ipotesi dell’esistenza dell’inconscio comporta una concezione deterministica del comportamento umano: queste forze pulsionali, sconosciute alla coscienza, forniscono energia all’individuo e gli permettono di agire psichicamente e adattarsi alla realtà. Esse sono regolate e funzionano secondo 2 leggi fondamentali dell’organizzazione psichica: principio di piacere e principio di realtà.

Secondo l’orientamento psicoanalitico la salute e la malattia psichica non sono incompatibili o opposte, ma sono piuttosto i 2 punti estremi di un continuum.

Il modello epistemologico-genetico

Nella revisione dei fondamenti della psicologia negli anni attorno alla prima guerra mondiale, si ha una revisione di metodi e di procedure nel campo di ricerca delle funzioni cognitive. La contrapposizione è diretta contro l’immagine della psicologia uscita dalla scuola wundtiana. Le perplessità sul metodo di Wundt vertevano sulla sua idoneità a cogliere un fenomeno complesso, quale il pensiero, attraverso la suddivisione delle totalitànegli elementi fondamentali.

L’opposizione all’elementismo wundtiano e alla sua sterilità nello studio del pensiero trovò risonanza anche in Francia, con Binet. Tra la fine del secolo XIX e la prima guerra mondiale, si diffonde la fiducia di trovare un metodo di studio delle funzioni psichiche che unisca il rigore del metodo sperimentale e la comprensione di quanto di peculiare e qualitativo è in esso contenuto. Aumenta la fiducia nella possibilità di costruire esperimenti rigorosi e corretti per le attività di pensiero, evitando di cadere nell’ambiguo metodo di introspezione che era stato lo strumento della scuola di Wundt.

All’atteggiamento analitico wundtiano si sostituisce un atteggiamento sintetico, unitario, che permette di afferrare la complessità dell’attività intellettiva. Se il metodo di Wundt risentiva dell’approccio psicofisico, la nuova psicologia rifiuta il nucleo di siffatto metodo, cioè la possibilità di scomporre in unità fenomeni complessi, attraverso un calcolo che ricostruisca a

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

posteriori, partendo dagli elementi individuati, del fenomeno complesso. Nella nuova psicologia del pensiero s’inserisce una prima esigenzqa, genetica e dinamica insieme.

Da questo terreno esce l’indirizzo teorico, detto “epistemologia genetica” di Jean Piaget, nel quale confluiscono elementi delle teorie precedenti. Esso rappresenta il risultato dell’esigenza funzionalistica, dinamica e genetica. L’opera di Piaget dà una sistemazione organica alle esigenze della psicologia di costruire una teoria del pensiero e dei procedimenti cognitivi.

La psicologia di Piaget appare come una teoria genetica perché intende rintracciare la successione dei passaggi fondamentali (stadi), attraverso i quali si compie il processo di maturazione dell’intelligenza, e perché cerca di ricostruire il sapere “adulto”, in virtù della successione di stadi dell’intelligenza. L’indirizzo di Piaget è definibile come epistemologico, poiché si pone come obiettivo l’individuazione delle condizioni che consentono di riorganizzare cognitivamente la realtà.

Il modello cognitivista

Dagli anni 60, lo studio dei processi psichici ha conosciuto una svolta, che ha portato alla nascita dell’indirizzo cognitivista, attraverso cui sembrava possibile ridefinire i problemi. A differenza di altri modelli il cognitivismo non possiede una propria concezione dell’uomo, poiché non fornisce spiegazioni del comportamento umano: l’individuo, oggetto di studio, è considerato un elaboratore di informazioni. Sono i processi cognitivi che vengono presi in esame in quanto funzioni organizzative e sono uno degli oggetti privilegiati della scienza, ma l’importante elemento di novità è la concezione che intende l’organismo, quindi il Sistema Nervoso Centrale, come organizzatore-elaboratore di informazioni, che provengono dall’esterno e dall’interno e raggiungono un sistema che ha già sue forme di organizzazione: perciò occorre analizzare come queste accolgano gli elementi “in entrata”. Uno dei compiti che la psicologia cognitivista si pone è quello di elaborare micro-modelli utili a chiarire come funzionino i passaggi e le fasi di questi processi.

Dal punto di vista storico, il cognitivismo ha a che fare con il comportamentismo, che negli anni 50 entra in crisi, poiché il modello S-R diventa insufficiente a fornire spiegazioni e giustificazioni dei comportamenti: essi appaiono così complessi che occorre inserire più variabili intervenienti fra stimolo e risposta. La prima critica al comportamentismo proviene da un linguista, Chomsky. Nel 1960 Miller, Galanter e Pribram, tentano di trovare una unità di misura del comportamento che sostituisca il modello classico S-R: tale unità implica la nozione di feed-back, nel senso che l’unità dovrebbe essere un circuito a feed-back.

Con tali strumenti tecnologici è possibile elaborare modelli di funzionamento dei processi mentali, che sono lo scopo fondamentale della psicologia cognitivista. L’elaborazione di micromodelli è funzionale alla descrizione di circuiti di entrata e di uscita dell’informazione. Il modello S-R, diventato S-O-R, è risultato insufficiente esigendo un approfondimento delle variabili che costituiscono O (organismo) e che può essere ottenuto elaborando il funzionamento di singoli processi mentali.

Nel cognitivismo confluiscono molteplici influenze (comportamentismo liberalizzato, teoria dell’informazione e dei sistemi, neurofisiologia di Hebb, etologia, linguistica di Chomsky, teoria della Gestalt). Questa complessità di apporti ha reso quanto mai “attraente” il cognitivismo, che rappresenta l’esempio più fecondo della crisi e della vitalità della ricerca psicologica del nostro tempo.CAPITOLO 2 – IL METODO SPERIMENTALE

IntroduzioneUno dei problemi più dibattuti è quello del metodo ottimale da impiegare per consentire alla psicologia di acquisire uno statuto scientifico e definire in modo esaustivo il proprio oggetto di studio. Si è così diffusa la consapevolezza che è appropriato parlare non di “metodo” ma di “metodi” e che l’oggetto di studio è passibile di una definizione solo operativa.

Una teoria e gli enunciati ad essa riconducibili hanno valore perché sono dotati di capacità esplicativa per comportamenti e sono in grado di indicare tutti i fattori cui sono attribuili i fenomeni osservati. Una teoria è dotata anche di un carattere predittivo, poichè consente di elencare le condizioni per la riproduzione dei fenomeni osservati e ottenere la

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

quantificazione del fenomeno. Una buona spiegazione del fenomeno consente, inoltre, di precisare le condizioni della sua riproduzione sperimentale.

Un enunciato empiricamente verificato consente una previsione anche circa la sua frequenza di accadimento. Le esigenze tecnologiche della previsione assume implicazioni operative tali da far sussistere anche problemi etici. I problemi etici, che possono sorgere dalla “manipolazione delle variabili” praticata dallo studioso, sono facilmente intuibili; di fronte ad essi, lo studioso quasi sempre si arresta, cercando di ottenere informazioni il più possibile equivalenti; gli predispone, pertanto, situazioni di osservazione in cui siano mutati i soggetti o i compiti o i criteri di campionamento.

È chiaro che un metodo che rispetti i requisiti della confermabilità dei dati di osservazione, della casualità del campionamento dei soggetti, della rappresentatività del campione selezionato rispetto alla totalità della popolazione garantisce la riproducibilità dei risultati e la loro obiettività, meglio di un metodo che non rispetti tali requisiti. Molte conoscenze indispensabili per la pratica dello psicologo non sono riconducibili ad osservazioni rigorose e sistematiche per varie ragioni:

a) Il grado ancora limitato di elaborazione teorica delle nozioni il cui significato dovrebbe essere verificato attraverso l’osservazione dei fenomeni designati;

b) La complessità dei fenomeni osservati;c) La rarità (o addirittura l’eccezionalità) dei fenomeni osservati;d) L’estensione di certi fenomeni in un arco temporale talmente vasto da rendere

impensabile la standardizzazione delle osservazioni.Il metodo sperimentale

L’uso di questo metodo, raffinato sul piano concettuale, si è diffuso in psicologia dopo il 1935, a seguito di acquisizioni teorico-metodologiche. La sua diffusione è collegata alla facilità di manipolare e quindi graduare le variabili psicologiche rispetto a quelle socio-antropologiche. Tale metodo facilita la formulazione e la verifica di enunciati significativi per determinate teorie, poiché la maggior parte degli enunciati e delle teorie si basa su relazioni di causa-effetto.

Il compito primario dello studioso consiste nella ricerca di dati che dimostrino l’esistenza di tali relazioni, di contro all’ipotesi dell’andamento casuale dei fenomeni sottesi ai dati reperibili nelle specifiche situazioni.

Le situazioni sperimentali predisposte dal ricercatore si possono ricondurre a 2 tipi: quelle di laboratorio e quelle “di campo”. Le prime prevedono il supporto di una strumentazione per la somministrazione di stimoli che costituiscono la variabile indipendente, per la graduazione della loro intensità, per la registrazione il più possibile fedele e immediata dei dati. Le seconde prevedono interventi del ricercatore e somministrazione di stimoli in ambienti preesistenti alla sperimentazione; tali ambienti presentano caratteristiche tali da non essere modificate dalla sperimentazione. Questo tipo di situazione si applica a sperimentazioni i cui dati si riferiscono a fenomeni complessi, non riproducibili in laboratorio.

Sotto il profilo concettuale, la logica dell’esperimento è semplice: si tratta di provare che certi eventi, collegati alla variabile oggetto di studio, non accadono a caso, ma con una frequenza tale da ridurre al minimo il margine di probabilità di errore qualora si affermi per l’esistenza di una relazione tra variabile e fenomeno.

La scelta dell’unità di misura della variabile è un’operazione concettuale difficile, in quanto il rispetto di certi criteri, quali l’attendibilità e precisione delle misurazioni, che assicura stabilità dei risultati, impone controlli preliminari rigorosi. Poiché le unità di misura debbono essere definite in forma stabile prima della misurazione, vengono formate delle “scale”, vale a dire delle serie di unità per i valori delle misurazioni. Le scale sono di 4 tipi (nominali, ordinali, ad intervalli, di rapporti) e posseggono proprietà matematiche diverse, di carattere “cumulativo”, tali da essere possedute anche da quelle di livello superiore.

Scelta la scala di misura, individuate le modalità di somministrazione e di dosaggio degli stimoli, lo studioso può eseguire l’esperimento.

Il metodo dell’inchiesta

Il metodo dell’inchiesta, molto utilizzato in psicologia sociale, permette di rilevare dati circa opinioni, atteggiamenti, valori, utilizzando interviste o questionari per registrare il

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

comportamento verbale del gruppo-campione della ricerca. L’inchiesta mira a ricostruire gli ipotetici processi psico-sociologici svoltisi prima dell’indagine. Il ricercatore non manipola gli stimoli variabili; in compenso, questo metodo gli consente un approccio più immediato a fenomeni difficilmente manipolabili attraverso un’apparecchiatura sperimentale e consente l’inquadramento di eventuali altre informazioni, allargando il numero di “variabili dipendenti” che concorrono alla misurazione delle variabili indipendenti.

Il metodo dell’inchiesta permette di formulare un corretto disegno sperimentale e un piano di sondaggio con finalità non dimostrative, ma descrittive. La presenza di un disegno sperimentale lo accomuna al metodo sperimentale e a quello differenziale; ma ciò che lo differenzia dall’uno e dall’altro è la possibilità di utilizzare un sistema di riferimento e classificazione dei dati non completamente predefinito, dovendosi il ricercatore limitare per certe informazioni a un trattamento con le procedure della statistica descrittiva. A questi vantaggi si aggiunge una maggior facilità del campionamento, poichè occorre un minor controllo delle caratteristiche degli individui.

Gli svantaggi sono: 1) il controllo scarso sulle variabili influenti sulla situazione; 2) il rigore minore con cui vengono vagliate le caratteristiche individuali date dal facile campionamento; 3) i fenomeni misurati non sono osservati direttamente, ma desunti da comportamenti verbali; 4) la presenza di effetti di distorsione difficilmente valutabili indotti dall’interazione sociale tra intervistatore-intervistato.

Per realizzare un’inchiesta si utilizzano questionari, che offrono una maggiore standardizzazione delle procedure, e interviste, che hanno margini di incertezza minori circa l’attendibilità delle conclusioni.

L’intervista può essere standardizzata (si è legati alla formulazione delle domande del modulo), semistandardizzata (l’intervistatore rivolge domande specifiche sulle questioni importanti, per il resto può rivolgere altre domande a sua discrezione per ottenere chiarimenti o inforamzioni impreviste) , non standardizzata (si può adattare l’intervista per instaurare un buon contatto interpersonale e rassicurare l’intervistato).

L’inchiesta compensa il minor rigore con l’esplorazione di atteggiamenti e comportamenti difficilmente riproducibili in laboratorio e con l’elasticità.

Il metodo differenziale

Per questo metodo sarebbe opportuno parlare di “famiglia” di metodi, data la molteplicità delle applicazioni e delle configurazioni teoriche che ha. Alcuni autori preferiscono denominarlo “metodo comparativo” per sottolineare il confronto tra comportamenti diversi e attribuibili a caratteristiche esistenti “in natura”. Per ragioni storiche e lessicologiche è preferibile la denominazione di “metodo differenziale”.

Nel metodo differenziale si ricorre al disegno sperimentale e si effettua un campionamento il più possibile rigoroso e allargato. Le variabili indipendenti non sono manipolabili; sono quasi sempre sul tipo del sesso, dell’età dell’intelligenza, di un’attitudine. Poiché le variazioni di dosaggio nelle variabili indipendenti sono prodotte dalla “natura”, il ricercatore deve controllare le altre che potenzialmente concorrono a esaltarne o rafforzarne l’effetto, poiché non può isolarle o neutralizzarle con artifici strumentali e concettuali. Ciò spiega come le ricerche eseguite col metodo differenziale tendano ad approdare alla definizione delle correlazioni esistenti tra più variabili.

Rispetto al metodo sperimentale, il metodo differenziale si distingue perché le differenziazioni delle variabili indipendenti esistono nella realtà e corrispondono a qualcosa di reale e misurabile; le ricerche eseguite introducono delle misurazioni in fenomeni realmente esistenti o obiettivabili in determinate circostanze. Ne consegue che i risultati ottenuti sono ripetibili e controllabili e perfettibili: la ripetibilità dei risultati assicura la possibilità della loro standardizzazione per la popolazione.

Nella “famiglia” dei metodi differenziali rientrano anche delle varianti, che sarebbe più appropriato definire “tecniche”, come, ad esempio, il “metodo dei gemelli”. Queste varianti strutturano delle particolari differenze per studiare dei problemi abbastanza generali, come l’influenza dell’ereditarietà e dell’ambiente sullo sviluppo dell’intelligenza.

Anche altri metodi sono talora classificati in questa famiglia, ma vi rientrano solo se rafforzati da accorgimenti metodologici che non sono propri delle formulazioni che hanno portato ai risultati noti. Pertanto sembra preferibile una classificazione più tradizionale, pur

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

ammettendo la possibilità di loro applicazioni più raffinate, tali da farli rientrare fra i metodi differenziali.

Deve essere chiaro che i metodi, in quanto strumenti per la raccolta di dati e l’inferenza di informazioni, possono sempre essere perfezionati, in funzione del maggior controllo delle variabili indipendenti e dell’introduzione di pressuposti logici.

Il metodo dell’osservazione

Il metodo dell’osservazione mira alla registrazione del comportamento degli individui nel loro stato naturale, ambientale e cognitivo-emozionale, attraverso un’interferenza minima del ricercatore. Ciò è pressochè irrealizzabile, poichè l’osservatore influisce sul campo di osservazione; tuttavia, si sono adottati accorgimenti per limitare tale influenza. Si debbono riconoscere comunque alcuni pregi: anzitutto, tale metodo non pone costrizioni su quanto il ricercatore deve osservare (difficilmente il piano di osservazione realizzato alla fine dello studio corrisponde a quello inizialmente progettato); secondariamente, permette osservazioni apparentemente disparate, che possono suggerire ipotesi di lavoro o interpretative.

Il metodo dell’osservazione è impiegato in molti contesti, soprattutto in etologia, ed è alla base dell’osservazione partecipante, che prevede che il ricercatore trascorra un periodo di familiarizzazione con gli abitanti del luogo per farsi accettare, interagire e ricevere informazioni. La registrazione di dati è differita, non potendo avvalersi di registrazioni magnetofoniche e questionari, e prevede il ricorso al protocollo quotidiano, cioè alla compilazione di un diario degli eventi significativi con riferimento alle opinioni espresse e ai comportamento manifestatisi. Poi il ricercatore descrive i processi socio-psicologici osservati, avanzando ipotesi interpretative.

Ciò che accomuna tale metodo a quello sperimentale è il presupposto che variazioni degli stimoli esterni inducono variazioni nel comportamento indagato. Tuttavia nello studio non c’è lo stesso rigore logico-concettuale. Per stimolo infatti non si intende uno stimolo che è fatto variare dal ricercatore, ma una situazione stimolante.

Tale tecnica è utile poiché permette di correlare stimoli e comportamenti senza vincoli di rigide procedure dimostrative. Per evitare interpretazioni troppo soggettive e non legate ai fatti osservati, ci si avvale di più osservatori, si variano le condizioni di osservazione, si utilizzano protocolli-tipo per delimitare i comportamenti da osservare.

Tale metodo ebbe notevole fortuna all’inizio del XX secolo, quando furono definite le caratteristiche del metodo dell’auto-osservazione, cioè dell’introspezione, che sposta l’attenzione dal mondo esterno al mondo interno dell’individuo per descrivere il suo vissuto in rapporto a emozioni, immagini, pensieri. Ma tale tecnica esclude l’accesso all’inconscio. Tale limite fu percepito con la diffusione della psicoanalisi.

Quando è ancora utilizzata l’introspezione serve per formulare un modello descrittivo non dei contenuti mentali vissuti, ma della direzione dei processi mentali.

CAPITOLO 3 – I METODI PSICOMETRICI

IntroduzioneLa psicometria è rivolta alla costruzione di strumenti per misurare costellazioni

comportamentiali e individuare tratti, abilità, capacità, descrivibili in base a teorie psicologiche. Il punto di vista che vede nei tratti misurati dai tests degli elementi descrittivi del comportamento individuale riflette una concezione epistemologica operazionalista e costruttivista: la validità e la fedeltà di un test (rispettivamente, il grado in cui un test misura ciò che si propone di misurare e il grado di ripetibilità dei punteggi riportati dai soggetti nello stesso test) sono modificabili, poichè le caratteristiche della popolazione o le prove della validità di costrutto possono mutare.

La validità di un test è legata ai compiti e alle situazioni obbligate per la popolazione. Poiché i compiti più diffusi e importanti per la popolazione in età evolutiva sono quelli scolari e poiché le tecniche didattiche sono comuni in Europa e in America, ne consegue che i tests hanno misurato ciò che ci si aspettava che misurassero.

Un’altra critica rivolta ai tests è che essi portano a un’ attendibilità delle valutazioni fondata su indici scarsi. Tale critica è pertinente, poiché la psicometria, che è fondata su una concezione probabilistica degli eventi e che porta a correlare punteggi e costellazioni

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

comportamentali, non garantisce la forza della relazione ipotizzata tra gli indici di certe variabili e la stabilità dei comportamenti. Quindi il valore predittivo può rivelarsi inadeguato. Tuttavia le conclusioni cui si perviene somministrando dei tests hanno un valore predittivo maggiore di un’aspettativa fondata sulla distribuzione casuale degli eventi, anche se non possono conferire la certezza circa abilità e rendimenti dei soggetti. A questa attendibilità non assoluta delle indicazioni fornite dai tests si può ovviare parzialmente, sottoponendo il soggetto a più tests coordinati, in modo da avere informazioni la cui correlazione si avvicini a valori ottimali.

Alcune critiche rivolte alla psicometria, legate alla predittività, hanno avuto una funzione positiva e hanno suscitato problemi reali, anche se talora enfatizzati. Anzitutto alla psicometria viene imputato di misurare delle variabili globali (es. intelligenza) tramite delle prove e quindi tramite indici di abilità. Tale critica è stata rivolta soprattutto a scale di intelligenza generale (Stanford-Binet e W.I.S.C.) e ha portato a costruire tests specifici, diffondere una cautela maggiore nella valutazione, comprendere il ruolo esercitato dalle abilità linguistiche nell’apprendimento scolastico in particolare.

Sguardo storico

La psicometria è sorta in psicologia differenziale, venendosi a configurare come insieme di tecniche di rilevazione, elaborazione, interpretazione di dati psicofisiologici, psico-attitudinali e caratteriologici. Sviluppatasi in Inghilterra e negli Usa, inizialmente essa ha indirizzato il suo interesse verso la definizione delle caratteristiche intellettive di base (intelligenza generale) per individuare l’unico fattore intellettivo sotteso a abilità e capacità. Questa ipotesi fu sviluppata da Spearman (1863-1945) che trovò il modo di calcolare la correlazione fra votazioni scolastiche e punteggi dei tests.

Indipendentemente da Spearman, Binet in collaborazione con Simon, realizzò seguendo altri procedimenti logici, su commissione del Ministero della Pubblica Istruzione francese, un test normalizzato di intelligenza con prove distinte per livelli di età. La scala di intelligenza Binet-Simon fu revisionata nel 1916 da Terman.

Alla teoria di Spearman si oppose Thurstone, che ideò l’analisi fattoriale, attraverso la quale semplificare la descrizione di dati, riducendo le variabili lungo le quali erano state effettuate le misurazioni, in funzione di un numero ristretto di fattori.

Una posizione intermedia tra quella di Spearman e quella di Thurstone è stata assunta da Burt e Vernon, che hanno proposto uno schema alternativo gerarchico per l’organizzazione di fattori (al culmine della gerarchia c’è il fattore G di Spearman).

La psicometria si è sviluppata anche in forma non strettamente quantitativa, come nel caso dei tests proiettivi. I principi sui quali questi ultimi sono stati costruiti furono elencati da L.K. Franck, benchè le tecniche proiettive fossero già impiegate da molti anni.

Con ogni probabilità, il primo reattivo, comportante l’uso di una tecnica proiettiva, è stato il test di associazione verbale di C.G. Jung. In seguito, basandosi sulle teorie di Jung e di Freud, vennero messi a punto reattivi, come quello ideato da H. Rorschach per l’analisi delle reazioni di fronte a stimoli visivi ambigui, e come quello pubblicato da Murray sotto il nome di Thematic Apperception Test (TAT), “test di percezione tematica”.

Gli altri tipi di tests, sia quelli per misurare gli atteggiamenti, come le scale di atteggiamento sociale di Thurstone e il modulo di interesse professionale di Strong, sia quelli per valutare la personalità in senso socio-adattivo, come gli inventari del Minnesota Multiphasic Personality Inventory di Hathaway e McKinley, si rifanno a tecniche di elaborazione statistica dei tests di intelligenza di attitudini multiple.

Principi generali per la costruzione dei tests

I tests sono misurazioni obiettive e standardizzate di campioni di comportamento rappresentativi della totalità del comportamento stesso. La rappresentatività è intesa come corrispondenza tra prove del reattivo e prove del comportamento spontaneo. Per assicurare l’obiettività, che deriva dal riconoscimento di un valore predittivo, si standardizza il test uniformando le procedure di somministrazione (rispetto di istruzioni circa i limiti di tempo entro cui svolgere le prove, le informazioni e dimostrazioni pratiche da fornire all’esaminato, l’atteggiamento da mantenere) e fissando norme per determinare i punteggi (operazioni fondate su presupposti logico-matematici statistici).

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Si applica il test a campioni di standardizzazione per determinare la media del rendimento e le frequenze relative dei vari gradi di deviazione sopra e sotto la media. Per la descrizione della tendenza centrale si può ricorrere alla media, alla moda, alla mediana. Se il numero dei soggetti è elevato, la distribuzione delle frequenze ha un andamento campanulare, prossimo all’andamento della curva gaussiana.

Se la distribuzione è asimmetrica con cumulo di frequenze al limite inferiore o superiore della scala, si fanno correzioni, si somministra a altri campioni la nuova versione del test e si controlla se la distribuzione è vicina a quella normale. In caso negativo, si fanno revisioni ulteriori fino a ottenere la congruenza con la distribuzione normale. Per concludere la standardizzazione si convertono i punteggi grezzi in punti standard o centili, che assicurano la classificazione dei soggetti in funzione del punteggio grezzo: i punteggi in centili esprimono la posizione individuale rispetto al campione di standardizzazione e al campione normativo; i punti-standard indicano la distanza dalla media aritmetica espressa in deviazione-standard.

Per analizzare l’attendibilità del test (coerenza dei punteggi nel caso i soggetti fossero nuovamente sottoposti allo stesso test) si somministrano 2 versioni dello stesso test agli stessi soggetti. Il coefficiente di attendibilità deve essere oggetto di cautele, poichè fattori come l’apprendimento o il dosaggio imperfetto delle difficoltà introducono nuove fonti di instabilità nei punteggi. Per analizzare la validità del test, si esamina il contenuto del test per accertare se comprende un campione rappresentativo del comportamento e stabilire se chiama in gioco i processi psichici interessati, si raffrontano i punteggi del test con le misurazioni dirette dei rendimenti dette criteri utili anche per stabilire cosa effettivamente misuri il test, si validano i tratti che assicurano una base all’interpretazione dei fattori sottostanti al comportamento misurato dai tests.

I tests d’intelligenza

La prima scala Binet-Simon per valutare l’intelligenza rappresenta il test di intelligenza più noto. Gli adattamenti e le revisioni apportate da Terman nel 1916, nel 1937 e nel 1960, hanno portato alla costruzione della Stanford-Binet. L’ultima revisione prevede la misurazione dell’età mentale, determinata calcolando le prove superate dal soggetto partendo da un’età-base e sommando un’età pari alle prove superate sopra tale età. Il rapporto tra età mentale e età cronologica esprime il Q.I.

Nella Stanford-Binet del 1960 si individua l’età-base (in corrispondenza della quale il soggetto fornisce risposte tutte positive) e si continua a applicare il test fino a quando non è superata alcuna prova (i compiti variano). La Stanford-Binet manifesta più attendibilità con E.C. più elevata e Q.I. più bassi, poiché la scala di età risente della plasticità dei fattori cognitivi e della vulnerabilità dell’attenzione in età infantile.

Per ovviare a riserve sulla validità di tale test è stata messa a punto da Wechsler la Wechsler-Bellevue Intelligence Scale, concepita come test di intelligenza per adulti. Da una revisione della W.B.I.S. deriva la W.A.I.S., che ha portato a mettere a punto una scala di intelligenza per bambini (W.I.S.C.). Nelle scale Wechsler le prove sono raggruppate in subreattivi e disposte secondo un ordine crescente di difficoltà.

La W.A.I.S. comprende i subreattivi, 6 dei quali raggruppati in una scala verbale e 5 in una scala di performance; come nella W.I.S.C., ad ogni subreattivo viene assegnato un punteggio grezzo, in funzione del numero di risposte esatte. Le scale Wechsler consentono di calcolare un indice prezioso per le applicazioni cliniche, l’indice di decadimento intellettivo. Accanto a questi 2 reattivi generali di intelligenza esistono molti altri tests; alcuni sono quelli che vengono applicati ai bambini piccoli.

L’individuazione della debilità mentale è anche la finalità di altri tests, la cui applicazione è prevista per bambini di età superiore ai 3 anni. Essi non sono molto significativi, tuttavia, per gli individui di basso livello intellettuale e/o culturale.

Un altro tipo di tests, oggetto di molteplici applicazioni nella scuola e nell’esercito è quello dei tests collettivi di intelligenza. Essi sono raggruppati secondo i livelli di età per i quali sono stati costruiti; una tale classificazione è tuttavia solo approssimativa, poiché molte serie di reattivi comprendono forme adatte a vari livelli di età. Questi tests presentano un’attendibilità inferiore a quella delle principali scale di intelligenza, in quanto in essi giocano maggiormente i fattori legati all’ambientazione della prova.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

I tests attitudinali

I tests attitudinali si sono sviluppati poco tempo dopo i primi tests di intelligenza, che coprivano un set di abilità limitato, privilegiando le abilità collegate alle funzioni astratte o simboliche e alla rapidità delle performances. Ciò portava ad attribuire scarso rilievo alle abilità non comprese nel set misurato dalle scale di intelligenza e a concepirle come accessorie. Il massimo significato diagnostico-predittivo veniva conferito al Q.I., le altre attitudini erano considerate supplementari.

Dopo l’introduzione dell’analisi fattoriale e allo sviluppo della teoria fattoriale dell’intelligenza, si riconobbe come empiricamente documentata l’autonomia di un certo numero di attitudini (la comprensione verbale, il ragionamento aritmetico, il calcolo aritmetico, la visualizzazione spaziale, la memoria associativa). Inoltre le attitudini quali quella meccanica e visuo-motoria venivano coordinate alle attitudini misurate dalle scale di intelligenza e dalle batterie attitudinali multiple e speciali.

Un test deve godere di attendibilità e di validità. I 4 tipi fondamentali di validità non sono egualmente presenti in tutti i tests; specificamente, non sono uniformi la validità concorrente e quella predittiva. Proprio per questo fatto si andò differenziando un filone di tests (di profitto) che si segnalava per la prevalente sua validità concorrente.

I tests attitudinali e quelli di profitto misurano il comportamento individuale, che riflette l’influenza dell’apprendimento. Tuttavia, mentre i primi misurano i risultati dell’apprendimento in condizioni non controllate e prevedono il rendimento futuro inteso come progresso dall’addestramento, i secondi rappresentano una valutazione finale (a addestramento completato) del rendimento in condizioni controllate; inoltre i primi sono utili in sede clinica, i secondi in sede di orientamento professionale e valutazione scolastica. È difficile stabilire una mappa di abilità che si riferisca ai risultati ottenuti nei 2 tests, in modo da poter stabilire l’andamento di variabili.

Nel valutare tali tests è importante la validità di contenuto, che nei tests di profitto è legata alla selezione iniziale delle prove da includere e alla loro rappresentatività rispetto al materiale; nei tests attitudinali, invece, è legata alla rappresentatività delle prove rispetto alle prestazioni indicative del funzionamento individuale nelle prestazioni più ricorrenti per eseguire compiti specializzati.

I tests di attitudine hanno, generalmente, una validità di costrutto più facilmente individuabile di quella dei tests di profitto, in quanto possono essere costruiti espressamente in funzione di un costrutto ipotetico o di un altro fattore specifico.

I tests di personalità

Una delle ambizioni degli psicologi clinici è la misurazione della personalità o la descrizione analitica dei suoi tratti, sufficienti per descrivere la personalità individuale.

La maggior parte dei tests di personalità si può ricondurre a 3 categorie: inventari autografici, test per misurare gli interessi e gli atteggiamenti e tests proiettivi.

Negli inventari autografici, come il Minnesota Multiphasic Personality Inventory, il soggetto risponde su protocolli che prevedono le alternative per la risposta. L’attendibilità è limitata: nel loro impiego sono consuete contraffazioni e simulazioni.

La misura di interessi e atteggamenti influenti sull’adattamento è un problema importante della psicologia differenziale e sociale: lo studio degli interessi è quasi sempre associato allo studio delle attitudini; lo studio di atteggiamenti permette di prevedere modificazioni o stabilità degli atteggiamenti rispetto a istituzioni o gruppi etnico-sociali e in contesti professionali per stabilire se gli operatori possono collaborare. Tra i più noti tests di interessi vi è il Vocational Interest Block (VIB) di E.K. Strong Jr.. Tra le scale di atteggiamenti sono molto note quelle di Thurstone che misurano la posizione dell’individuo lungo un continuum unidimensionale.

I tests proiettivi comprendono prove relativamente strutturate, che permettono una gamma quasi illimitata di risposte. Il loro principio base è quello, di derivazione psicoanalitica, che tra i meccanismi di difesa dell’Io ve n’è uno, la proiezione, che porta a interpretare gli stimoli ambigui in funzione dei suoi atteggiamenti, emozioni e opinioni circa la realtà. I tests proiettivi sono procedure dissimulate di esame psicologico, poichè il soggetto non conosce l’interpretazione che sarà data alle risposte, ed hanno un carattere globale, poichè consentono una valutazione complessiva della personalità. I tests proiettivi richiedono la partecipazione del

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

soggetto a compiti quali la verbalizzazioni di associazioni evocate da stimoli verbali o visivi, la costruzione di storie traendo lo spunto da figure, il completamento di frasi e l’esecuzione di disegni.

La somministrazione di questi tests si basa sull’intervento delle caratteristiche dominanti della personalità, in senso strutturale e esistenziale, il quale rende ragione dell’apparente non direttività, in sintonia con la norma prevalente del colloquio che li informa: le risposte sono libere, non soggette a critiche o approvazioni da parte dello psicologo e l’interpretazione viene differita alla conclusione del test e del colloquio.

Il tipo di validità dei tests proiettivi più ricercato è, in genere, quello della validità concorrente, date le loro finalitàè prevalentemente clinico-diagnostiche.

Scale sintomatologiche

Le scale sintomatologiche registrano i cambiamenti nella psicopatologia, sono delle misurazioni di stato e si differenziano dai tests di personalità, poiché questi ultimi sono misurazioni di tratti e hanno una certa stabilità. Le scale sintomatologiche possono basarsi su una intervista clinica o su questionari di autocompilazione (self-rating scales). Per quanto riguarda i primi strumenti, occorre distinguere fra quelli che quantificano una certa sintomatologia e quelli che si prefiggono invece di quantificarla.

Una delle prime scale di quantificazione dei sintomi psicologici è stata quella di Hamilton per la depressione. Terminata un’intervista il ricercatore giudica l’intensità dei sintomi della patologia depressiva. La scala di Hamilton per l’ansia è analoga.

Una scala può prefiggersi, quindi, di misurare una variabile oppure più variabili come nella Brief Psychiatric Rating Scale di Overall e Gorham, necessaria in pazienti con svariati sintomi. Queste scale semplicemente quantificano una sintomatologia. Se noi vogliamo effettuare uno studio sull’efficacia di un nuovo antidepressivo, dobbiamo prima effettuare una diagnosi che selezioni il campione. Il processo diagnostico e quello psicometrico sono quindi separati. I loro confini diventano sfumati qualora si utilizzino strumenti che non solo quantifichino una sintomatologia, ma raccolgano dati in modo da permettere un inquadramento. Ciò ha portato allo sviluppo di criteri diagnostici.

I criteri diagnostici si basano sull’intervista di personale specializzato al paziente. Stanno però assumendo una crescente importanza i questionari di autovalutazione. L’SRT e l’SQ risultano importanti. Il primo è una scala di 30 items che riguardano sintomi che il paziente deve valutare e che sono raccolti in 4 sottoscale (ansia, depressione, somatizzazione, inadeguatezza). L’SQ contiene 92 brevi items condensabili in 4 sottoscale (ansia, depressione, somatizzazione e ostilità). I 2 questionari sono piuttosto simili: l’SRT è più preciso nel discriminare fra gruppi, l’SQ è più sensibile a modificazioni di stato, indotte o meno. Entrambi sono stati sottoposti a validazione in campioni italiani. Tali strumenti sono in grado di fornire dati discriminanti fra depressi ed un gruppo di controllo in modo sostanzialmente equivalente alla scala di Hamilton. Esistono anche questionari che non riflettono direttamente impostazioni cliniche e nosologiche, ma atteggiamenti più generali. È il caso dell’Illness Behaviour Questionnaire (IBQ) di Pilowsky e Spence, elaborata nel 1975, che misura l’atteggiamento del paziente nei confronti della propria malattia e riflette svariate dimensioni (ipocondria, convinzione di essere malati, irritabilità).

Esempi di tecniche proiettive

Le tecniche proiettive più usate sono il test di Rorschach e il T.A.T. di Murray. Il Rorschach esamina la personalità di adulti e bambini normali o mentalmente ammalati. Il materiale consiste in 10 tavole con macchie di forme varie, simmetriche. Si chiede al soggetto cosa potrebbe essere ciò che vede, annotando ciò che dice/fa, il tempo impiegato e di latenza, la posizione della tavola. Si procede poi all’inchiesta, chiarendo quali aspetti hanno determinato la percezione e localizzando le risposte. Si può anche chiedere al soggetto di scegliere le 2 tavole che gli piacciono meno e perché, cosicchè si possono confrontare le convergenze-divergenze fra quanto ha detto il soggetto nell’interpretazione e la scelta e fra scelte negative-segni di choc. La sigliatura delle interpretazioni è valutata secondo il modo di comprensione, i fattori determinanti della comprensione, il livello formale, la categoria dei contenuti e la frequenza statistica delle risposte. I modi di comprensione rivelano l’area della macchia a cui si riferisce la risposta, che può interessare tutta la figura (tendenza alla sintesi),

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

un dettaglio pregnante (meticolosità), un dettaglio interpretato per intero, parzialmente (inibizione) o gli spazi bianchi (opposizione). La seconda valutazione è quella dei fattori determinanti, cioè se la risposta è determinata dalla forma, dal colore, dal movimento, dalle sfumature, dal chiaroscuro. La risposta forma è considerata la misura di capacità di controllo cosciente e prolungato del pensiero. La risposta di movimento indica motivazioni, desideri, affetti e atteggiamenti inconsci, potenziale creativo, introversione. Le risposte colore sono in relazione alla sfera affettiva-emotiva e indicano il desiderio di legarsi o distaccarsi (più la somma colore è elevata, più l’interesse verso l’ambiente è grande). Le risposte sfumatura hanno un valore di prudenza affettiva, di ricerca ansiosa dell’adattamento. Le risposte chiaroscuro indicano la paura degli altri; rappresentano una capacità di controllo conscio, autoregolato, istantaneo delle pulsioni. L’indice diagnostico dedotto dalla valutazione delle determinanti è il tipo di risonanza intimo, cioè il rapporto fra numero di risposte movimento umano e somma delle risposte colore. I tipi di contenuto delle risposte più comuni sono: animale, dettaglio animale, umano, dettaglio umano. La frequenza delle risposte evidenzia il carattere banale, se il contenuto ricorre nelle interpretazioni, originale per interpretazioni non riscontrate facilmente. L’interpretazione dei dati fornisce un quadro delle dimensioni della personalità, l’intelligenza, l’affettività, l’adattamento sociale e permette di mettere in luce l’esistenza di disturbi intellettivi ed affettivi.

Il T.A.T., ideato da Murray e Morgan nel 1935, è un test a stimolo strutturato. Non mira come il Rorschach ad un’analisi formale della personalità, ma a rivelare contenuti significativi e pressanti della personalità: natura dei conflitti, bisogni, reazioni all’ambiente. L’ipotesi base è che il soggetto, qunado interpreta una situazione ambigua, quale viene rappresentata in ciascuna tavola, proietti sul personaggio principale in cui si identifica motivazioni, bisogni, emozioni che egli avrebbe in un’analoga situazione.

Le scene rappresentate nelle 31 tavole sono indefinite e ambigue. Al soggetto si presentano 20 tavole scelte in base a sesso e età. Alcune tavole sono uguali per tutti; la tavola bianca favorisce la proiezione dell’immagine di sé.

Si chiede di raccontare una storia per ogni tavola, quello che accade, ciò che è accaduto precedentemente, come andrà a finire. Per essere significative le storie devono essere almeno di 300 parole. Dopo si procede all’inchiesta per ottenere spiegazioni, chiarimenti e per cercare di sapere da dove il soggetto abbia tratto l’idea per la storia.

L’interpretazione deriva dall’analisi delle storie secondo il metodo “need-press”: viene ricercato l’”eroe” nel quale il soggetto si identifica (di solito il personaggio per cui ha mostrato più interesse e che gli somiglia per età, sesso, ruolo). Le azioni e i sentimenti dell’eroe rappresentano le motivazioni del soggetto che sono collegate a bisogni profondi latenti: aggressione, dominio, sottomissione, successo, passività, aiuto, esibizione, ecc. Le pressioni dell’ambiente a cui il protagonista è esposto si possono desumere dalle azioni e emozioni degli altri personaggi e formano altre categorie: coercizione, restrizione, seduzione, aggressività, ripulsa, mancanza o perdita, ecc.

L’analisi dei temi informa circa problemi e risultati importanti per il soggetto e temi frequenti. Un altro metodo interpretativo condensa ogni storia in riassunti tenendo conto degli aspetti psicodinamici; lo schema di analisi comprende: tema principale, protagonista, comportamento davanti a superiori, figure e oggetti introdotti e omessi, attribuzione di biasimo, conflitti, punizione per un delitto, atteggiamento verso protagonista, inibizione sessuale, epilogo, appagamento dei desideri, trama.

Una variante del T.A.T. è il C.A.T. di Bellak destinato ai bambini dai 3 ai 10 anni, formato da 10 tavole con scene di animali, nei quali i bambini si immedesimano più facilmente. Le situazioni sono state scelte in rapporto ai conflitti dello sviluppo psicosessuale descritti da Freud. Per l’interpretazione valgono i criteri del T.A.T. Il C.A.T. fornisce informazioni su conflitti, angosce, difese, identificazioni, rapporti coi genitori, livello di maturazione affettiva, sviluppo del Super Io.CAPITOLO 4 – I METODI CLINICI

IntroduzioneIl metodo clinico è stato introdotto successivamente al metodo sperimentale: tale metodo è infatti sorto come strumento polemico contro la psicologia accademica, sperimentalista per definizione, a cui veniva rimproverata la ristrettezza del suo oggetto di studio, la sua

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

impostazione segmentaria, l’inadeguatezza nell’affrontare problemi della conoscenza globaledelle persone e la sua incapacità ad emettere diagnosi di personalità.

I suoi sostenitori definivano il metodo sperimentale della psicologia accademica atomistico, frazionato, statico, meccanico, sterile e si dichiaravano disposti ad essere definiti dagli psicologi sperimentalisti come soggettivi, vaghi, intuitivi, pur di individuare problemi ed identificare relazioni nello studio del comportamento considerato nella sua globalità e non solo in circoscritti settori.

Questa polemica, che oppone gli psicologi sperimentalisti agli psicologi clinici, non è, al momento attuale, ancora del tutto superata; bisogna però riconoscere che le rispettive posizioni si sono ammorbidite in quanto, mentre gli sperimentalisti hanno riconosciuto nell’osservazione clinica un metodo di grande valore per la raccolta di dati o per l’emissione di ipotesi di lavoro, gli psicologi clinici hanno cominciato ad interpretare nei termini della situazione di laboratorio i problemi postulati sulla base dei loro rilievi.

Questa avvertita necessità di verificare e cautela nel prevenire a generalizzazioni saranno particolarmente evidenti nel trattare i 2 aspetti dell’osservazione clinica: il metodo del colloquio ed il metodo psicoanalitico.

Metodo del colloquio clinicoGeneralità, varietà delle situazioni e degli obiettivi

Il colloquio clinico è una tecnica di osservazione e studio del comportamento umano: gli scopi più generali che gli sono attribuiti sono quelli di “raccogliere informazioni” (colloquio diagnostico) e di “motivare” ed “informare” (colloquio terapeutico e di orientamento). Questa tecnica ha applicazioni molteplici (pur con varianti rilevanti) in altri settori non strettamente psicologici. In campo giudiziario, per raccogliere informazioni, l’uomo di legge utilizza largamente una tecnica che per alcuni aspetti richiama quella del colloquio clinico e che impone uguale prudenza e perspicacia.

Il sociologo, quando studia le opinioni o gli orientamenti politici, religiosi, economici di un gruppo sociale, non può trascurare il rapporto e lo scambio verbale con gli individui agenti nella realtà socioculturale considerata. Il giornalista che indaga sulla personalità, opinioni e scelte dell’uomo politico, dello scienziato o del cantante, ha nell’intervista uno strumento che non è di registrazione passiva, ma di ricerca programmata, esplorazione attiva. Il medico internista, oltre agli esami di laboratorio ed ai sintomi rilevati, valorizza i dati dell’anamnesi prossima e remota, basandosi sulla testimonianza del paziente, che deve essere stimolata, orientata ed infine valutata.

L’intervista del giornalista o del sociologo, l’interrogatorio del giudice istruttore, l’indagine anamnestica del medico internista, hanno alcuni aspetti in comune con il colloquio clinico quale è attuato dallo psicologo o dallo psichiatra. Si tratta infatti in ogni caso di una situazione di conversazione, anche se la disposizione reciproca degli interlocutori, gli scopi proposti, lo svolgimento tecnico, subiscono variazioni in rapporto alle situazioni. Tutti i casi hanno col colloquio clinico problemi comuni, che impongono cautele: a) il problema dell’eventuale suggestione indotta dalle formule usate nell’interrogare; b) il problema dell’intervento della personalità (oltre che del ruolo speciale) dell’esaminatore, che suscita emozioni e motivazioni nell’esaminato; c) il problema della valutazione critica della testimonianza, cioè della sua fedeltà e della completezza; d) il problema, infine, del contenimento, entro limiti tollerabili, della distorisione interpretativa, quando l’esaminatore operi sul materiale raccolto la sintesi.

In campo medico-legale si pone il problema di valutare la motivazione e la dinamica psichica che ha condotto all’attività antisociale in modo da prognosticare la pericolosità sociale. Nel campo della selezione e dell’orientamento professionale l’indagine è diretta a valutare attitudini specifiche dell’esaminato e la struttura base della personalità. Nel campo clinico, oltre al rilievo delle anomalie comportamentali, è necessario rintracciare le forze ed i meccanismi genetici che le sottendono.

In ogni caso, nonostante la varietà dei problemi che si pongono all’esaminatore, l’obiettivo di base, ricorrente, del colloquio clinicoè quello di delineare la struttura della personalità del soggetto. Solo nell’ambito di una cornice più ampia, quale quella dell’intera personalità,

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

acquista significato una reazione emotiva o comportamentale, una disposizione percettiva ed interpretativa, una certa dinamica motivazionale.

Il colloquio clinico quale occasione di

verifica diretta della dinamica interpersonale del soggetto

Il colloquio non è l’unica fonte alla quale è possibile attingere per ricostruire la personalità del soggetto: un circostanziato documento autobiografico fornisce elementi di valore eccezionale. Il colloquio, tuttavia, presenta una caratteristica che lo rende insostituibile: oltre che fornire informazioni sulla base della testimonianza verbale del soggetto, permette una conoscenza diretta, si potrebbe dire dal vivo, della sua dinamica interpersonale. Sotto questo riguardo, il colloquio si può considerare un’autentica situazione sperimentale. Infatti il colloquio è una situazione psico-sociale: ha a fondamento una struttura sociale elementare diadica, in cui prendono vita forme di rapporto interpersonale che sono rivelatrici delle 2 personalità implicate (esaminatore e esaminato). Nel colloquio cioè vengono alla luce e si rendono osservabili in modo diretto senza passare attraverso la mediazione di una testimonianza verbale (di cui non si conosce l’attendibilità), aspetti della dinamica interpersonale che stanno a fondamento della personalità.

In altre parole, il colloquio è un caso particolare della vita di relazione del soggetto, che si offre all’osservazione diretta. Nello stesso tempo, la personalità dell’esaminatore entra attivamente in questo rapporto: i suoi atteggiamenti, le sue ipotesi, contribuiscono a modellare il rapporto ed influiscono in modo determinante sui risultati.

L’esaminatore deve essere consapevole di influire sugli atteggiamenti assunti dal soggetto anche quando il suo ruolo non è di intervento attivo, ma, almeno in apparenza, di registrazione neutrale. Nel colloquio l’esaminatore si trova in un ruolo, che non è quello dell’osservatore impersonale, ma che può essere defintito di osservatore partecipe. Tuttavia un’imparzialità ed obiettività di giudizio possono essere raggiunte dall’esaminatore, a condizione che non si illuda di eliminare l’elemento di disturbo, la propria presenza, mediante un atteggiamento passivo, non direttivo, di cronista silenzioso. Deve piuttosto conoscere anticipatamente la prospettiva nella quale tende abitualmente a collocarsi. L’esaminatore deve sapere che la sua personalità (e non solo quella dell’esaminato) è sempre coinvolta in questa caratteristica situazione, è uno strumento di misura che deve essere tarato.

Quando ciò si realizzi, è possibile isolare nella situazione di reciprocità e interazione, la parte attribuibile al soggetto esaminato e valutarla obiettivamente.

Il concetto di “multivalenza” della personalità (molteplicità dei “ruoli”) e sua utilizzazione per una valutazione esatta del colloquio

L’utilizzazione del colloquio a scopo diagnostico e prognostico si basa sul presupposto che tratti e disposizioni rilevate nel colloquio non sono caratteristiche incidentali, casuali, limitate nel tempo e nello spazio, ma possono essere trasferite ad ambiti più vasti. Il comportamento individuale, infatti, non è una serie di atti variabili a caso: le variazioni si collocano sempre nell’ambito di uno schema più ampio, che le limita dando unità, continuità di significato e senso di identità. Ciò non significa che la persona sia monovalente: essa è piuttosto un sistema multivalente dalle potenzialità molteplici, essendosi formata attraverso l’apprendimento di numerosi ruoli psicosociali.

La situazione del colloquio, soprattutto quando sia limitata ad un solo incontro, non permette di manifestare tutti i ruoli psico-sociali assimilati. Pertanto nel compiere un’esplorazione diagnostica è necessario operare con particolare cautela. L’esaminatore dovrà formulare le ipotesi con riserva proponendosi di verificare la prima impressione, altrimenti rischia di vedere il soggetto in una prospettiva limitata e qualche volta artificiosa, quando il ruolo dell’esaminato venga cristallizzato per circostanze esteriori.

Il concetto di ruolo rappresenta il processo di adattamento interpersonale del quale il colloquio deve essere lo strumento rilevatore. Questo concetto è stato definito “modello di condotte relativo alla posizione dell’individuo in un insieme interagente”. Il comportamento di un individuo, naturalmente, non si ripete mai in modo identico. Perciò il ruolo si riferisce

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

ad un comportamento molare, un’astrazione concettuale, poiché si utilizza in una serie di atti particolari, riuniti però da un significato comune.

Dalla prima infanzia ci si trova inseriti in strutture elementari (la famiglia) dove ci si deve adattare alla distribuzione dei ruoli. Successivamente il bambino entra in altri gruppi (di gioco, scolastici, professionali) sperimentando ruoli nuovi, ricalcati su modelli reali o immaginari, passando spesso da un ruolo all’altro. Nell’età adulta, alcuni ruoli diventano secondari, latenti, altri sono sperimentati in rapporto con la maturazione.

Questi diversi volti sono l’espressione dell’adattamento multivalente alla complessa realtà. La consapevolezza della molteplicità dei ruoli della persona deve indurre l’esaminatore, nella situazione di colloquio, alla cautela. La tendenza a generalizzare incautamente, a trasferire cioè fuori dal colloquio, un tratto rilevato, che è invece solo occasionale o marginale, è una frequente causa di errore diagnostico.

Analisi del colloquio clinico alla luce della teoria dei “ruoli”

Nel colloquio clinico, per evitare di porsi in una prospettiva deformante, occorre individuare il ruolo dell’esaminato e quello dello psicologo. Quest’ultimo non dipende solo da tratti personali, ma da condizioni estrinseche che danno una cornice ed un significato particolare al colloquio, il quale permette di osservare l’individuo, sia nei casi in cui non nasce da una libera scelta dell’esaminato, sia nei casi in cui è richiesto dagli interessati. Anche se lo psicologo è visto in una veste benevola, il colloquio può svolgersi in un’atmosfera poco propizia ed essere vissuto come situazione minacciosa: vergogna e timore nascono di fronte allo psicologo che conosce le regole di applicazione di una sanzione sociale e può essere visto come un protettore paterno ed autorevole, dotato di poteri taumaturgici, autorità scientifica e sociale.

Il soggetto nel colloquio si appella ai poteri terapeutici dello psicologo, alla sua esperienza, sicurezza, autorità, conoscenze, facoltà prognostiche. La consapevolezza dei ruoli in cui lo psicologo viene collocato deve accompagnare la consapevolezza da parte dello psicologo delle proprie reazioni emotive. Lo psicologo, per non cristallizzare la relazione, assumendo uno dei ruoli che suggeritigli dall’atteggiamento dell’interlocutore, deve prendere coscienza delle proprie disposizioni: spesso il confronto con altri colleghi gli permetterà di valutare il caso con obiettività e prendere coscienza di prospettive diverse dalle proprie.

In conclusione l’analisi del rapporto interpersonale realizzato dal colloquio fa rilevare l’utilità e gli inconvenienti di questo strumento diagnostico e terapeutico: da un lato il colloquio clinico permette di suscitare e osservare direttamente i ruoli assunti dal soggetto, che caratterizzano la sua personalità; dall’altro varie condizioni (pregiudizi, timori, ecc.) tolgono spontaneità al colloquio per cui i ruoli assunti dal soggetto possono non essere quelli dominanti, ma occasionali, strumentali. La conoscenza delle condizioni che rendono artificioso il colloquio e delle prospettive deformanti in cui può essere visto l’incontro dall’esaminato, la familiarizzazione con le strategie usate per adattarsi, la consapevolezza da parte dell’esaminatore della propria inclinazione ad assumere preferibilmente certi ruoli, rendono il colloquio clinico un valido strumento di conoscenza. Con queste cautele è possibile considerare caratteristici della persona i tratti psichici e gli atteggiamenti rilevati nel colloquio; quesi ultimi si possono raccogliere in 3 categorie di rapporto interpersonale: improntato all’aggressività, alla sottomissione, all’evasività (il colloquio può rivelare la prevalenza di queste forme di adattamento).

Le fonti di informazione del colloquio clinico

Il colloquio clinico è un’interazione dove si scambiano informazioni che si raggruppano, secondo Cook (1971), in: contenuto, contesto, espressioni non verbali.

Contenuto: il problema attuale e precedenti biografici del soggetto

Il contenuto comprende espressioni verbali e azioni del soggetto che costituiscono una fonte di informazione. Nell’indagine sulla situazione attuale e sui precedenti più significativi, si può partire dal problema che conduce il soggetto all’esame e compiere una ricostruzione dei

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

fatti salienti. I punti fondamentali che devono essere toccati nell’esplorazione biografica possono essere: composizione della famiglia d’origine e suo clima affettivo; eventi fondamentali dell’infanzia; salute fisica; stabilirsi delle relazioni extrafamiliari; esperienze in rapporto all’educazione scolastica; vita affettiva; relazioni sociali; vita professionale; utilizzazione del tempo libero; livello socio-economico raggiunto; rapporti nell’ambito familiare.

Si può partire dal problema attuale del soggetto, lasciandogli una notevole libertà di esposizione per risalire via via ai precedenti biografici. Il giusto equilibrio tra atteggiamento non direttivo e direttivo, da parte dello psicologo, dipende dall’atteggiamento del soggetto: nel caso che una logorrea impedisca di focalizzare i problemi, è necessario guidare il soggetto in un’ordinata esplorazione. Non è possibile valutare le disposizioni del soggetto se non si ricostruisce l’ambiente dove è maturato e non si valutano le influenze che questo ha esercitato.

Il soggetto – nel comunicare situazioni, atteggiamenti, sentimenti – utilizza categorie verbali il cui significato non è definito in modo inequivocabile. Tutte le volte che il soggetto adopera espressioni come nervoso, timido, emotivo, ecc. è necessario chiarire il significato: si deve fare descrivere un evento cui si riferisce l’espressione adoperata, cioè cercare sempre delle esemplificazioni concrete. Il materiale raccolto durante il colloquio deve essre sottoposto ad un esame: deve essre valutata la verosimiglianza e la coerenza oppure l’eventuale contraddittorietà dei fatti; la presenza di zone oscure; la presenza di dettagli più o meno numerosi nei vari settori.

Nel collegare fatti secondo una relazione di dipendenza causale, nell’attribuire pesi diversi alle cause-concause, nell’identificare uno sviluppo logico negli avvenimenti, lo psicologo fa contemporaneamente appello a concetti psicologici e alla conoscenza personale, acquisita attraverso l’esperienza, delle diverse reazioni ideo-affettive possibili nelle varie situazioni ambientali.

Il contesto

Altra rilevante fonte di informazione è costituita dal contesto dove si pone il comportamento del soggetto. È ovvio che nessun comportamento può essere valutato a prescindere dal contesto in cui esso viene messo in atto. L’indagine psico-sociale contemporanea ha recentemente acquisito l’importanza fondamentale del contesto, in cui ha luogo ogni processo interpersonale, secondo cui parole, frasi, constatazioni, comportamenti diventano significativi in rapporto alla situazione in cui vengono osservati. La situazione e le circostanze che circondano una o più persone influenzandone il comportamento non sempre sono evidenti e condivise; spesso accade di verificare come il contesto comunicativo venga vissuto dai partecipanti come diverso; si parla allora di metacontesto, intendendo le esperienze soggettive del contesto che possono comportare distorsioni della comunicazione con condfusione di significati. Le ricerche di Secord e Backman hanno riscontrato che spesso il comportamento di una persona è determinato più dal ruolo che dalla sua personalità. L’assenza di un contesto rende artificiali gli esperimenti di laboratorio e non del tutto attendibili i risultati.

Il colloquio clinico, come forma di interazione, si configura come un contesto in cui diversi e specifici sono i ruoli svolti.

L’intervistatore dispone dunque delle espressioni del soggetto, unitamente al contesto in cui esse vengono poste in atto: può osservare direttamente questi elementi oppure indirettamente dalla memoria o dal resoconto di un altro. Complessivamente questi elementi concorrono alla formazione di un’opinione sul soggetto, unitamente a informazioni indirettamente ricevute tramita testimoninze, relazioni o pettegolezzi. È infatti accertato che le informazioni indirette influiscono su impressioni che sono provocate dalle persone con le quali si entra per la prima volta in rapporto. Non si tratta sempre di informazioni attendibili, anzi piuttosto dubbie e irrazionali. Per esempio Cook (1971) afferma che è appurata la tendenza ad attribuire caratteristiche indesiderabili a persone che hanno cognomi indesiderabili secondo criteri di valutazione correnti.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

È piuttosto scarsa la letteratura circa l’effetto del contesto. Una ricerca condotta da Mintz (1956) ha riscontrato che anche l’ambiente impersonale può influenzare l’impressione suscitata dal soggetto: per esempio viene valutato diversamente un soggetto a seconda che lo si sia incontrato in un ambiente gradevole o sgradevole. Una ricerca di Holmes e Berkowitz (1961) ha mostrato l’intervento dell’effetto del contrasto in giudizi concernenti l’affabilità di un soggetto.

Espressioni non verbali

La terza fonte di informazioni è costituita dalle espressioni non verbali. Nel colloquio il canale verbale è determinante; ma l’analisi del CNV indica informazioni non fornite dal contenuto verbale, utili soprattutto quando è difficile esprimere pensieri o verbalizzare stati emotivi. I segnali inerenti il comportamento spaziale informano sul modo con cui gli individui si relazionano: esiste infatti una relazione fra configurazione spaziale e ruoli: la vicinanza fisica segue regole che variano in relazione alla situazione ed è importante in relazione al grado di intimità; l’orientazione (angolo secondo cui le persone si situano nello spazio) informa sugli atteggiamenti interpersonali e indica i rapporti di collaborazione, intimità o di gerarchia, che possono stabilirsi fra interagenti, e le differenze di status; la postura è un segnale che partecipa al processo interattivo e comunicativo, è correlata al contesto sociale e meno controllabile del volto o della voce.

Il comportamento motorio comprende i gesti delle mani, tra cui gesti emblematici (significato traducibile in parole), illustratori (illustrano ciò che si dice), regolatori (mantengono il dialogo), di adattamento (appresi come comportamento adattivo, abituali). Cenni del capo, espressioni del viso, sguardo, aspetto esteriore (volto, conformazione fisica, abbigliamento, trucco, capelli) trasmettono informazioni.

Aspetti non linguistici del comportamento verbale, definiti paralinguistici, comprendono qualità della voce (tono, risonanza, caratteristiche temporali, ecc.) e vocalizzazioni (varietà di suoni non aventi la struttura del linguaggio: caratterizzatori, qualificatori e segregati vocali). Per quanto riguarda la metodologia di queste ricerche, dapprima si sono indagati i rapporti fra fenomeni non linguistici e aspetti dei soggetti; poi è stata indagata la relazione fra stati emozionali transitori e fenomeni paralinguistici. Davitz ha valutato la possibilità di riconoscere stati emozionali, contando sulla voce.

Il CNV è un linguaggio di relazione, che segnala mutamenti di qualità nella relazione interpersonale e comunica emozioni, per motivi fisiologici e per la priorità del CNV su comportamento verbale durante lo sviluppo della personalità (i suggerimenti non verbali possono sostenere/smentire la comunicazione). Ha valore simbolico, che esprime in un elementare linguaggio del corpo atteggiamenti circa l’immagine di sé e del corpo, e una funzione metacomunicativa (fornisce elementi per interpretare il significato delle espressioni verbali; segnali non verbali sono determinanti nel valutare sentimenti di chi parla). È - soggetto del linguaggio a interventi della censura. Informa sulle modificazioni del funzionamento psicologico e sulle differenze individuali.

Elaborazione dei dati ed errori di valutazione

I dati si organizzano in una sintesi organica, che non è la somma dei tratti di una persona. Il riscontro di un tratto induce a ammettere che esistono tratti non verificati, compiere “extrapolazioni”, trascurare un tratto, considerarlo occasionale, eccezionale, modificarne il significato: tale rigidità nella percezione entra in gioco se si tenta una rappresentazione schematica del soggetto e si può spiegare in base a teorie della coerenza (ignorare informazioni discrepanti rispetto a opinioni formate). La conoscenza del processo di elaborazione delle informazioni raccolta è la premessa allo studio dell’errore diagnostico e delle forme di distorsione del giudizio: 1) nella fase iniziale del colloquio è possibile legarsi ad una sola ipotesi diagnostica, realizzando una cristallizzazione precoce del giudizio; la presunzione di giudicare a colpo d’occhio rischia di sterilizzare il colloquio, perché l’impostazione iniziale porta a ricercare solo i sintomi che la confermano; 2) implicazione ha un valore probabilistico: rilevato un tratto si ritiene che un certo numero di altri tratti vi si accompagni; ciascun esaminatore utilizza un sistema di implicazioni costruito attraverso l’esperienza, che può essere viziato dal soggettivismo; bisogna ricordare implicazioni

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

infondate legate all’accettazione da parte dell’esaminatore di teorie e sistemi; 3) somiglianza e/o simpatia presunta: ad esempio, si tende a attribuire caratteristiche positive a persone simpatiche; 4) proiezione secondo cui motivazioni del giudice renderebbero confusa la percezione del soggetto da parte del giudice; si distinguono: la proiezione attributiva (presumere che altri siano somiglianti a noi); la proiezione classica (attribuire le proprie caratteristiche indesiderate, inaccettabili, irriconoscibili); la proiezione razionalizzata (il giudice, consapevole di fare delle proiezioni, non è consapevole dei motivi per cui lo fa); 5) uso di regole di identificazione definite come stereotipo condiviso.

Un giudizio valutativo si configura come atto diagnostico e tende a costruire tipologie rigide, etichettando il soggetto e creando un fenomeno di influenzamento detto di “determinazione verbale” da cui un paziente è stigmatizzato e categorizzato come psicotico, nevrotico. La pericolosità di tale definizione risulta ancor più evidente se si considera che non è fondata su dati obiettiv, ma formulata sulla base di giudizi soggettivi. Recentemente si tende a introdurre al posto di definizioni statiche della personalità, che portano a costruire rigide tipologie, il concetto di stile comportamentale che consente di individuare più particolari schemi di comportamento che complessivamente vanno a costituire il repertorio espressivo dell’individuo.

Comprensione e fraintendimento

Assume una rilevanza particolare il problema della comprensione fra i 2 interagenti (intervistatore e soggetto). Possiamo analizzare casi di non comrensione fra chi conduce il colloquio e il soggetto: un caso particolare di non comprensione è costituito dal fraintendimento, dal travisamento cioè del messaggio da parte del ricevente; si tratta di un’incomprensione inconsapevole, una falsa comprensione. Elementi in gioco nel fraintendimento di un messaggio possono essere distinti in elementi oggettivi intenzionali e non intenzionali e in elementi soggettivi suddivisi in: infrapersonali (legati a variabili quali memoria, attenzione, impegno, ecc.), inerenti l’“enciclopedia” degli interlocutori (legati cioè alle differenze socioculturali fra emittente e destinatario) e interpersonali (legati al fraintendimento delle intenzioni dell’emittente, a false interpretazioni del non detto, ecc.).

È chiaro che nel colloquio clinico si richiederà all’intervistatore il superamento di una comunicazione egocentrica a favore di una non egocentrica. In un rapporto comunicativo fra 2 persone occorre, perché una comunicazione sia efficace, superare questi ostacoli mediante un processo di decentramento dal sé che richiede flessibilità, destrutturazione, ristrutturazione, assunzione alterna del proprio e dell’altrui schema di riferimento, capovolgimento di prospettiva. Si tratta di superare molti ostacoli di ordine cognitivo ed emotivo: infatti, per riuscire ad assumere il punto di vista altrui, occorre afferrare e decodificare il codice linguistico, lo stile cognitivo, il sottofondo socio-culturale, i sistemi di fede e valore su cui le sue assunzioni si basano e si richiede ancora di tenere conto delle circostanze empiriche al momento della comunicazione.

Si definisce role-taking il momento di superamento dell’egocentrismo cognitivo e la capacità di utilizzare le informazioni passate e presenti per discriminare le caratteristiche psicologiche e di conseguenza comunicare efficacemente. Per una comunicazione flessibile, non rigida, non egocentrica, è necessario un decentramento emotivo: Rogers (1961) sostiene che l’accettazione dell’altro è la condizione per un rapporto di comunicazione. Tale accettazione è in relazione all’assenza di barriere difensive. Se la comunicazione è caratterizzata o motivata dalla prevalenza di un atteggiamento valutativo, la difensività prevale. L’atteggiamento valutativo è esso stesso conseguenza della difensività: chi sa di non essere accettato tenta di sopraffare l’altro e la sopraffazione detemina una valutazione. Lo stesso ricorso alla valutazione è esso stesso una difesa dell’Io, esonera dall’operazione difficile del comprendere.

Il metodo psicoanalitico

Dai metodi pre-analitici alla nascita della psicoanalisi

La nascita della psicoanalisi può essere collocata negli anni in cui Freud, iscritto alla facoltà di medicina a Vienna nel 1873, fu a contatto con un’impostazione fondata sulla ricerca e osservazione; esercitando la professione medica si dedicò alla neuropsichiatria, esaminò

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

pazienti affetti da isteria i cui disturbi funzionali non avevano un substrato organico. La difficoltà era trovarsi davanti a qualcosa di nuovo: Freud quindi provò ad applicare l’ipnosi ai suoi pazienti; non tardò tuttavia ad accorgersi che con il metodo ipnotico si verificavano inconvenienti: non tutti i soggetti erano ipnotizzabili e in altri lo stato ipnotico si determinava in forme così lievi da non risultare sufficientemente efficace. Inoltre il metodo ipnotico incideva sui sintomi, che tuttavia non potevano essere eliminati se non si scoprivano le cause; se l’ipnosi era poco efficace, Freud decise di utilizzarla non per inibire i sintomi, ma per invitare il malato a superare amnesie riguardo a fatti all’origine di disturbi: tale metodo fu detto catartico.

L’affievolirsi di un ricordo o dell’affetto che lo accompagna dipende da vari fattori: se vi è un evento traumatico, occorre sapere se siano seguite reazioni energiche o no con le quali gli affetti vengano scaricati; se una reazione del genere avviene in maniera sufficiente, parte dell’affetto che accompagna il ricordo scompare; se la reazione è repressa, l’affetto resta legato al ricordo. Tecnica della concentrazione: la paziente si distende sul divano, chiude gli occhi, concentra l’attenzione su un sintomo cercando di ricordare la prima occasione in cui era insorto, e richiama qualunque ricordo che potesse chiarirne l’origine; se non si otteneva alcun risultato, Freud soleva premere con la mano la fronte della paziente assicurandola che qualche pensiero o ricordo le sarebbe venuto in mente. Questa ed altre esperienze convinsero Freud della bontà del metodo e lo indussero anche a chiedere ai pazienti di ignorare qualunque censura e di manifestare qualsiasi pensiero anche se ritenuto banale o irrilevante.

Nell’Io del malato si era introdotta una rappresentazione che si era dimostrata insopportabile. Freud riteneva che l’oblio e il mancato deflusso della carica emotiva ad esso legata, fossero dovuti alla natura stessa del fatto, cioè al suo carattere spiacevole, penoso, doloroso: ciò determinava l’esclusione dall’Io cosciente della rappresentazione dell’episodio. Si trattava dunque di un meccanismo di difesa.

Freud si orientò verso il metodo delle libere associazioni, che permette di esplicitare le resistenze.

Il metodo delle libere associazioni

Si è visto per quali e quanti motivi Freud abbia deciso di abbandonare del tutto l’ipnosi e qualunque altra tecnica di tipo ipnotico. Non è stata una decisione improvvisa, poiché questa era stata preparata già dai successivi cambiamenti di tecnica che col tempo Freud andava realizzando: dall’ipnosi alla catarsi ipnotica, dalla catarsi in stato di veglia alla tecnica della semplice insistenza. Si è trattato di un processo graduale nel quale un ruolo non secondario lo hanno svolto alvuni pazienti i quali, benchè invitati a ricordare le circostanze in cui erano comparsi i sintomi, spontaneamente comunicavano i pensieri senza alcun ordine; Emmy von N., una paziente isterica, lo aveva rimproverato per aver interrotto il libero corso dei suoi pensieri con continue domande.

Il risultato finale del progressivo sviluppo della tecnica di Freud si concretò nel metodo delle “libere associazioni”, che segnò il momento di nascita della “psicoanalisi”. Nella teoria della tecnica psicoanalitica si dà il nome di “regola fondamentale” a quel comportamento cui dovrebbe conformarsi il paziente. L’analista invita il paziente a comunicare tutto quanto gli passa per la mente: pensieri, fantasie, sogni, sensazioni, accadimenti, senza esercitare alcuna selezione o critica e senza omettere nessun elemento anche se ritenuto sgradevole, banale, imbarazzante, irrilevante, assurdo, sciocco.

Il termine originale, cioè “freie Einfalle”, significa “idee improvvise”. Le libere associazioni favoriscono un tipo di comunicazione, in cui si rende maggiormente accessibile il materiale più significativo concernente i problemi del paziente. La tecnica delle associazioni libere contiene in effetti alcuni presupposti fondamentali: 1) tutte le linee di pensiero tendono a condurre a ciò che è significativo; 2) le esigenze terapeutiche del paziente e la sua consapevolezza di trovarsi in trattamento porteranno le associazioni nella direzione di ciò che è significativo; 3) le difficoltà nell’osservare la regola fondamentale, gli arresti e le deviazioni nel corso delle libere associazioni sono rivelatori, “spie” dell’emergere di

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

resistenze e difese; le resistenze più o meno consapevoli all’applicazione di tale regola sono indice di processi difensivi inconsci.

Pertanto le associazioni, pur essendo libere nel senso che il paziente viene svincolato dal perseguire intenzionalmente qualunque obiettivo cosciente, in realtà libere non sono. Ma ciò è vero anche per un altro motivo: quando commenta o interpreta le associazioni, l’analista invita a riflettere; quindi il paziente associa anche in risposta a interventi dell’analista e autoriflessioni.

Presentazione dei risultati ottenuti col metodo delle libere associazioni

Importante è la scoperta dell’inconscio. La cura analitica dimostra che lo psichismo non è riducibile alla sola coscienza e che alcuni contenuti mentali, superate delle resistenze, diventano accessibili alla coscienza. Tali contenuti attivi nell’inconscio cercano di esprimersi e hanno caratteristiche specifiche: spostamento; assenza di contraddizione mutua e condensazione; assenza di negazione; sostituzione della realtà esterna con quella psichica; assenza di spazio; funzionamento in base al principio piacere-dispiacere.

Processi psichici primari: modi di funzionamento psichico dell’inconscio, esemplificati dal sogno, ai quali si contrappongono processi secondari del pensiero cosciente, che obbediscono alle leggi logiche. Nella prima teorizzazione freudiana (“I topica”) 3 diverse modalità di funzionamento dei processi psichici: sistema psichico inconscio, costituito da contenuti mentali non presenti alla coscienza premono per accedere alla coscienza, forze contrarie glielo vietano; così si esprimono tramite derivati: sogni, lapsus, associazioni, ecc.; sistema psichico preconscio, costituito da contenuti mentali non presenti alla coscienza che possono tuttavia essere facilmente resi consapevoli; sistema psichico conscio, costituito da contenuti mentali accompagnati dalla consapevolezza. Questa prima teorizzazione freudiana, il punto di vista topico, utilizza una metafora spaziale nel descrivere la psiche come distinta in più luoghi.

Il punto di vista dinamico, invece, considera la psiche dalla prospettiva delle forze che si esprimono in essa e dei conflitti esistenti tra loro: pulsioni e difese operanti contro esse. Un terzo punto di vista economico concerne l’intensità, la quantità delle forze psichiche in gioco; per tracciare la linea di demarcazione tra normalità e patologia, decisiva è la quantità relativa delle forze, tra le quali non sussiste differenza qualitativa. Il punto di vista strutturale (II topica) testimonia la capacità di rappresentare visivamente i propri concetti, in questo caso la struttura dell’apparato psichico come composta di 3 istanze: l’Es, completamente inconscio è il serbatotio di tutte le pulsioni (tali contenuti pulsionali sono in parte ereditari e innati, in parte rimossi e acuisiti); l’Io è il mediatore tra Es, Super-io, realtà esterna e realtà interna, svolge funzioni coscienti attinenti al pensiero vigile e funzioni difensive inconsce; il Super-io, in buona parte inconscio, svolge un ruolo di giudice-censore nei confronti dell’Io e funzioni di coscienza morale, autosservazione, formazione di ideali, si costituisce per interiorizzazione delle richieste e dei divieti dei genitori e proiezione delle pulsioni.

La psicoanalisi ha effettuato uno spostamento dalla vita psichica adulta all’infanzia, con la scoperta della sessualità infantile e del complesso edipico. Durante l’infanzia le attività sessuali, lungi dal limitarsi ad eventi traumatici quali le seduzioni, costituiscono una parte normale della vita psichica. Mentre la sessualità dell’adulto normale è caratterizzata prevalentemente da pulsioni e mete genitali, quella infantile è bisessuale, perversa e polimorfa, poiché include impulsi sado-masochistici, orali, anali, uretrali, voyeuristici ed esibizionistici, e sensazioni legate alla pelle, udito e odorato.

La pulsione sessuale si sviluppa dall’infanzia all’adolescenza: le pulsioni parziali per Freud originano in periodi differenti della vita. Definita libido l’espressione psichica dell’energia sessuale, sono descritte le fasi dello sviluppo libidico. Ogni pulsione ha una fonte, una meta, un oggetto: la fonte è la zona erogena; la meta è la scarica della tensione sessuale; l’oggetto è appropriato a procurare soddisfacimento. Il primo bisogno è alimentarsi, per cui la pulsione orale è la prima a destarsi e la bocca è la prima zona erogena; succhiare al seno è la partenza della vita sessuale, il modello di ogni soddisfacimento sessuale; per il primo anno e mezzo, la fase orale, bocca, labbra e lingua sono zone erogene, nel senso che

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

desideri e gratificazioni sono orali. Il primato orale cede il passo al primato orale allorchè il bambino comincia a sviluppare il controllo degli sfinteri: nella fase anale, che si estende per l’anno e mezzo successivo al periodo orale, l’ano è la localizzazione più importante dei desideri e gratificazioni sessuali; l’espulsione delle feci e la loro ritenzione, insieme alle feci, diventano il centro dell’esperienza sessuale e degli interessi. Fra i 3 e i 6 anni di età, nella fase fallica, non si ha una chiara percezione della differenza dei sessi; viene chiamata fallica perché il pene è l’oggetto di interesse: il maschio immagina il pene come l’unico organo sessuale esistente; per la bambina la zona erogena è la clitoride, analoga al pene. Solo nella pubertà, nella fase genitale, i sessi vengono differenziati. Tra la fase fallica e quella genitale Freud interpone una fase di latenza (6-11 anni), caratterizzata da un apparente assopimento degli interessi sessuali. Freud parla di organizzazione della libido nelle diverse fasi e con ciò egli non intende soltanto che una pulsione prevale in ciascuna delle fasi, ma anche che quella determinata pulsione si associa a mete e oggetti.

La libido evolve dalla fase orale a quella anale e fallica (pregenitali) per arrivare infine alla fase genitale; tuttavia frustrazioni ed esperienze insoddisfacenti possono condurre al fenomeno che Freud chiama “fissazione”: una parte della libido rimane fissata allo stadio pregenitale e associata quindi a mete e oggetti propri di quella fase. Quando ciò accade, l’organizzazione della fase genitale è debole e poco solida, cosicchè è facile che si verifichi la “regressione” a una fase antecedente, cioè al punto di fissazione. Nella concezione di Freud questo ritorno all’organizzazione propria di una fase pregenitale è il fattore determinante della nevrosi adulta.

Nella fase fallica, verso il terzo anno di vita, la nascita di quel fondamentale evento psichico che è il complesso edipico, cioè quell’insieme di sentimenti amorosi e ostili che il bambino sperimenta verso i genitori: il maschietto comincia a desiderare come oggetto la madre, la persona che è sempre stata per lui fonte di benessere, piacere. Egli diventa consapevole della relazione sessuale tra i genitori, e il desiderio per la madre desta in lui una violenta gelosia, verso il padre, dalla quale è portato a odiarlo e a desiderarne la morte: come Edipo egli desidera uccidere il padre, possedere la madre. Questi desideri entrano però in conflitto con la paura e anche con l’amore che egli sente per il padre; la paura fondamentale è quella di venire castrato dal padre come punizione dei propri desideri. Soprattutto l’angoscia di castrazione spinge il bambino a rimuovere i desideri verso la madre e l’odio verso il padre.

Il complesso edipico è un momento di svolta: è in connessione con esso, secondo Freud, che si verifica la rimozione e, come difesa contro le angosce edipiche, avviene quella regressione a fasi pregenitali. Tutti i bamibini in questo momento attraversano una nevrosi, la nevrosi infantile, e sviluppano difese che conducono al formarsi di fobie e altri sintomi.

Per quanto riguarda le pulsioni fondamentali della vita psichica, in ogni uomo operano 2 tipi di pulsioni: pulsione di vita (Eros), comprendente libido e pulsione di autoconservazione, e pulsione di morte (Thanatos), che si manifesta in tendenze auto ed eterodistruttive. L’eterna lotta tra Eros e Thanatos è fonte di ambivalenza, angoscia, sentimento di colpa. Queste 2 pulsioni, pur in conflitto, operano tuttavia anche fuse insieme: quando il questo “impasto” predomina la pulsione di morte, si producono il sadismo e il masochismo; quando invece predomina la pulsione di vita, l’aggressività è al servizio delle forze della vita e diventa egosintonica, vale a dire al servizio dell’Io.

La pulsione distruttiva attraversa gli stessi passaggi descritti per la libido. Il lattante può così esprimere impulsi attraverso un’attività orale quale quella del voler mordere; nella fase anale, si esprime con desideri di espellere, bruciare o avvelenare con le feci, mentre nella fase fallica il pene è usato come arma di distruzione, come nei desideri di fare a pezzi, penetrare, lacerare. Nel corso della sua ricerca psicoanalitica sullo sviluppo diacronico della mente umana, Sigmund Freud articolò il tema dello "sviluppo psicosessuale" e dei correlati processi della Libido in cinque fasi.

L'importanza di questa nuova concezione risedette soprattutto nel non identificare più la sessualità con la mera attività genitale dell'individuo adulto, ma nello scoprire l'esistenza di una sessualità

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

infantile, che si manifesta secondo le caratteristiche peculiari delle evoluzioni dei processi pulsionali della Libido.

Freud definisce il bambino un "perverso polimorfo"; il bambino in tal senso è perverso in quanto ricerca il piacere senza alcuna finalità riproduttiva (è importante notare come questa perversione non abbia alcuna valenza morale negativa). È, inoltre, polimorfo, poiché ricerca il piacere attraverso vari organi e tramite diverse zone erogene, e riceve gratificazione edonistica sia dal contatto col padre che con la madre. Il bambino è facilitato in questo dall'assenza di un Super Io e dell'imposizione morale prodotta dall'educazione. Freud suddivise lo sviluppo psicosessuale del bambino in cinque fasi successive; tale modello è divenuto oggetto, nel corso dell'evoluzione del pensiero psicodinamico, delle più svariate integrazioni, modifiche e critiche.

Il significato e funzione del sogno

La conoscenza dell’inconscio si può ottenere mediante l’interpretazione di sogni, che sono la forma assunta dall’attività psichica inconscia durante il sonno. Ciò che si ricorda è il contenuto onirico manifesto. Ciò che produce il sogno è il contenuto onirico latente, costituito da desideri inconsci. Il significato reale del sogno non corrisponde al significato del sogno manifesto. Il processo che produce la trasformazione del contenuto latente nel contenuto manifesto è il lavoro onirico. Il fattore responsabile della deformazione e dei travestimenti del contenuto onirico latente è la censura onirica, funzione psichica che impedisce a desideri inconsci l’accesso alla coscienza. I sogni rappresentano una delle manifestazioni del “ritorno del rimosso”, allo stesso modo dei sintomi nevrotici. Se nel sogno gli elementi rimossi affiorano, ciò è dovuto al fatto che la censura è meno severa della rimozione diurna.

Le operazioni psichiche inconsce nel lavoro onirico sono principalmente: elaborazione primaria, che comprende drammatizzazione (per cui i pensieri sono trasformati in immagini visive), spostamento (tendenza a trasferire l’accento, intensità, importanza emotiva di determinati elementi ad altri elementi, in modo da eludere la censura), condensazione (pensieri latenti sono rappresentati da un elemento del contenuto manifesto, che combina in un’unica rappresentazione diversi elementi aventi aspetti in comune), dispersione (contrario della condensazione; a una persona, oggetto o situazione del contenuto latente corrispondano più elementi del contenuto manifesto i quali rappresentano diverse caratteristiche dell’unico elemento latente), simbolizzazione (quando un elemento rimosso del contenuto latente è rappresentato da qualche altro elemento concreto nel sogno manifesto, quest’ultimo elemento è un simbolo; l’elemento rimosso è il simbolizzato), e inoltre elaborazione secondaria (rimaneggiamento del sogno per cui si eliminano apparenti assurdità, contraddizioni, inoerenze, per presentarlo in forma logica e coerente, eventualmente mediante aggiunte).

Per quanto riguarda il materialecon il quale viene costruito il sogno, occorre distinguere tra materiale attuale o relativamente recente e materiale infantile. Benchè il sogno evochi situazioni diverse da quelle della veglia, i singoli elementi concreti, che formano la scena manifesta del sogno, frequentemente riproducono ricordi, frammenti di eventi reali, situazioni vissute nel giorno prima, nel passato recente, nel passato remoto: si tratta di resti diurni, residui cioè dell’attività allo stato di veglia. Altri elementi che possono comparire in un sogno sono gli stimoli sensoriali. I resti diurni e gli stimoli sensoriali contribuiscono a costruire il sogno, sono anzi indispensabili, tuttavia non lo spiegano: in termini più precisi essi vengono utilizzati dal sogno per realizzare finalità proprie specifiche. Il sogno viene determinato dai desideri del soggetto e ne costituisce una realizzazione, benchè in forma allucinatoria, deformata. Si può trattare del desiderio di dormire; di desideri rimasti inappagati durante la veglia; di desideri recenti, ma che sono stati rimossi, cioè respinti nell’inconscio; e, i più essenziali per la formazione del sogno, di desideri rimossi di origine remota, infantile, appartenenti all’inconscio. Questi ultimi, caratteristici della prima infanzia,

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

sono desideri libidici, aggressivi, perversi, con fini orali, anali, uretrali, fallici, e possono essere di tipo sadico, masochistico, omosessuale, esibizionistico, voyeuristico.

Per Freud il sogno costituisce la realizzazione allucinatoria e deformata di un desiderio infantile rimosso. Un’eccezione a questa tesi è rappresentata dai sogni dei bambini e dai cosiddetti sogni di tipo infantile negli adulti, da quelli in cui cioè la censura non agisce, poiché i desideri che cercano soddisfazione (es. bere, mangiare, ecc.) non appaiono incompatibili con le difese del soggetto; quindi in tali casi i desideri possono esprimersi direttamente senza che si manifesti la dualità di contenuto manifesto e contenuto latente; perciò i 2 contenuti tendono a coincidere.

Riguardo alla funzione del sogno Freud afferma che esso è un custode del sonno: infatti, fornendo ai desideri inconsci un’espressione sotto forma di appagamento allucinatorio, mascherata per non “turbare” la censura, il sogno permette la continuazione del sonno e pertanto costituisce un compromesso tra il desiderio di dormire e le tendenze rimosse. Viceversa i sogni di angoscia e i sogni che determinano il risveglio, come ad esempio gli incubi, indicano che è venuta meno la loro funzione specifica, e ciò accade quando è insufficiente il mascheramento dei desideri inconsci oppure quando questi ultimi irrompono troppo violentemente nella coscienza.

È solo con la combinazione di 2 distinte tecniche, analisi simbolica e associazioni libere, che si può raggiungere il significato inconscio dei sogni. Nella seduta analitica, in pratica, per associazioni al sogno si intendono non solo, in senso stretto, le associazioni alle singole parti del sogno, ma anche, in senso più ampio, ciò che il paziente riferisce nella seduta, prima e dopo il racconto del sogno. Le associazioni libere sono la regola data al paziente, la loro applicazione ai sogni rappresenta solo un caso particolare; l’analisi di lapsus, atti mancati, sogni ad occhi aperti, comportamenti diversi, sono alcuni tra gli altri metodi usati.

Psicopatologia della vita quotidiana: atti mancati

Gli atti mancati sono lapsus verbali, di lettura e scrittura; dimenticanze di nomi, parole, fatti, propositi, progetti; sbadataggini; errori di linguaggio, memoria e azione; comportamenti riscontrabili in soggetti normali quanto in soggetti nevrotici; considerati non intenzionali, privi di significato. I metodi dell’indagine psicoanalitca consentono di scorgere dietro ad ognuno di essi un significato. Le dimenticanze sono semplici da comprendere: si tratta sempre della spiacevolezza intrinseca per l’Io delle situazioni evocate da nomi, parole o fatti oppure perché questi ricordano indirettamente al soggetto, per via associativa, situazioni spiacevoli; in ogni caso tali elementi sono stati oggetto di rimozione, anche se momentaneamente; nelle dimenticanze la rimozione svolge il ruolo principale.

Un atto mancato più complesso è il lapsus verbale, che generalmente consiste nella sostituzione della parola che si intendeva pronunciare con un’altra estranea al contesto, per cui il senso ne risulta stravolto; il discorso appare mancato, inadeguato ai suoi obiettivi. Con la psicoanalisi si è scoperto che tale situazione si determina a causa dell’intervento di un’intenzione estranea a quella che da sola doveva esplicitamente comparire. Nei lapsus possono esprimersi tendenze e pensieri che la coscienza respinge più o meno intensamente; possono essere rimossi, nel qual caso si tratta di pensieri propriamente consci, non riconosciuti come propri dal soggetto che li esprime; ma può anche trattarsi di pensieri che, sia pure inizialmente non accettati, possono essere meno lontani dalla coscienza e quindi venire riconosciuti in un secondo momento.

Ritornando ai contenuti, si può dire che gli atti mancati in genere e i lapsus tra di essi sono “mancati” solo per quanto concerne il risultato esplicito, che è poi stato impedito o disturbato: infatti su un altro piano, della tendenza latente, che cerca di appagarsi e esprimersi, si può parlare di atto “riuscito”.

Al di là delle differenze osservabili tra gli atti mancati più disparati, Freud ha dimostrato come non solo essi non siano dovuti al caso, ma come anzi siano il risultato di processi causali. Egli ha inoltre dimostrato che distrazione, disattenzione, fretta, affaticamento, ecc., sono tutte le condizioni che tutt’al più facilitano il verificarsi di un atto mancato, non produrlo. Il ruolo principale viene sempre svolto da processi inconsci.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Oltre ad analogie con i sogni, gli atti mancati presentano analogie anche con i sintomi nevrotici: il soggetto si difende da determinate tendenze inconsce, poiché le vive come spiacevoli, ma al tempo stesso trova un modo, pure indiretto, di appagarle.

Motto di spirito

Freud intese il motto di spirito come un atto creativo “liberatorio” ed il “piacere” che ne consegue è testimoniato dal riso. Allo scopo di decifrare il motto di spirito, Freud si pone nello stesso atteggiamento assunto nei confronti del sogno: come il sogno presenta una facciata esterna (contenuto manifesto), con cui occulta quella interna (contenuto latente), il motto di spirito possiede un significato originario mascherato dal gioco di parole. I motti di spirito comprendono lo spirito di parola e lo spirito di pensiero: in entrambi il senso originario viene modificato dalla tecnica linguistica fino ad assumere una forma allusiva, ambigua e spiritosa; ma nel primo la tecnica principale consiste nella distorsione di senso all’interno delle singole unità lessicali, nel secondo l’operazione agisce sulla struttura concettuale di una o più frasi.

Le tecniche proprie dello spirito di parole o verbale: a) condensazione accompagnata dalla formazione di un sostituto ottenuto creando una parola composta nuova ed originale; b) condensazione con alterazione della forma espressiva; c) doppio senso reale e gioco di parole. In questo caso non si crea una parola come in (a) e neppure la parola è modificata come in (b); il doppio senso reale deriva dall’ambiguità espressiva della parola che assume, grazie alla sua posizione, significati diversi.

La caratteristica comune a queste 3 tecniche è la condensazione.

Le tecniche dello spirito di pensiero, o spirito concettuale, sono: a) deviazione dal pensiero normale che comprende tutte le trasformazioni del pensiero, dallo spostamento verso concetti marginali, al non-senso, all’assurdità, agli errori di ragionamento; b) unificazione, che consiste nella creazione di originali unità di pensiero, nella relazione di idee solitamente separate tra loro e nell’associazione di concetti opposti; c) rappresentazione per opposti; d) esagerazione; e) rappresentazione indiretta attraverso correlazioni, analogie, allusioni, omissioni.

Le diverse tecniche del motto di spirito qui riassunte indicano i vari procedimenti attraverso i quali la battuta arguta devia dal pensiero normale operando distorsioni di senso, nel caso dello spirito di parole, nelle singole unità lessicali e nel caso dello spirito di pensiero sulla struttura e sulla formulazione concettuale della frase.

Condensazione e spostamento sono i cardini del motto di spirito, così come lo sono nella dinamica del sogno; in entrambi i casi la loro azione (deformare il linguaggio ed il pensiero razionale) svela che un significato nascosto approfitta per emergere di strategie comunicative.

Freud individuò 2 generi di motto di spirito: ingenuo e tendenzioso. Nel primo il piacere deriverebbe dalla veste arguta della battuta, dalla sua struttura, dalla sua tecnica espressiva; nello spirito tendenzioso, comprendente motti osceni, cinici e scettici, attraverso la facciata arguta si offre soddisfazione a desideri più sostanziali altrimenti censurati. I motti tendenziosi ed innocenti condividono l’obiettivo che è ritornare al mondo infantile, luogo in cui per eccellenza è consentita l’espresione, essendo il bambino affrancato dal giogo della critica razionale e delle coercizioni del Super-io.

Il sogno cerca in maniera allucinatoria di soddisfare bisogni vitali dell’individuo consentendogli di dormire: esso è un prodotto mentale asociale che non si propone alcuna comunicazione con l’altro. Il motto di spirito, al contrario, è la più sociale di tutte le funzioni mentali che mirano ad ottenere una certa quota di piacere. La condensazione onirica richiede un lavoro di scavo interpretativo; quella del motto di spirito è ricchezza di comunicazione, densità espressiva subito condivisa dall’ascoltatore.

Un altro elemento di distinzione dal sogno è dato dalla diversa funzione dell’inconscio nei 2 processi psichici: nel motto un pensiero preconscio viene immerso solo momentaneamente nell’inconscio per essere dopo espresso, seppure in maniera camuffata, in termini

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

comunicativi, razionali; nel sogno, invece, il desiderio rimosso viene mascherato in maniera massiccia, dando luogo a immagini deformate, assurde.

Tra le caratteristiche del motto di spirito, la dimensione sociale merita di essere analizzata nella sua dinamica che coinvolge almeno 3 persone: 1) la persona che crea il motto; 2) quella alla quale esso viene raccontato e di cui la prima deve guadagnarsi l’assenso; 3) la persona o le persone o le istituzioni che sono oggetto, cioè vittime, del motto. Affinchè il motto di spirito raggiunga il suo obiettivo occorre che la prima e la seconda persona abbiano in comune desideri e relative inibizioni. La dinamica psichica e relazionale del motto ingenuo riguarda solo la prima e la seconda persona: per natura inoffensivo, non può avere l’intenzione di ferire o attaccare qualcuno o qualcosa.

Lo scoppio del riso, elemento fondamentale per la riuscita del motto stesso, deriva dunque da una liberazione di energia psichica espressa per via fisiologica; attraverso il riso chi crea la bvattuta può amplificare il suo piaceree ridere di rimbalzo osservando l’effetto prodotto nell’ascoltatore. I 2 principali obiettivi cui tende il motto di spirito, il risparmio di energia psichica e la riattivazione della vita infantile, la quale può essere considerata sede per eccellenza del risparmio totale: risparmio sulle inibizioni e risparmio sulle facoltà logico-critiche dell’adulto.

Significato dei sintomi

Sogni, atti macati, battute di spirito presentano in comune col sintomo nevrotico la caratteristica di essere formazioni di compromesso, espressioni di conflitto psichico, manifestazioni attraverso le quali si esprimono contemporaneamente dei desideri rimossi, delle istanze difensive. Anche i sintomi nevrotici, nonostante quello che frequentemente appare, il loro carattere assurdo e incongruente, rivelano un’intenzione, un significato nascosti.

Freud ha notato come il sintomo nevrotico abbia un’analogia con il sogno manifesto; anche il processo di formazione del sintomo è molto simile a quello che si osserva nel lavoro onirico: entrano anche qui in gioco processi di condensazione, spostamento, simbolizzazione. Anche nel caso del sintomo, si tratta dei fatto che un desiderio inconscio è alla ricerca di un appagamento, ma incontra l’ostacolo dell’Io che se ne difende, perché sente come un pericolo la possibilità che tale desiderio trovi la maniera di esprimersi, realizzarsi. Il risultato di tale conflitto consiste nel fatto che i desideri inconsci, che malgrado tutto riescono a superare le difese dell’Io, raggiungono soltanto una forma di soddisfacimento sostitutiva mascherata. Inoltre, pur soddisfacendo i desideri inconsci entro certi limiti, il sintomo rappresenta al tempo stesso un inconscio ripudio di tali desideri.

Da qui nasce il concetto di utile primario della malattia: Freud ritiene che esso consista nell’abolizione o diminuzione dell’angoscia, della paura o senso di colpa che verrebbero avvertiti, se i desideri irrompessero nella coscienza. Freud ha rilevato anche l’esistenza di un utile secondario: una volta che si è formato un sintomo, l’Io può scoprire che esso porta con sé alcuni vantaggi, che possono indurre a legarsi alla malattia. Ciò può essere espresso in forma efficace, anche se il riferimento è un po’ paradossale, dalla constatazione che: i vantaggi secondari derivano dai riflessi sociali della malattia; possono consistere nel ricavare attenzioni, cure, premure; essere esonerati, sia pure temporaneamente, da impegni, responsabilità; nell’esprimere valenze extrapunitive, vendicative (sovraccarico di responsabilità, di lavoro, fastidi, doveri assistenziali, ecc. per le persone “care”); attuare una pratica di vita autopunitiva. L’utile secondario, pur non essendo origine del sintomo, lo consolida e lo stabilizza.

La tesi sostenuta da Freud è che non c’è una linea netta di demarcazione fra normalità e anormalità; i conflitti sono gli stessi, ma nei nevrotici sono più intensi. Le differenze sono di quantità e non di qualità.

Il significato e funzione del transfert

Freud si rese conto che nelle sedute condotte secondo il metodo delle libere associazioni, mentre era impegnato nell’analisi di esperienze passate, ricordi rimossi e resistenze, i pazienti perdevano spesso ogni interesse per il passato per rivolgerlo a lui, nel momento

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

presente quindi, e tendevano a manifestargli determinati sentimenti e a comportarsi con lui come se si trattasse di qualcun altro. Era entrato in gioco il transfert. Aspetti fondamentali del transfert: 1) la ripetizione del passato nel presente (questa “coazione a ripetere” è il modo del paziente di ricordare) e 2) traferimento sull’analista di una figura interna, proveniente dal mondo interno del paziente.

Il transfert consiste nella riattivazione di immagini e rappresentazioni di tali esperienze, cioè dei modi fantastici in cui esse sono state vissute emozionalmente dal soggetto; non si tratta quindi di ripetizioni letterali, ma di equivalenti simbolici e deformati di tali vissuti. Quanto al secondo aspetto, strettamente legato al primo, Freud afferma che, quando un investimenti libidico infantile è rimasto “parzialmente insoddisfatto”, il soggetto “è costretto ad avvicinarsi con rappresentazioni libidiche anticipatorie ad ogni nuova persona che incontra”. Questa “imago”, che viene trasferita sull’analista, non rispecchia le caratteristiche reali ad esempio dei genitori, bensì riflette il modo in cui tali figure sono state percepite, vissute, desiderate, temute: il soggetto ha costruito, nel corso del suo sviluppo, modelli, relazioni intrattenute con le persone affettivamente più importanti, in particolare con i genitori, che in origine sono state introiettate, ma contemporaneamente sono state distorte dalla proiezione degli impulsi (quanto più patologiche sono le caratteristiche di un individuo, tanto più le figure interne risultano lontane dalle figure reali).

Il transfert ha il carattere di atemporalità: di conseguenza tratta il passato come se fosse un’esperienza attuale, vigente nel momento immediato. In sintesi, poiché le relazioni oggettuali dell’individuo hanno avuto una storia lunga nella quale le figure genitoriali sono state sia introiettate che distorte, sono le figure fantasmatiche risultanti, appartenenti al mondo interno e al passato, che vengono proiettate sull’analista, e che quindi formano la base del transfert. Se il transfert, che si incontrava nella cura, consisteva nella ripetizione del passato anziché nel ricordare il passato, si può comprendere perché agli inizi egli lo considerasse uno dei principali ostacoli alla terapia: esso veniva ritenuto una delle manifestazioni della resistenza all’analisi, in quanto appunto si opponeva alla rievocazione del rimosso infantile.

Tuttavia non era questo l’unico modo in cui Freud considerava il transfert; contemporaneamente egli andava sviluppando un altro punto di vista: infatti, essendo per il soggetto e l’analista un modo privilegiato di cogliere elementi del conflitto infantile, il transfert cominciò ad essere considerato il terreno dove la problematica personale viene vissuta o in cui egli si trova posto davanti all’esistenza, alla permanenza e forza dei desideri e dei fantasmi inconsci. Il transfert viene per così dire evocato per essere risolto proprio mentre è presente.

La soluzione del conflitto transferale implica la simultanea soluzione del conflitto infantile del quale è una nuova edizione. La malattia del paziente non va trattata come una faccenda del passato, ma come una forza che agisce nel presente. Gli elementi della malattia vengono ad uno ad uno condotti entro l’orizzonte e il campo di azione della cura.

In questa prospettiva l’analisi si è trasformata gradualmente, ma anche radicalmente: il suo obiettivo oggi non consiste più nella rievocazione dei ricordi infantili rimossi, nella ricostruzione del passato; essa è piuttosto orientata a raggiungere modificazioni strutturali nella personalità; il superamento della rimozione non è più considerato la causa dei progressi verso la guarigione, ma una conseguenza delle modificazioni strutturali. Freud distingue 2 tipi di transfert: positivo, nel quale il paziente trasferisce sull’analisi sentimenti “teneri”, e negativo, in cui vengono proiettati sentimenti ostili; i termini positivo e negativo caratterizzano la natura degli affetti trasferiti.

Il transfert è manifestazione della coazione a ripetere, una forma di rapporto che il nevrotico instaura; si tratta anzi di una costante psichica universale che l’analisi consente di scoprire, isolare. La situazione analitica permette l’evoluzione del transfert: se da una parte l’analisi consente di mettere in evidenza i fenomeni di transfert, dall’altra parte si può dire che la situazione analitica è la meno transferenziale di tutte le situazioni. Questa affermazione diventa comprensibile non appena si tenga conto del fatto che l’analista, quando formula un’interpretazione del transfert del paziente, in quel momento sta rettificando l’equivoco transferenziale e contribuisce, col progredire dell’analisi, alla risoluzione del transfert.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Siamo qui insensibilmente passati dal comportamento del paziente, quale si manifesta nel transfert, al comportamento dell’analista, l’altro polo della relazione analitica, quale si traduce nel lavoro interpretativo.

L’interpretazione e la natira della sua azione terapeutica

Lo strumento principale nella terapia psicoanalitica è l’interpretazione di transfert. L’analisi della relazione di transfert, come interpretazione mutativa, produce modificazioni nella personalità del paziente. L’interpretazione di transfert è la sola interpretazione mutativa, essendo l’unica che spezza il circolo vizioso del nevrotico.

Quando l’analista interpreta il transfert, il paziente diventa in un primo momento consapevole del fatto che i suoi impulsi sono diretti verso l’analista, ma poi si rende conto che gli impulsi sono diretti verso un oggetto arcaico fantastico e non verso un oggetto reale, si rende conto di aver proiettato l’oggetto interno sull’oggetto reale esterno (l’analista), che è trasformato in un oggetto fantastico. Il paziente è messo in grado di fare l’esame di realtà, di distinguere confrontandoli l’oggetto fantastico proiettato e quello reale. In analisi il paziente fa la ripetuta esperienza che i suoi processi di transfert non trovano complicità nell’analista, che non agisce i ruoli su di lui proiettati dal paziente, ma si limita ad interpretarli, fare comunicazioni su di essi; ricerca la verità.

Il valore mutativo dell’interpretazione di transfert è nel fatto che l’analista spezza il circolo vizioso nevrotico del paziente, consentendogli di confrontare l’oggetto fantastico arcaico proiettato e quello reale esterno. La proiezione è possibile se l’analista non si pone come oggetto reale per il paziente. Ecco perché paradossalmente, perchè il paziente distingua tra realtà e fantasia, occorre nascondergli la realtà dell’analista.

L’interpretazione mutativa, emozionalmente immediata, è diretta al “punto d’urgenza”, cioè nel momento in cui è attivo l’impulso suscettibile di interpretazione mutativa. Impulsi e ansie possono venire interpretati mentre si manifestano. Poichè il momento d’urgenza si verifica quasi sempre nel transfert, quando l’impulso è diretto verso l’analista, ne consegue che soltanto nel contesto transferenziale il paziente può prendere coscienza della distinzione tra l’oggetto fantastico e l’oggetto reale (l’analista).

Recentemente lo strumento principale è divenuto l’interpretazione del transfert. Le resistenze vengono individuate come parte di un conflitto psichico i cui 2 termini (pulsioni e difese) sono inconsci; poiché le resistenze si manifestano prevalentemente nel transfert, esse vengono analizzate appunto nel transfert. Così l’interpretazione si è andata sempre più caratterizzando come l’analisi dei 2 poli inconsci del conflitto attraverso la loro attualizzazione nella nevrosi di transfert. Ogni paziente si difende nel transfert da impulsi, angosce e sentimenti di colpa allo stesso modo in cui se ne difendeva nelle sue originarie relazioni infantili.

Utilizzazione del controtransfert nel lavoro interpretativo

Quanto detto consente di capire come la situazione analitica si caratterizzi principalmente come relazione tra 2 persone, dove si verifica un’azione reciproca. Da una parte il paziente manifesta il suo transfert; dall’altra l’analista, per comprendere e interpretare il transfert del paziente, utilizza il controtransfert, cioè la risposta al transfert del paziente. Nell’evoluzione della tecnica analitica il controtransfert ha attraversato le stesse vicende del transfert: mentre inizialmente veniva considerato un grosso ostacolo, una notevole interferenza per l’analisi, oggi è ritenuto uno strumento prezioso e indispensabile. In realtà, dal versante dell’analista possono sì sorgere delle interferenze, ma, se si manifestano, queste vanno attribuite non al controtransfert, bensì alla possibilità che l’analista, nonostante l’analisi cui si è sottoposto, abbia ancora in se stesso residui di conflitti nevrotici irrisolti, che si prestano a trasferirsi sul paziente. In altri termini, ciò che può costituire un’interferenza all’analisi è il transfert dell’analista, cioè la proiezione (inconsapevole) di propri conflitti personali sul paziente.

Immaginando una situazione ideale nella quale non esiste un transfert dell’analista, ciò che egli sente, prova, nella seduta analitica, è controtransfert, cioè la sua risposta al transfert. I vissuti interni dell’analista provengono dal suo interno, ma vengono attivati dalle proiezioni

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

del paziente in analisi. Per diventare sensibile alle caratteristiche di tali proiezioni, l’analista ascolta le comunicazioni del paziente ponendosi in una condizione di attenzione liberamente fluttuante; in tal modo l’analista è in grado di dividere il suo Io in una parte “emozionale”, sperimentante, che vive le esperienze emotive in profondo, e una parte “razionale”, osservante, che analizza le esperienze vissute dalla prima.

In altre parole egli deve avere la migliore conoscenza del proprio inconscio.

Il controtransfert quindi è il risultato 1) della ricettività dell’analista ai sentimenti trasferiti su di lui dal paziente, e 2) del suo contatto con i processi inconsci che dentro di lui si originano dalla sua ricettività.

Inoltre è necessario che l’analista si osservi internamente per domandarsi se questa intuizione sia valida, se cioè sia una risposta nei termini di quanto il paziente gli stia comunicando, o se invece non stia mettendo del proprio nel paziente (transfert dell’analista). Questa auto-osservazione può condurre l’analista ad una comprensione molto più profonda di se stesso, del paziente e della natura della concreta relazione attuale.

La psicoanalisi come metodo scientifico

La psicoanalisi è al tempo stesso attività terapeutica e attività di ricerca in senso stretto. In questo senso oggetto di studio della psicoanalisi è costituito dalle relazioni oggettuali inconsce. Il metodo utilizzato per tale studio è unico, caratteristico della sola psicoanalisi, poiché lo strumento di osservazione è la mente analizzata dello psicoanalista, il suo contatto con il proprio controtransfert e la sua capacità di ragionarci intorno per poter formulare le interpretazioni. I dati su cui opera sono costituiti dallo sviluppo del transfert, ossia dallo sviluppo delle relazioni oggettuali inconsce lungo il corso della relazione transferenziale.

Il metodo psicoanalitico consiste nello stabilire una relazione tra 2 persone in una situazione (setting) molto controllata e nello studiare fatti che emergono quando l’analista limita la propria attività alla interpretazione del transfert.

Nel metodo psicoanalitico la base di formazione delle ipotesi è inconscia; l’ipotesi provvisoria, che viene formulata, si manifesta sotto forma di interpretazione: mentre l’analista osserva il transfert del paziente e il proprio controtransfert, va offrendo al paziente un’ipotesi di prova relativa alla natura della relazione oggettuale che si svolge in quel momento. Questa è la sua attività fondamentale, il suo tipo terapeutico di intervento. Queste interpretazioni sono dunque delle ipotesi; l’analista verifica la loro validità mediante strumenti di previsione: infatti attraverso l’interpretazione egli spera di condurre una situazione fluida di sentimento e di fantasia fino ad una struttura più definita accessibile al giudizio intellettuale.

Si tratta quindi di uno studio sul presente o su un presente in evoluzione. Ma il transfert è determinato dalla “coazione a ripetere”; esso cioè ripete, attualizza nel presente esperienze psichiche passate. Conseguentemente l’analista, sulla base di ipotesi interpretative convalidate, relative al transfert “qui-e-ora”, può fare uso della teoria della coazione a ripetere per inferire quello che è accaduto nella mente del paziente quando era un bambino piccolo; l’analista è cioè in grado di ricostruire l’intero arco di sviluppo, nell’infanzia, delle relazioni oggettuali inconsce del paziente. A partire da una vasta esperienza di singoli pazienti egli può allora generalizzare e proporre una teoria dello sviluppo che egli ritiene fondata sui livelli profondi della psiche.

Poiché la relazione del paziente con l’analista è in gran parte una relazione di fantasia inconscia, il transfert costituisce un mezzo indispensabile per l’indagine sugli aspetti prevalentemente interni dell’esperienza.

CAPITOLO 5 – I PROCESSI SENSORIALI

Alcune caratteristiche generali dei sensi

La soglia assoluta e soglia differenziale

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Il nostro sistema sensoriale non è perfetto; una carenza evidente è legata alle caratteristiche fisiche che uno stimolo deve possedere per essere in grado di produrre una sensazione: se infatti lo stimolo è di intensità bassa non può essere percepito, il che vuol dire che, per evocare un’esperienza sesoriale, è necessaria una certa quantità di stimolazione. Il grado di stimolazione può essere definito come grado di energia fisica presente nello stimolo, mentre il minimo di energia fisica necessaria per attivare un certo sistema sensoriale viene detta soglia assoluta.

I tipi di soglia sono 2: la soglia assoluta e soglia differenziale. La soglia assoluta equivale alla più piccola quantità di stimolazione in grado di essere percepita e può essere deteminata in 3 modi:

1) Metodo del punto centrale. Il soggetto sottoposto alla prova ha la possibilità di regolare da sé l’intensità dello stimolo

2) Il metodo costante. Al soggetto vengono presentati stimoli di intensità diversa in ordine casuale.

3) Metodo dei limiti. Si presenta al soggetto stimolo facilmente percepibile poi via via d’intensità sempre più debole fino al primo degli stimoli non percepiti (serie decrescente).

L’altro tipo di soglia è la soglia differenziale. La soglia differenziale è la più piccola differenza d’intensità percepibile tra stimoli. Per determinarla si presenta uno stimolo fisso accoppiato di volta in volta a stimolo di differente intensità e si domanda se lo stimolo variabile è inferiore, uguale o superiore a quello fisso. L’ultimo stimolo percepito come diverso rappresenta la soglia differenziale del soggetto. Già all’inizio dell’ottocento Weber formulò una legge sul rapporto costante delle soglie differenziali:

Δ I / I = K

dove Δ I = quantità di cambiamento richiesto nell’intensità dello stimolo

I = intensità dello stimolo

K = costante

Secondo la legge di Weber quindi, il rapporto tra la soglia differenziale e il valore iniziale dello stimolo è una costante.

L’adattamento sensoriale

L’adattamento sensoriale consiste nella riduzione della risposta del recettore e quindi nel calo della sesibilità quando lo stimolo perdura invariato nel tempo e, viceversa, nell’incremento di sensibilità dopo ridotta od assente stimolazione. Questo fenomeno è legato all’esaurimento o alla disponibilità aumentata del mediatore chimico del recettore e produce variazioni ampie di efficienza, nel recepire stimoli.

Esso è particolarmente evidente e noto da antica data per quanto riguarda l’olfatto e la vista, ma è fenomeno comune a tutti i sensi. Tuttavia per alcuni recettori l’andamento allo stimolo è estremamente celere. In sostanza il recettore cessa quasi istantaneamente di trasmettere un segnale se lo stimolo perdura costante. Il segnale è in tal caso partito all’inizio dello stimolo, perché il recettore ha reagito al salto fra la stimolazione nulla e quella di intensità X, ma cessa di reagire in mancanza di variazioni. Appartengono alla categoria dei recettori ad adattamento molto rapido i recettori del tatto e dell’olfatto in particolare. Grazie a questo possiamo sopportare meglio, per esempio, il peso di certi capi d’abbigliamento o gli anelli etc., oppure possiamo stare a lungo in ambienti pieni di odori senza essere troppo disturbati. Possiamo però sentire gli odori di nuovo se inspiriamo ed espiriamo rapidamente in modo da variare la stimolazione olfattiva oppure torniamo a sentire camminando le scarpe strette, il peso di certi abiti muovendoci. È quasi inesistente invece l’adattamento sensoriale al dolore e ciò è molto logico poiché il dolore è un segnale di pericolo e sarebbe un grande svantaggio per la sopravvivenza se il segnale cessasse pur continuando il pericolo che lo suscita.

Il senso visivo

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

L’occhio

L’occhio è l’organo deputato a recepire stimoli visivi del mondo che ci circonda e come tale forse è il più importanti degli organi di senso. Ha una forma più o meno sferica con diametro di 20 mm. e nella parte anteriore è protetto dalla palpebra che impedisce in larga misura il passaggio della luce. La parte più esterna dell’occhio è la cornea, che essendo trasparente permette alla luce di passare e colpire l’iride, l’anello di pigmento che determina i diversi colori degli occhi. Lo spazio compreso tra la cornea e l’iride è riempito da una sostanza trasparente chiamata umor acqueo. Al centro dell’iride vi è la pupilla, un foro circolare attraverso il quale la luce entra nel bulbo oculare.

Le variazioni del diametro della pupilla, e quindi della quantitàdi luce che passa, sono regolate da 2 gruppi di muscoli che hanno sede nell’iride, i muscoli circolari che sono situati lungo la circonferenza dell’iride e i muscoli radiali che si irradiano dall’iride verso la pupilla. Una contrazione dei muscoli circolari corrisponde ad una diminuzione del diametro della pupilla, mentre una contrazione dei muscoli radiali dà luogo ad un aumento del diametro della pupilla. Va notato che le modificazioni del diametro della pupilla non sono legate soltanto alla quantità di luce, ma possono essere causate anche da fattori emotivi. All’interno del bulbo oculare, proprio dietro la pupilla, vi è il cristallino. Il cristallino è mantenuto nella sua posizione dai muscoli intraoculari e svolge una funzione di rifrazione dei raggi di luce che lo attraversano. I raggi di luce che colpiscono l’occhio subiscono una prima correzione attraversando la cornea che è però insufficiente per vedere correttamente; si rende indispensabile quell’azione del cristallino detta accomodazione. La funzione del cristallino è proprio quella di far cadere il punto focale sempre in un’unica posizione: la retina. Quando osserviamo oggetti vicini all’occhio, il cristallino si inspessisce e fornisce così la forte rifrazione necessaria per situare il punto focale dei raggi luminosi sulla retina. Quando invece osserviamo oggetti lontani dall’occhio, il cristallino diviene più sottile, perché più debole è la rifrazione necessaria per situare il punto focale sulla retina. Dopo il cristallino la luce attraversa l’umor vitreo, raggiungendo il punto focale che si trova sulla retina. La retina è la membrana interna che ricopre la parte posteriore dell’occhio; in essa hanno sede i coni e i bastoncelli che sono fotorecettori i quali assorbono la luce e la trasformano in infromazione neurale.

La luce trasformata in informazione neurale viene poi trasmessa, attraverso le sinapsi con le cellule dello strato intermedio e le cellule gangliari dello strato più interno, fino al nervo ottico. Sia i coni che i bastoncelli sono composti di 4 parti: terminazione sinaptica, nucleo cellulare, segmento interno, segmento esterno. La luce viene assorbita dal segmento esterno ed è proprio la forma di questa parte che conferisce il nome a queste cellule.un’altra differenza tra i coni e i bastoncelli è nella loro distribuzione sulla retina; la maggior concentrazione di coni è nel centro della retina, in particolare in una zona detta fovea, mentre i bastoncelli sono maggiormente addensati alla periferia della retina. I bastoncelli reagiscono in condizioni di luce debole ed hanno quindi soglia bassa, sono recettori che permettono di vedere di notte. I coni invece reagiscono in condizioni di luce forte ed hanno quindi soglia alta.

Il sistema visivo

La luce è trasformata dai recettori in impulsi elettrici trasmessi al cervello lungo il nervo ottico, composto da assoni provenienti dalle 2 emiretine: metà degli assoni costituenti il nervo ottico conduce l’impulso dei recettori sensibili alla parte destra della retina, l’altra metà conduce l’impulso registrato nella parte sinistra della retina. Nel chiasma ottico gli assoni dell’emiretina sinistra dell’occhio destro e quelli dell’emiretina destra dell’occhio sinistro incrociandosi raggiungono l’altro nervo ottico; dopo il chiasma ottico i nervi ottici cambiano nome, diventando tratti ottici. Una lesione al nervo ottico destro causerà disturbi visivi diversi da quelli provocati dalla lesione al tratto ottico destro: la lesione del nervo ottico destro, che conduce impulsi provenienti dalle emiretine dell’occhio destro, causa la cecità dell’occhio destro; quella del tratto ottico destro, che trasmette impulsi provenienti dalle emiretine destre degli occhi, causa la cecità di entrambi gli occhi al campo visivo sinistro.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

I tratti ottici terminano nel talamo, in particolare nei nuclei genicolati laterali, dove hanno sede neuroni i cui assoni trasmettono informazioni alla corteccia visiva situata nei lobi occipitali; in base ai diversi gruppi di neuroni che la popolano, è stata divisa in 3 aree note come aree 17, 18 e 19 di Brodman. All’interno di queste aree l’informazione visiva viene ricomposta. In ogni area confluiscono le terminazioni di ogni parte della retina. Ogni piccola parte della retina è perciò rappresentata contemporaneamente in precisi punti delle aree occipitali 17, 18 e 19.

Pure i neuroni della corteccia visiva hanno un campo recettivo e di questo si sono a lungo occupati Hubel e Wiesel, che hanno identificato 3 gruppi di cellule delle aree visive: semplici, complesse, ipercomplesse. Le prime rappresentano un campo recettivo elissoidale suddiviso in aree eccitatorie e inibitorie: la cellula si attiva se una data linea di luce colpisce la parte on del suo campo recettivo e si inibisce se la linea luminosa colpisce la parte off del campo recettivo. Le cellule complesse si differenziano da quelle semplici non per il tipo di stimolo a cui sono sensibili, ma per le diverse proprietà del campo recettivo: esse si attivano durante il passaggio della linea luminosa nel loro campo recettivo e seguono il movimento di uno stimolo luminoso. Le cellule ipercomplesse possono essere di ordine inferiore o superiore: le prime reagiscono agli stessi stimoli delle cellule complesse, ma sono sensibili alla lunghezza dello stimolo oltre che all’inclinazione; le seconde si attivano in condizioni di stimolazione simili alle cellule di ordine inferiore salvo che per l’orientamento.

Percezione del colore

Mentre i coni si attivano in condizioni di luminosità alta, i bastoncelli si attivano in condizioni di bassa luminosità. Nei 2 tipi di illuminazione ipotizzati , saranno stimolati rispettivamente nella prima condizione (illuminazione notturna) bastoncelli e nella seconda (illuminazione diurna) coni. Appare quindi evidente, a questo punto, che percepire o meno il colore non dipende direttamente dal grado di luminosità presente, ma dai fotorecettori differenti attivati in diverse condizioni di luminosità. Il motivo per cui è possibile vedere i colori di giorno ma non di notte, dipende dal fatto che solo i fotorecettori diurni (i coni) sono in grado di percepire i colori. Descriveremo ora brevemente le 2 teorie classiche sulla percezione del colore. La prima, nota come teoria tricromatica di Helmholtz, risale al 1867 e postula l’esistenza nella retina di 3 tipi di recettori per i colori (uno per il blu, uno per il verde, uno per il rosso), che rileverebbero in quali proporzioni è presente ognuno dei 3 colori di base e trasmetterebbero le proporzioni al cervello che integrandole ricostruirebbe il colore percepito.

L’altra teoria, ideata da Hering nel 1861, postula la presenza di 2 sistemi di recettori retinici, uno per la coppia verde-rosso ed uno per quella giallo-blu (da cui il nome di teoria dicromatica di Hering). Ogni sistema di recettori sarebbe di tipo contrapposto; ad es. il sistema per il verde-rosso conterrebbe recettori che rispondono positivamente al rosso e negativamente al verde, mentre altri risponderebbero negativamente al rosso e positivamente al verde. Dopo più di un secolo si riconosce la validità delle 2 teorie, ma per spiegare la percezione del colore si deve far ricorso alla somma delle 2. Per quanto riguarda i meccanismi reali che sottendono la percezione del colore, nella retina 3 diversi tipi di coni si differenziano per le 3 sostanze fotochimiche che contengono: tali sostanze hanno una diversa sensibilità a differenti lunghezze d’onda; per cui i 3 tipi di coni possono venire attivati da lunghezze d’onda diverse, ma ogni tipo risponde in maniera ottimale ad una data lunghezza d’onda dello spettro.

Le informazioni provenienti dai 3 tipi di coni sono trasferite alle cellule gangliari e da lì ai nuclei genicolati laterali del talamo. I neuroni dei nuclei genicolati laterali hanno campi recettivi predisposti alla codifica del colore. I campi recettivi di questi neuroni hanno una disposizione del tipo centro-periferia; ciò significa che possono avere il centro on attivato dalla luce rossa e la periferia off attivata dalla luce verde.

Analoghi tipi di campi recettivi dei neuroni dei nuclei genicolati laterali si hanno per la coppia blu-giallo.

Il senso uditivo

L’orecchioOPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

L’orecchio è divisibile in esterno, medio, interno. L’orecchio esterno è costituito da padiglione auricolare e condotto uditivo e come un imbuto incanala i suoni verso la membrana timpanica, che separa il condotto dall’orecchio medio. L’orecchio medio è costituito da una cavità, scavata nell’osso temporale, che presenta sulla parete laterale la membrana del timpano e sulla parete mediale 2 finestre ossee (finestra ovale e finestra rotonda) chiuse da 2 membranelle. Una catena articolare di ossicini (martello, incudine, staffa) collega il timpano alla membrana della finestra ovale. La tuba di Eustachio collega l’orecchio medio alla gola, consentendo l’ingresso dell’aria e l’eguagliamento della pressione atmosferica. L’eguagliamento pressorio protegge la membrana timpanica dal rischio di una rottura conseguente a sollecitazioni violente. Simile funzione è svolta da 2 muscoli (tensore del timpano e stapedio) che regolano lo spostamento degli ossicini dell’orecchio medio, agiscono come antagonisti fra loro e quando si contraggono, allorchè lo stimolo supera una soglia, risulta una trasmissione ridotta delle vibrazioni timpaniche alla membrana della finestra ovale con una sensazione di ottundimento sonoro. Se la funzione dell’orecchio medio è quella di trasmettere vibrazioni sonore alla finestra ovale, solo dietro quest’ultima strutture sensoriali e neuroni sensitivi tradurranno in impulsi diretti alla corteccia gli stimoli meccanici. Questa terza parte dell’orecchio (orecchio interno o labirinto) è al di là della finestra ovale e della finestra rotonda e è inserita nell’osso temporale all’interno del labirinto, che accoglie anche l’apparato vestibolare che non ha nulla a che vedere con l’udito. L’organo dell’udito è nella parte di labirinto detta coclea, divisa da 2 membrane in scala vestibolare, dotto cocleare, scala timpanica. Sopra la membrana basilare sono impiantate le cellule recettoriali uditive dette cellule ciliate del Corti per le ciglia che da esse fuoriescono e che vengono spinte verso la membrana rudimentale che le ricopre ad ogni oscillazione della membrana basilare. Da queste cellule partono le fibre del nervo uditivo verso il corpo centrale della coclea, al cui interno è collocato il ganglio spirale del nervo uditivo. La chiocciola membranosa è circondata da un liquido (perilinfa) e riempita da un fluido (endolinfa). La serie di compressioni e rarefazioni dell’onda sonora viene quindi propagata all’endolinfa lungo la scala vestibolare. Le cellule recettoriali rispondono alle onde di diversa frequenza secondo una disposizione spaziale che vede le cellule più vicine alla finestra ovale reagire ai toni più acuti e via via che ci si avvicina all’helicotrema, le cellule reagiscono a toni di frequenza più bassa.

I trentamila assoni si dirigono poi verso il nucleo cocleare, nel quale si collegano a cellule nervose, i cui assoni raggiungono il complesso olivare dal quale altri neuroni, con l’interposizione di altri 2 relays situati nella formazione reticolare, proiettano sulla corteccia uditiva i potenziali d’azione partiti dalle cellule ciliate della coclea. Esiste anche per la via acustica il fenomeno dell’incrocio. A differenza delle vie ottiche non esiste una sola sede di incrocio. Nel caso del nervo uditivo l’incrocio è presente a vari livelli ed in modo sempre più esteso, a partire dal complesso olivare e lungo il tratto ascendente fino ai relays della formazione reticolare, interessando la gran parte delle fibre fino al punto che il suono raccolto da un orecchio risulta, alla fine, molto meglio rappresentato nella corteccia controlaterale.

Alcune caratteristiche della funzione uditiva

La percezione della tonalità è simile alla percezione del colore, sostanzialmente costante a prescindere dalla distanza, mentre la percezione dell’intensità sonora è analoga a quella della luminosità, la quale si riduce con la distanza ed ancora più per la presenza di foschia o pulviscolo. Sono lecite alcune altre analogie con la funzione visiva. La presenza contemporanea di onde sonore di tutte le frequenze udibili è percepita come un rumore senza qualità tonale proprio come il bianco, percepito come non-colore, è in realtà frutto della compresenza di tutte le frequenze visibili. Onde che escono da certi limiti di frequenza non sono più percepite come sonore o luminose e possono, in alcuni casi, attivare altri tipi di recettori sensoriali. Così le onde sonore di frequenza inferiore ai 10 Hz non sono udibili, ma possono sollecitare i recettori tattili e produrre il solletico, mentre le onde luminose di larghezza superiore ai 7.200 Angstrom non sono visibili, ma possono produrre sensazioni in genere associate alle irradiazioni termiche. La legge di Weber per cui le minime differenze variano in proporzione logaritmica rispetto a stimoli di riferimento vale in entrambe le

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

funzioni, come abbiamo già chiarito parlando delle soglie. Nella audiometria clinica la capacità uditiva si valuta utilizzando una misura chiamata decibel: questa unità di misura corrisponde approssimativamente alla soglia per l’intensità. I decibel indicano un rapporto fra 2 intensità e quindi presuppongono sempre un qualche valore di riferimento, che è la soglia assoluta di intensità per una frequenza ed a questa si attribuisce valore di 0 db.

Gli altri sensi

L’olfatto

I suoi recettori sono delle cellule pluriciliate impiantate insieme a delle cellule di sostegno in un pitelio posto in un’area interna della cavità nasale superiore detta regione olfattoria. Non si sa ancora con precisione attraverso quale meccanismo le sostanze odorose disperse nell’aria riescono ad eccitare queste cellule pluriciliate, anche se ciò, forse, avviene con la mediazione chimica di enzimi presenti nella sostanza gelatinosa che circonda le ciglia. La mediazione enzimatica della trasduzione dello stimolo spiegherebbe la variabilità dell’efficienza in relazione alla temperatura e la collocazione interna della regione olfattoria; si giustificherebbe in tal caso perché l’aria inspirata viene riscaldata e portata alla temperatura ottimale di funzionamento degli enzimi.

Si è comunque notato da tempo che, mentre è sufficiente una concentrazione bassissima di sostanza nell’aria per provocare una sensazione generica di odore, una concentrazione maggiore (cioè uno stimolo più intenso) è indispensabile per poter riconoscere la sostanza odorosa. Quest’ultima più elevata concentrazione è la soglia specifica dell’odore, mentre la precedente è la soglia di sensibilità.

Ora contrariamente a quanto si credeva fino a poco tempo addietro, la soglia di sensibilità olfattiva dell’uomo è molto bassa e del tutto paragonabile a quella di molti altri animali che a differenza dell’uomo si servono molto dell’olfatto per esplorare la realtà e per comunicare. L’uomo privilegia per l’esplorazione e la comunicazione la vista e l’udito e non l’olfatto, differenziandosi in questo dalla maggior parte dei mammiferi. L’utilizzo non primario di questa via sensoriale si riflette anche nella scarsità e poca determinatezza delle etichette verbali apposte agli odori: odore di frutta, di resina, di bruciato, etc. Le poche ed approssimative etichette verbali che noi possediamo, rendono allora difficile “riconoscere” degli odori che possiamo percepire ma non qualificare. L’odore identificato confusamente può allora essere scambiato per un altro che gli si avvicini oppure può bastare apporvi un’etichetta perché la sensazione si adegui all’etichetta. È come sentir parlare una lingua totalmente sconosciuta (proprio perché non è la “lingua” principale della specie umana): di questa si colgono bene alcune parole note, mentre tutte le altre finiscono con l’apparire delle indistinte articolazioni sillabiche. La sottovalutazione della componente cognitiva ha portato ad una sottovalutazione spinta del numero di odori riconosciuti perché si è supposto che l’uomo riconoscesse solo quella quindicina di odori per cui possedeva una definizione.

Il gusto

È, insieme all’olfatto, la modalità sensoriale che permette di saggiare la qualità chimica del mondo (mentre la vista e l’udito saggiano delle proprietà fisiche associate ad irraggiamento di energia ed il tatto saggia delle proprietà fisiche o meccaniche di superficie).

La funzione discriminante del gusto per l’autoregolamentazione alimentare è nell’uomo molto meno evidente che per gli animali, poiché l’uomo si regola, nell’assumere il cibo, utilizzando di preferenza strumenti culturali, però è ugualmente presente: valga per tutti l’esempio dei frequenti cambiamenti di gusto che intervengono durante la gravidanza.

Le cellule recettoriali sono raccolte in gruppi di 40-50, detti bottoni gustativi, collocati sia nelle varie forme (circonvallate, a fungo, sfrangiate) di papille gustative della mucosa linguale che, isolatamente, sul velo palatino, sul faringe e sulla mucosa delle guance.

Esistono recettori per quattro tipi di gusti fondamentali così distribuiti: per il dolce sulla punta della lingua, per il salato sui bordi anteriori della lingua, per l’aspro sui bordi posteriori e per l’amaro sul dorso della lingua.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

La topografia dei recettori presenta in realtà qualche zona di sovrapposizione, ma resta il fatto che filamenti nervosi distinti convogliano i diversi sapori fondamentiali (qualcosa di simile succede con i filamenti del nervo acustico che trasportano segnali riferiti ad altezze tonali distinte). La loro proiezione non sarebbe limbica, come si riteneva in passato, ma sulla neocorteccia in corrispondenza del piede del giro post-centrale, corrisponde all’area 43 di Brodman (Plattig, 1969).

La soglia della sensazione gustativa è piuttosto bassa, ma la gamma di sostanze stimolanti il gusto non molto estesa e l’adattamento piuttosto rapido rendono poco efficiente questa modalità sensoriale se non viene integrata da altre. Nella pratica la sensazione di sapore dei cibi viene percepita non solo attraverso la miscela dei gusti fondamentali ma anche attraverso l’odore, il tatto e la stimolazione dolorifica. Un esempio che vale per tutti è quello della carne: come tale (puro muscolo senza grassi) è insapore, ma diventa conoscibile al gusto grazie alla consistenza ed all’odore.

Va inoltre ricordata la sensazione di disgusto, che può essere condizionata oppure essere correlata alla presenza di particolari sostanze (come l’acido solforico diluito) in modo incondizionato.

Il tatto

Per tatto intendiamo sensibilità al tatto propriamente detto escludendo il senso termico, dolorifico cutaneo e propriocettivo.

I recettori del tatto (corpuscoli di Meissner) sono diffusi su tutta la cute, ma particolarmente concentrati alle estremità del corpo, come la punta della lingua, i polpastrelli, il viso, le labbra e molto radi sulla cute del dorso.

Questa disposizione si spiega con la funzione tattile di esplorazione dell’ambiente circostante e corrispondente, nel suo insieme, alla stessa logica che ha selezionato in molte specie animali degli organi tattili specializzati come vibrisse, antenne, tentacoli, etc.

Gli stimoli vicini alla soglia possono causare il solletico, mentre gli stimoli ritmici producono il prurito.

La soglia assoluta è piuttosto bassa mentre la soglia differenziale è intermedia fra quella dell’occhio e dell’orecchio.

Attraverso il tatto si attua una forma di esplorazione e conoscenza della realtà circostante che ha un carattere semplice e globale e viene privilegiata nella prima infanzia rispetto all’esplorazione visiva che ha un carattere più analitico.

Si è visto che nell’adulto, in casi di conflitto fra dati sensoriali visivi e quelli tattili, si ottiene una scelta regolata in base ai dati visivi (Rock e Harris, 1967) poiché questa risulta la modalità sensoriale dominante per vaste aree di problemi.

D’altro canto attraverso il contatto fisico si ha un rapporto più intimo con qualcosa e non a caso le inibizioni emotive nei confronti della vita istintiva coinvolgono il tabù del contatto oppure si traducono nell’ipersensibilità al contatto corporeo che si manifesta in tali casi, nella facile e diffusa sensazione di solletico per un contatto banale.

Il tatto consente non solo di sentire gli oggetti esterni in modo immediato, ma anche di regolare la manipolazione e di ottenere, congiuntamente ad altre sensazioni, dei dati sulla posizione e situazione del proprio corpo.

Di conseguenza l’anestesia cutanea non rende solo difficile l’esplorazione esterna ma imprecisa e scoordinata la motilità e, per converso, è proprio attraverso la rieducazione tattile che si lavora per una riabilitazione motoria.

CAPITOLO 6 – LA PERCEZIONE

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Introduzione

La percezione è il processo mediante il quale traiamo informazioni sul mondo nel quale viviamo. Se vogliamo, invece, raccogliere le caretteristiche dell’atto percettivo, possiamo dire che esso è primitivo ed immediato, oggettivo e globale ed unitario (Canestrari, 1962).

L’esistenza di una corrispondenza fra caratteristiche della realtà fisica, oggettiva, e quelle della realtà percettiva, soggettiva o fenomenica, appare dunque, al senso comune, come cosa ovvia, come cosa che non richiede di essere spiegata e che si spiega e si giustifica da sé: è cioè vissuta come un dato e non un problema.

Il ricercatore, il cui atteggiamento può essere definito di realismo critico, opera con un modello della percezione molto diverso e vede di contro, in ciascuno dei punti citati, un problema che deve essere affrontato scientificamente.

La messa in crisi del realismo ingenuo è preliminare allo studio della ricerche sulla percezione e può essere favorita da argomentazioni.

Il modello ingenuo e il modello neurofisiologico dei processi percettivi

Il modello di percezione implicito nel realismo ingenuo è innanzitutto in aperta contraddizione col modello dei processi neurofisiologici. Per il realista ingenuo basta infatti aprire gli occhi, affacciarsi alla rima palpebrale per afferrare a “colpo d’occhio” la realtà esterna, basta porgere l’orecchio per cogliere i suoni, ecc.

La neurofisiologia invece ci insegna che la catena dei processi ha una direzione del tutto diversa: dall’oggetto, fonte degli stimoli (visivi, acustici, ecc.), alla stimolazione di recettori, alla conduzione centripeta degli impulsi fino ai processi corticali. L’oggetto percepito è correlato strettamente con questi ultimi processi e non immediatamente con l’oggetto stimolante.

Il modello neurofisiologico, anche senza entrare nella sua complessità, obbliga a distinguere l’oggetto stimolante dall’oggetto visto, udito, ecc.

Köhler ha proposto un’interessante analogia del rapporto fra oggetto stimolante e oggetto percepito; il primo può essere paragonato al foro della canna del fucile, mentre il secondo al foro che il proiettile fa nel bersaglio. Così l’oggetto percepito porta le tracce non solo dell’oggetto stimolo, ma anche del soggetto percepiente.

Situazioni di assenza fenomenica in presenza di oggetti fisici

Cominciamo intanto ad esaminare le situazioni dove le realtà fisiche non hanno il loro corrispondente percettivo, situazioni che chiameremo di assenza fenomenica.

Se mettiamo in corrispondenza lo spettro delle radiazioni elettromagnetiche, quale ci è dato dalla fisica, con lo spettro visivo, vediamo come le nostre possibilità percettive coprono solo una minima parte di queste realtà.

Siamo sintonizzati solo con particolari lunghezze d’onda, tutto il resto c’è ma non viene registrato percettivamente.

Consideriamo ad esempio il caso dell’ultravioletto: questo tipo di realtà fisica è in grado di indurre modificazioni fisiologiche nel nostro organismo (ad es. l’abbronzatura della pelle), ma non di darci esperienze percettive.

Situazioni di presenza fenomenica in assenza di oggetti fisici

Il silenzio, il buio sono per noi impressioni evidenti e cariche spesso di emozioni, sono stati puramente percettivi presenti in noi anche in assenza delle realtà fisiche corrispondenti.

Vi sono poi altre situazioni naturali o artificiali nelle quali attribuiamo agli oggetti proprietà che fisicamente non hanno: così le luci del luna-park sembrano ruotare o cadere benchè

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

fisicamente immobili; così chi sta sotto la torre pendente di Bologna, quando le nuvole passano in direzione opportuna, ha l’impressione che la torre gli cada addosso.

Discrepanza fra oggetto fenomenico e corrispondente oggetto fisico

È il caso delle illusioni: ogni volta che le osservazioni condotte con l’aiuto di strumenti fisici ci fanno pervenire a risultati diversi da quelli ottenuti senza tali strumenti, si ha un’illusione.

Abbiamo numerosissimi tipi di illusioni. La “illusione della luna” è la più universalmente nota.

Se la percezione è una ricostruzione interna ad ogni osservatore della realtà ambientale, ricostruzioni a cui concorrono non solo le proprietà degli stimoli, ma anche le attività autoctone dell’organismo, si può allora comprendere come possono avverarsi le situazioni descritte. Vedremo in seguito a quali leggi specifiche vanno ricondotti i fenomeni soprariferiti.

Problemi della percezione visiva

La complessa serie dei problemi fisici e biologici che intercorrono tra oggetto “fisico” e oggetto “fenomenico” pone problemi alla ricerca scientifica.

I principali possono essere così prospettati:

1) Come si ricostituisce a livello fenomenico l’unità propria dell’oggetto fisico? Vediamo gli oggetti grazie all’azione esercitata sulla retina dai raggi luminosi che da quelli riflettono. Niente, dal punto di vista fisico, dà un’unità reale all’insieme dei raggi che provengono dagli oggetti. L’unità dell’oggetto fisico va, ad un certo punto, completamente perduta. Infatti tale unità si dissolve: a) nel tragitto fra le superfici dell’oggetto fisico e la retina dell’osservatore che le radiazioni luminose compiono come entità del tutto isolate; b) a livello retinico dove la proiezione ottica dell’oggetto fisico si frammenta sul mosaico dei recettori ognuno dei quali invia ai centri corticali impulsi isolati.

2) Come permangono relativamente invariate nella percezione la grandezza e forma dell’oggetto, quando la proiezione retinica dell’oggetto varia di grandezza e forma con il variare dei rapporti spaziali fra oggetto fisico ed osservatore (distanza, inclinazione, ecc.)?

3) Come si ricostituisce a livello fenomenico la tridimensionalità o corporeità degli oggetti e dell’ambiente, dato che a livello retinico la proiezione ottica è bidimensionale in quanto esiste un unico strato di recettori?

4) Come è possibile la percezione del movimento, o meglio quali sono le condizioni di stimolazione retinica che danno luogo alla percezione di un oggetto in movimento?

5) Dato che gli oggetti visivi possiedono un gran numero di qualità di espressione, come sono veicolate tali qualità dall’oggetto fisico all’osservatore? In altre parole, è possibile determinare un rapporto di correlazione tra condizioni di stimolazione retinica e percezione di sentimenti, intenzioni, rapporti causali?

6) In quale modo bisogni, motivazioni, stati emotivi e personalità influiscono sulla percezione?

A questi problemi, che acquistano evidenza qualora si assuma quell’atteggiamento che abbiamo definito come “realismo critico”, si cercherà di dare una risposta, nei seguenti paragrafi, esponendo i risultati delle ricerche metodologicamente più rigorose e quindi più attendibili e che sembrano più importanti.

Il problema del costituirsi dell’oggetto

È il problema che, abbiamo visto, si può formulare chiedendosi se va perduta l’unità degli oggetti fisici nei messaggi che provengono dall’ambiente sotto forma di radiazioni, se cioè la massa di informazioni che giungono dall’ambiente è costituita da elementi reciprocamente isolati ed indipendenti l’uno dall’altro, come mai l’esperienza concreta non è costituita da osservazioni corrispondenti al mosaico delle stimolazioni retiniche, ma è rappresentata da un numero talvolta grande ma sempre finito di oggetti?

A questo problema sono state proposte storicamente varie soluzioni.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

La prima soluzione, data dalla psicologia ad impostazione atomistica o associazionistica, era che a livello dei centri corticali ogni impulso proveniente da un recettore desse luogo ad altrettante sensazioni elementari con una corrispondenza “punto a punto” fra stimoli prossimali e sensazioni (ipotesi della costanza). Si concepiva così l’esistenza di un primo strato psichico di livello “inferiore”, quello delle “sensazioni elementari”. Su questo doveva intervenire uno strato “superiore”, quello delle “facoltà psichiche” cosiddette “superiori” e cioè del giudizio, del ragionamento, della memoria, che, mediante giudizi inconsapevoli, in genere sulla base di specifiche esperienze passate, avrebbe provveduto ad associare, a sommare le sensazioni elementari, attribuirvi un’unità, un’individualità figurale, un significato (attività sintetico-produttive o appercettive, intendendo per appercezione questa seconda fase, più nobile, dopo la prima elementare forma di percezione).

I dati percettivi non portano tracce né delle sensazioni elementari né di queste fasi di elaborazione che peraltro dovrebbero attuarsi con velocità sorprendenti a differenza dei processi di pensiero comuni.

Nell’impossibilità di giungere alla precisazione del meccanismo esatto dei processi a livello della corteccia, si può abbandonare questa prospettiva lasciando, per il momento, insoluto tale problema, e semplicemente osservare cosa il soggetto riferisce dell’esperienza fenomenica di fronte a determinate situazioni.

Il metodo fenomenologico consiste nel porre davanti al soggetto una situazione stimolante e nel variarla, registrando la descrizione delle esperienze percettive immediate e genuine del soggetto stesso.

Con questa metodologia il problema del costituirsi dell’oggetto fenomenico è stato posto per la prima volta in modo essenziale da M. Wertheimer, uno dei fondatori della Scuola di Berlino ovvero della Gestalt.

Organizzazione figura-sfondo

L’organizzazione percettiva più semplice è quella che si realizza nella condizione in cui ogni zona del campo stimolante invii alla retina la stessa quantità di luce: è questa la situazione sperimentale definita come campo di stimolazione omogenea (in lingua tedesca: ganzfeld). Metzger ha realizzato le sue osservazioni su questo fenomeno ponendo il soggetto a poco più di un metro da una parete bianca illuminata debolmente ed in modo che la luce riflessa fosse distribuita uniformemente su tutta la retina. Metzger riferisce che i suoi soggetti avevano l’impressione di percepire non una superficie ma una specie di nebbia omogenea che riempiva lo spazio. Aumentando l’intensità di illuminazione, il soggetto si vede al centro di un qualcosa di curvo come se la nebbia si condensasse su una superficie sferica; ad una illuminazione ancora superiore il campo stimolante non è più omogeneo e si cominciano a distinguere le irregolarità della parete riflettente (la sua grana) che è localizzata ad una distanza precisa. Da questi risultati Koffka ha tratto le seguenti deduzioni: “quando le condizioni stimolanti sono semplici, la nostra percezione è di tipo tridimensionale: vediamo uno spazio con un colore neutro e che si estende in una distanza più o meno indeterminata”.

La rottura dell’omogeneità del campo stimolante, che abbiamo visto dar luogo ad una percezione della profondità, rappresenta il grado più semplice di un rendimento percettivo differenziato: il grado successivo conduce alla comparsa di una distinzione tra figura e sfondo, ad un primo indizio di differente localizzazione spaziale di stimoli diversi per cui si tende a localizzare l’area vista come figura più vicina di quella vista come sfondo.

Rubin ha dimostrato che l’organizzarsi della situazione stimolante in figura-sfondo obbedisce a condizioni determinate in base alle quali è possibile prevedere quale zona del campo acquisterà il ruolo di figura rispetto ad altre zone. Tra le più importanti di tali condizioni sono la grandezza relativa delle parti, i loro rapporti topologici ed i tipi dei loro margini. A parità delle altre condizioni tenderà ad emergere come figura la zona più piccola e sarà favorita nel ruolo di figura una zona inclusa o circondata da altre aree che assumeranno piuttosto caratteristiche di sfondo. Un’altra condizione influente sulla ripartizione figura-sfondo è il carattere convesso/concavo dei margini: a parità di altre condizioni tende cioè a diventare figura l’area con margini convessi piuttosto che quella con margini concavi.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

A tali condizioni vanno aggiunte molte altre poste in luce da altri ricercatori.

Leggi della segmentazione del campo visivo

I fattori di unificazione o organizzazione in unità di campo percettivo sono:

1) Vicinanza. A parità di condizioni le parti più vicine di un insieme percettivo si organizzano nella formazione di un margine dando luogo a unità figurali.

2) Somiglianza. Quando la situazione stimolante è costituita da un insieme di elementi diversi si manifesta, a parità di altre condizioni, la tendenza al costituirsi di unità percettive fra elementi che siano simili in qualche loro aspetto.

3) Chiusura. Le regioni che sono delimitate da margini chiusi tendono ad essere percepite come figure più facilmente di quelle con contorni aperti od incompleti.

4) Continuità di direzione. A parità di altre condizioni si impone quella unità percettiva il cui margine offre il minor numero di cambiamenti od interruzioni. È questo uno dei fattori più importanti delle organizzazioni percettive.

5) La buona gestalt. Fattore per cui il campo percettivo si segmenta in modo che ne risultino unità ed oggetti percettivi equilibrati, armonici, costituiti secondo un principio medesimo in tutte le loro parti che si appartengono, si richiedono reciprocamente, stanno bene insieme. Tendenza alla regolarità, simmetria, continuità di direzione collaborano a dare al campo percettivo un’articolazione particolare.

6) L’esperienza passata. Ai fattori esaminati considerati come fattori autonomi, non appresi, espressione di principi strutturali inerenti al sistema percettivo, Wertheimer (1923) ha aggiunto anche un fattore empirico. La segmentazione del campo percettivo avviene, a parità di altre condizioni, pure in funzione delle nostre esperienze passate in modo che sarebbe favorita la costituzione di oggetti con i quali abbiamo familiarità, che abbiamo già visto, piuttosto che di forme sconosciute o poco familiari.

In situazioni debolmente organizzate che permettono, con grado di facilità più o meno equivalente, il realizzarsi di molteplici configurazioni ed aggruppamenti, lo stato momentaneo del soggetto e la sua disposizione a vedere di preferenza certi oggetti (“Einstellung” o “set”), in concomitanza col “fattore esperienza passata”, influisce sul risultato finale, aggiungendosi, secondo l’analisi classica di Wertheimer (1923), agli altri principi che governano la formazione di unità nel campo visivo.

Quanto di fatto si osserva è che l’organizzazione più chiara, di cui si è avuto esperienza nel passato, tende a migliorare l’organizzazione più incerta che si dà ora. Ma l’esperienza passata non esercita alcuna influenza di questo genere, se la situazione attuale è fortemente organizzata in maniera diversa.

Problema della costanza percettiva

Tale problema nasce dal rilievo che identità, grandezza, forma di un oggetto possono rimanere invariate anche quando la proiezione retinica dell’oggetto varia di grandezza e forma al variare dei rapporti spaziali fra oggetto ed osservatore.

Costanza degli oggetti

La nostra esperienza percettiva è caratterizzata da un alto grado di costanza per tutte le caratteristiche degli oggetti. Il valore di questa costanza degli oggetti è ovvio: mantenendo una percezione stabile e coerente, nonostante le variazioni delle condizioni nelle quali li percepiamo, noi siamo in grado di affrontare in modo efficiente il mondo che ci circonda. La costanza di ciascuna proprietà dipende dai rapporti invariati tra gli elementi di rilievo che abbiamo nel complesso della situazione stimolante.

Costanza di grandezza

Vi sono 2 fattori assai importanti determinanti la percezione della grandezza di un oggetto: 1) la grandezza reale dell’immagine retinica, 2) la distanza apparente dell’oggetto. Questi 2 fattori si integrano per portare alla percezione risultante: un oggetto percepito di una certa grandezza ad una certa distanza. Di 2 oggetti che appaiono posti alla stessa distanza dall’osservatore, quello che produce l’immagine retinica più piccola appare anche più piccolo. Di 2 oggetti che producono l’immagine retinica della stessa grandezza, quello che sembra più vicino sembra anche più piccolo.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Legge di Emmert: ad es. un’immagine postuma proiettata su una superficie posta ad una distanza 10 volte maggiore di quella dello stimolo originale, apparirà 10 volte + grande dello stimolo, anche se la grandezza dell’immagine retinica rimane la stessa. La grandezza percettiva è determinata dalla distanza apparente dell’oggetto e non dalla distanza fisica reale. I 2 indizi della grandezza retinica e distanza apparente determinano la grandezza percepita dell’oggetto, agendo assieme contemporaneamente in un unico sistema. Il riconoscimento di questo tipo di rapporto sistematico di indizi nella percezione è indispensabile per comprendere il fenomeno della costanza.

Costanza di forma

Il piano di un tavolo appare rettangolare anche quando è orientato in vari modi e l’immagine che proietta sulla retina è trapezoidale. I fattori essenziali, in questo caso, sono la forma dell’immagine retinica e l’inclinazione apparente dell’oggetto. Questa inclinazione apparente ci è data da vari indizi provenienti dall’oggetto e dall’ambiente. Se si impoveriscono gli indizi dell’inclinazione, si riduce la costanza di forma.

Problema della percezione dello spazio o della distanza

Per percezione dello spazio si intende “la percezione delle caratteristiche geometriche e spaziali degli oggetti oltre a quella della distanza tra i vari oggetti”. Anche questo tipo di percezione non è cosa ovvia: un problema è come mai abbiamo una percezione tridimensionale del mondo precisa (tanto da orientarci e comportarci in esso senza incidenti) quando sulla retina si ha invece un’immagine piatta. Come avviene dunque che il carattere della tridimensionalità perduto a livello retinico viene ricostruito sul piano della visione intesa come esperienza psichica? Gli studi condotti in questo senso hanno portato a scoprire importanti indizi di profondità che possono essere sia fisiologici che psicologici.

Gli indizi fisiologici

Tra i fattori fisiologici sono da menzionare i meccanismi oculari dell’accomodazione e della convergenza, e il fenomeno della disparità retinica. I movimenti di convergenza degli occhi e l’accomodazione grado di curvatura) del cristallino sembrarono, fin dagli inizi della ricerca sperimentale, i fattori più ovvi e definibili della percezione della profondità. Va comunque ricordato che i soggetti danno giudizi più accurati quando guardano binocularmente: si è voluto spiegare ciò con una superiorità della convergenza rispetto all’accomodazione, ma sembra che tale reperto sia dovuto al fatto che i 2 occhi ricevono immagini diverse.

Abbiamo l’indizio della disparazione binoculare il quale è un indizio visivo. Un chiaro esempio della sua azione: guardando gli oggetti con un occhio, poi subito dopo con l’altro, le proporzioni degli oggetti, i loro rapporti ed i rapporti con lo sfondo cambiano in modo assai evidente. I vari stereoscopi non fanno altro che basarsi su questo principio: 2 immagini diverse dello stesso oggetto vengono inviate separatamente ai 2 occhi e noi per un processo di fusione vediamo l’oggetto in un’immagine unica e tridimensionale.

Gli indizi psicologici

Fra gli indizi psicologici abbiamo 2 categorie: indizi “pittorici” e indizi “legati al movimento”. Si può pensare che gli accorgimenti usati dal pittore per darci effetto di profondità siano in grado di suggerirci qualcosa su quanto avviene a livello della retina nel momento di percepire la distanza ed il volume degli oggetti reali nel mondo reale. I principali indizi pittorici sono: grandezza relativa, sovrapposizione, disposizione delle luci e delle ombre, luminosità relativa, prospettiva aerea e prospettiva lineare.

a) La grandezza relativa. È un fattore di indizio di profondità sia come grandezza relativa, sia come grandezza familiare. Relativamente al fattore grandezza relativa si può affermare che, a parità di altre condizioni, di 2 oggetti di grandezza diversa quello di maggiori dimensioni è percepito più vicino. In un ambiente buio ove sono poste alla stessa distanza 2 linee luminose di altezza diversa giudichiamo più vicina la linea più alta. La grandezza familiare sarebbe un indizio efficace quando mancano informazioni sulla distanza reale degli stimoli.

b) La sovrapposizione. Un oggetto che copre parzialmente un altro oggetto è percepito più vicino. Perché questo indizio sia operante è necessaria la presenza dei margini negli oggetti, altrimenti si ha una condizione ambigua. In alcuni casi, pur mancando una linea di

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

demarcazione tra le 2 aree, entrano in gioco dei fattori che sono stati studiati e descritti da Petter (1956): essi sono la grandezza (una figura più grande è vissuta come davanti ad una figura più piccola), struttura (una figura con struttura più semplice e regolare e con carattere di pregnanza viene vissuta come davanti ad una figura più articolata e complessa), ed il movimento (una figura in movimento viene vissuta preferibilmente come situata davanti ad una figura immobile).

c) Disposizione delle luci e delle ombre. Certi modelli di disposizione delle luci e delle ombre sugli oggetti favoriscono la percezione della loro forma e del loro volume, oltre che la percezione delle loro diverse distanze.

d) Luminosità per cui, a parità di altre condizioni, l’oggetto più luminoso è percepito più vicino.

e) La prospettiva aerea, l’oggetto che dà un’immagine più chiara e dettagliata è percepito più vicino.

f) La prospettiva lineare. Questo indizio di profondità è basato sul fatto che dei punti posti ad uguale distanza fra loro allontanandosi dall’osservatore sottendono un angolo visivo minore: vengono cioè a disporsi lungo linee virtuali dette linee di fuga che finiscono col convergere verso un punto comune detto punto di fuga.

g) I gradienti della densità di tessitura: lo studio di questo indizio è stato iniziato da James Gibson. Ogni superficie ha una sua grana, o tessitura, caratteristica e con una data densità: in altre parole, se l’immagine retinica della tessitura presenta una densità uniforme in ogni parte, ciò significa che la superficie è dritta davanti a noi, in un piano frontale; se invece la tessitura si fa sempre più densa verso un lato, ciò significa che la superficie si allontana da noi appunto da quel lato.

Il problema della percezione nel movimento

L’esistenza di un movimento fisico non è sempre condizione sufficiente e non è neppure condizione necessaria per l’attuarsi di una tale impressione. Dunque la condizione generale necessaria per una percezione visiva di movimento è anzitutto l’esistenza di una modificazione temporale nello stato di stimolazione della retina. Ove questa è omogeneamente stimolata nel tempo, non abbaimo le premesse per la percezione del movimento; questa modificazione nella stimolazione non deve essere però né troppo lenta né troppo rapida: ci sono una soglia inferiore e una superiore di velocità per percepire il movimento.

Uno spostamento di immagini sulla retina si ha anche se, stando fermo l’oggetto, vengono mossi gli occhi o la testa. Eppure chi cammina per la via non percepisce le case in movimento. Dunque devono essere in gioco altri fattori: ciò è bene illustrato dallo studio del movimento stroboscopico.

Il movimento stroboscopico

Gli studi di Wertheimer e di Korte hanno dato evidenza al fatto che l’impressione di movimento si ha solo per intervalli ottimali di tempo e di spazio fra i 2 stimoli e per valori ottimali di intensità dei medesimi stimoli. Per un intervallo molto grande di tempo o di spazio o per una bassa intensità di stimolazione, si ha impressione di successione. Se l’intervallo è troppo breve, si ha impressione di simultaneità.

Il movimento stroboscopico (ed in particolare l’impressione di movimento provocata da immagini che si succedono sullo schermo cinematografico) dipenda da una ipotizzata “persistenza delle immagini sulla retina”.

Il movimento indotto

Un’altra situazione dove manca la corrispondenza fra realtà fisica e realtà percettiva è quella del movimento indotto dove si osserva che la stessa condizione di stimolazione retinica può dar luogo a rendimenti percettivi diversi a seconda dei rapporti esistenti fra oggetti stimolanti. Una figura rettangolare su sfondo buio porta nel proprio interno un punto luminoso. Se il rettangolo viene posto in movimento a velocità molto lenta, mentre il punto rimane immobile, la percezione che si determina è quella di un punto in movimento dentro un rettangolo perfettamente fermo.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Vi è dunque una tendenza a vivere come immobili quegli oggetti percettivi che a causa delle loro maggiori dimensioni assumono per rapporto ad altri (soprattutto se questi sono inclusi in essi) il ruolo di sistema di riferimento.

Problema della percezione delle qualità espressive e della causalità

La percezione del prossimo può essere chiamata percezione sociale. Come possiamo percepire emozioni nel prossimo? La psicologia associazionistica risponde a questo interrogativo affermando che riusciamo a cogliere l’espressività dei comportamenti altrui attraverso un confronto con il nostro comportamento, quando ci troviamo in quello stesso stato d’animo: questa teoria è indicata col nome “empatia”.

La psicologia della “Gestalt” ipotizza che la comprensione dell’espressione sia basata, più che sull’apprendimento, sulla struttura dell’evento; si tratterebbe cioè di un fatto percettivo primario.

Espressività degli oggetti

Negli oggeti cogliamo una serie svariata di qualità che secondo Metzger (1966) possono essere classificate:

1) Qualità sensoriali o semplici. Esempi: le tonalità cromatiche, il caldo, il freddo, l’amaro, il dolce.

2) Qualità globali o formali. Sono estese a tutta la configurazione nel suo insieme e sono tali da emergere solo dall’esame del tutto, non di piccole parti, non è possibile cioè risalire ad esse da un esame di particolari eventi. Esse si colgono da un’ispezione globale estesa a tutto l’oggetto, con un atteggiamento non analitico ma globale. Le qualità globali a loro volta comprendono:

a) qualità strutturali che caratterizzano la forma e il disegno architetto nico dell’oggetto rotondo, aperto, snello;

b) qualità costitutive: vi si riferiscono gli aggettivi liscio, ruvido, molle, lucido, trasparente, torbido, rauco;

c) qualità espressive: sono quelle cui si riferiscono aggettivi come allegro, triste, aggressivo, frettoloso, solenne, virile, amichevole, ecc. anche queste sono qualità che emergono con immediatezza e spontaneità nell’esame degli oggetti.

L’espressività è quindi una qualità globale; la percezione delle emozioni è un caso particolare dell’espressività.

La teoria gestaltica non nega ogni importanza all’esperienza; esperienza, familiarità, memoria, sono fattori di campo. Si spiega così perché il comportamento di una persona è tanto più espressivo, quanto più la persona stessa è conosciuta. Ma imparare a cogliere le espressioni non significa associazione su base empatica; significa piuttosto affinamento delle capacità discriminative.

Percezione del tempo

Il tempo è in stretto rapporto con ogni fenomeno legato allo sviluppo ed al cambiamento. Il tempo fisico può essere misurato, nonostante l’assenza di oggetti-stimolo da cui emanino energie che vadano a sollecitare qualche recettore del tempo. Devono esistere pertanto dei meccanismi anche indiretti che trasformano i passaggi fisici del tempo in segnali sensoriali.

Certamente la percezione del tempo è influenzata da sostanze chimiche che intervengono sui ritmi corporei. Generalmente gli eventi che accelerano i processi corporei tendono ad abbreviare la percezione della durata del tempo e corrispondentemente quelli ad azione ritardante a dilatarla. È convinzione di molti Autori che i meccanismi che mediano la percezione del tempo debbano essere posti fra i problemi psicofisiologici non risolti.

La consapevolezza del processo temporale (del trascorrere del tempo) genera a livello psicologico l’esperienza temporale. Le nozioni che ci sembrano fondamentali sono le seguenti: stima del tempo, orientamento temporale e prospettiva temporale. La stima del tempo o senso della durata del tempo si riferisce alla capacità di valutare la durata di un lasso di tempo relativamente breve senza usare strumenti; l’orientamento temporale indica la capacità di orientarsi nel tempo e di situare in esso gli eventi senza l’ausilio di strumenti

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

particolari; la prospettiva temporale o orizzonte temporale rappresenta l’arco di tempo psicologico in cui l’individuo vive; essa consiste dunque nel vissuto psicologico della persona che vivendo nel presente è in grado di avere rappresentazioni del passato e del futuro, le quali dirigono il suo comportamento nel senso che un’azione è determinata non solo dalla situazione presente, ma anche dalle aspettative per il futuro e dalle esperienze passate.

Prospettiva temporale

Come altri studiosi possiamo distinguere aspetti della prospettiva temporale: l’atteggiamento verso il tempo e le fasi temporali della propria esperienza; l’orientamento differenziale sulle diverse dimensioni temporali; la densità a quantità di contenuti cognitivi che si hanno in relazione alle fasi della prospettiva temporale; l’estenzione e distribuzione nel tempo dei contenuti cognitivi connessi al passato e al futuro; la coerenza o grado di organizzazione e di articolazione per gli avvenimenti accaduti e che accadranno. La coerenza è in stretta relazione con il grado di realtà e con il grado di possibile attualizzazione delle aspettative del soggetto.

Fattori innati e fattori appresi nella percezione

Uno dei problemi della percezione visiva: la nostra capacità di percepire i vari aspetti dell’ambiente è frutto dell’apprendimento od è, al contrario, innata? Gli innatisti sostenevano che l’uomo nasce già con questo tipo di capacità percettiva; gli empiristi ritenevano invece che l’uomo impara attraverso l’esperienza del mondo circostante la maniera di percepirlo. La maggior parte degli psicologi contemporanei, tuttavia, sono convinti della possibilità di una feconda integrazione di questi indirizzi.

Nessuno oggi dubita del fatto che la pratica e l’esperienza influenzano la percezione. Comunque rimane sempre il problema generale se noi nasciamo già dotati di capacità specifiche di percepire gli oggetti e lo spazio o se ciò è interamente frutto dell’apprendimento.esperimenti che certamente dimostrano una propensione innata nei risultati percettivi sono quelli di Fantz e della Gibson.

Un esempio di come empiristi ed innatisti affrontano il problema del perché si percepisce in un determinato modo, lo abbiamo nella discrepanza apparente tra lo stimolo prossimale e quello che in realtà vediamo. Consideriamo la grandezza percepita: un uomo lontano 5 metri, che proietta sulla retina un’immagine estesa, viene percepito alto come un uomo lontano 50 metri, che proietta un’immagine ridotta.

Per gli empiristi tale risultato si ha perché sappiamo che i 2 uomini sono di altezza media (e non sono, invece, un gigante ed un nano), e perché appaiono realmente uguali, ammesso che esistano indizi che indicano la loro distanza. Come possiamo spiegare tale fenomeno? La versione più classica e influente è stata formulata nella seconda metà del secolo scorso: per Helmholtz chi percepisce ha 2 fonti d’informazioni.

C’è infatti la sensazione derivata dalla grandezza dell’oggetto (nel nostro caso, l’uomo) sulla retina; inoltre vi sono degli indizi di profondità che danno informazioni sulla distanza dell’oggetto. L’esperienza precedente ha insegnato a chi percepisce che più gli oggetti sono lontani, minore è la sensazione derivata dall’immagine retinica: chi percepisce può inferire la grandezza dell’oggetto disponendo della sua immagine retinica, della distanza e della regola che collega questi dati. Noi non eseguiamo un calcolo del genere in modo consapevole quando guardiamo gli oggetti e ne percepiamo la grandezza; da ciò il termine inferenza inconscia per definire tale processo percettivo.

Gli innatisti per spiegare i fenomeni dell’organizzazione percettiva non si appellano all’apprendimento, ma cercano qualche caratteristica del modello stimolante che sia più complessa alla quale il percepiente risponde in modo diretto.

Problema dell’influenza dei bisogni, motivazioni, stati emotivi, atteggiamenti e della personalità nella percezione

Riferisce il Metelli (1970) che, sebbene l’ambiente percettivo sia funzione del soggetto percepiente, pure esso si rivela ampiamente indipendente dall’Io fenomenico: gli oggetti non cambiano di colore, non si contorcono, non si spostano, non svaniscono per quanto grandi

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

siano i tumulti dell’Io. Tuttavia tale indipendenza non è assoluta: le qualità puramente “soggettive” sono più sensibili alle variazioni dell’Io, anche se non si può escludere che emozioni violente o stati affettivi intensi, come ad esempio la depressione patologica, possano agire sulle qualità propriamente strutturali della percezione. Seguendo Allport diremo che questo materiale può essere presentato sotto 5 ipotesi.

I bisogni organici tendono a determinare ciò che è percepito

Mc Clelland ed Atkinson (1948) sottoposero 108 soggetti adulti, tenuti a digiuno da un minimo di un’ora ad un massimo di 18 ore, ad una prova che, secondo le istruzioni, si proponeva di misurare le capacità di percepire stimoli deboli o subliminali. In realtà per 32 dei soggetti venivano proiettate su di uno schermo deboli macchie, mentre per i rimanenti non si proiettava assolutamente nulla, sebbene vari espedienti fossero messi in atto per dare l’impressione che si trattasse effettivamente di una prova di acutezza visiva.

Le risposte percettive dei soggetti sottoposti all’esperimento furono analizzate secondo la frequenza con cui presentavano contenuti relativi al cibo, o secondo la valutazione intorno alla grandezza e al numero degli oggetti relativi al cibo oppure neutri; le risposte percettive vennero analizzate secondo le ore di digiuno a cui i soggetti erano stati sottoposti.

I risultati mostrno che il numero delle risposte comportanti connotazioni di cibo aumenta man mano che le ore di privazione di cibo crescono; questo numero aumenta quando lo schermo è vuoto ed ai soggetti è stato ugualmente chiesto di riferire ciò che “vedevano”. Le risposte relative agli oggetti-cibo ed agli oggetti-strumento, atti a procurare il cibo, danno evidenza a valutazioni di grandezza maggiore rispetto agli oggetti-strumento a carattere neutro; ciò non è stato rilevato nelle risposte dei soggetti sazi. Gilchrist e Nesberg dimostrarono che questi risultati non erano dovuti all’effetto della motivazione sulla visione in generale, ma solo sulle percezioni correlate al bisogno specifico.

L’effetto di ricompense e punizioni su ciò che è percepito

Schaefer e Murphy (1943) usarono, come stimoli, contesti di figure ambigue e reversibili. Il materiale era rappresentato da due cerchi attraversati in corrispondenza del diametro da una linea ondulata e con dei punti: così si ottenevano, complessivamente, quattro diverse facce. Le due parti venivano poi tagliate in modo da poter essere presentate al soggetto separatamente. Ogni volta che una delle due facce veniva presentata, il soggetto veniva ricompensato, e ad ogni esposizione dell’altra veniva punito: ricompense e punizioni consistevano nel dare o nel togliere piccole somme di denaro secondo un piano sperimentale per cui le facce, che erano associate ad un compenso per una metà dei soggetti, erano associate ad una punizione per l’altra metà.

Dopo il periodo di condizionamento consistente in 100 esposizioni, le figure furono accostate e le 2 parti, unite nel circolo completo, furono mostrate ai soggetti ad un tempo di esposizione di un terzo di secondo. Fu trovata una tendenza a percepire come faccia solo la parte ricompensata. Sommer ed Ayllon hanno documentato analoghi risultati adoperando come situazione-stimolo la segmentazione tattile.

Il valore individuale degli oggetti influisce sulla velocità di riconoscimento

Postman, Bruner e McGinnies (1948) sottoposero un gruppo di studenti ad inchiesta per conoscere il loro giudizio dal punto di vista economico, estetico, sociale, politico, religioso, filosofico. Agli stessi soggetti presentarono poi tachistoscopicamente, con tempo di esposizione progressivamente crescente, una serie di parole aventi riferimento con quegli aspetti prima saggiati. I risultati mostrarono che le parole, aventi un riferimento positivo con gli atteggiamenti del soggetto, erano riconosciute ad un tempo di esposizione più basso di quello richiesto dalle parole aventi un riferimento negativo.

McGinnies (1949), con tecnica fondamentalmente analoga, trovò che il tempo di riconoscimento si innalza notevolmente per le parole spiacevoli o tabù (“difesa percettiva”).

Il valore dell’oggetto influisce sulla grandezza percepita

Carter e Schooler hanno notato che, nel caso della percezione degli oggetti, esiste una tendenza generale a sottostimare le misure sia delle monete che dei dischi quando sono più

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

grandi. Le differenze nella misura delle dimensioni delle monete tra il gruppo di ragazzi ricchi e poveri vennero constatate solo nelle valutazioni fatte a memoria, non in quelle con la moneta nel campo percettivo.

Le differenze individuali o la personalità nell’organizzazione percettiva

Il problema delle differenze individuali (o della personalità) nella percezione emerge poiché i risultati delle osservazioni sperimentali non sono sempre a favore di un’influenza diretta fra motivazione e percezione. E’ invece predominante il ruolo della struttura della personalità del percepiente, il suo atteggiamento percettivo, aspetto di un più generale stile cognitivo che varia da persona e persona e da momento a momento; da situazione a situazione nella stessa persona. Indagini condotte sulla personalità mostrano come le persone dipendenti dal campo tendano ad essere caratterizzate da passività nel rapporto con l’ambiente, da scarsa fiducia e paura degli impulsi accompagnata da controllo insufficiente, da mancanza di autostima e dal possesso di un’immagine corporea indifferenziata e primitiva; i soggetti che, al contrario, danno prestazioni percettive indipendenti dal campo tendono ad essere caratterizzati da attività ed autonomia in rapporto all’ambiente, appaiono meno difensivi poiché hanno un controllo dei propri impulsi maggiore e possiedono un buon livello di autostima accompagnato dalla percezione di un’immagine corporea differenziata e matura.

Un’indagine condotta sulla personalità mette in risalto che chi si dimostra influenzabile dallo stimolo “subliminale” mostra carattere di flessibilità e tolleranza, mentre quelli che continuano a vedere un quadrato perfetto, che tendono cioè ad isolare i 2 stimoli, appaiono più rigidi, più ansiosi ed utilizzano il meccanismo difensivo dell’isolamento. Coloro infine che avvertono un’alterazione contraria a quella propria dell’illusione, mostrano di utilizzare un meccanismo del tipo “formazione reattiva”.

Il problema dei rapporti fra personalità e percezione non è quindi più affrontato con l’intendimento di costruire tipologie percettive come è accaduto ai principi del secolo (tipo “globale” o tipo “analitico”; tipo “soggettivo” o tipo “oggettivo”); oggi la ricerca tende a definire non i tipi, ma i meccanismi di controllo operanti nel processo percettivo. Secondo questi orientamenti la percezione diventa un’organizzazione autonoma, autosufficiente e regolata da leggi generali, una funzione che può rispondere in modo selettivo a dinamismi psichici sensibili ai diversi bisogni.

Come abbiamo visto nei precedenti paragrafi, possiamo analizzare diversi aspetti: quello dimensionale, che si riferisce alle caratteristiche variabili (grandezza, luminosità, ecc.); quello configurativo che si riferisce alla forma, alla struttura del percetto; quello significativo è quello, più difficilmente precisabile, riguardante la rilevanza personale del percetto, la sua valenza per il percepiente.

Cognitivismo e percezione

Il cognitivismo nasce dal comportamentismo e per reazione ad esso, ma conservandone molti aspetti, tanto è vero che i primi cognitivisti, a loro tempo si autodefinirono comportamentisti o al massimo “comportamentisti soggettivi”. È un fatto che il panorama della psicologia cambia sostanzialmente a partire dagli anni ’50, quando si comincia ad ammettere la possibilità di formulare delle ipotesi sul funzionamento della mente, intesa come insieme di processi e funzioni. Si diffonde gradualmente l’uso di schemi analogici che dovrebbero rappresentare il possibile e probabile succedersi di fasi dell’attività psichica nel caso di prestazioni come una decisione o la recezione di un messaggio o la soluzione di un problema.

I campi dove il cognitivismo ha dato i risultati maggiori sono lo studio della memoria, l’analisi del pensiero verbale e della comprensione di frasi. Minori sono invece i contributi nell’ambito della percezione. Ciò è spiegabile se si pensa che la maggioranza delle ricerche cognitiviste fa ricorso ad un modello teorico generale dell’uomo inteso come elaboratore di informazioni provenienti dall’ambiente.

In tale contesto ciò che balza in primo piano come problema è il tipo e la quantità di elaborazione che subisce l’informazione, mentre passa in secondo piano il momento della recezione, che è stato il problema dominante della psicologia della percezione precedente,

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

soprattutto gestaltica. Neisser che più di altri cognitivisti si è occupato di questi temi nel suo libro del 1967 relega in poche pagine i problemi della segmentazione e unificazione figurale, rinviandoli ai fattori di campo: “queste operazioni preliminari sono molto interessanti di per se stesse; esse corrispondono a… ‘forze autoctone’ e producono ciò che Hebb definisce unità primaria. Propongo di dare a tali operazioni preliminari il nome di processi preattentivi…”.

Successivamente a questi processi preattentivi, secondo Neisser, interverrebbe l’attenzione vera e propria, definita dall’Autore attenzione focale perché orientata su quella parte di campo che interessa il percepiente. Ad uno stadio ancora successivo avremo il passaggio da momento analitico a quello sintetico dove, con l’intervento delle conoscenze depositate in memoria, si attua il riconoscimento dell’oggetto percepito, che risulta così costruito dal percepiente. L’attenzione focale viene pensata come un’attività costruttiva e sintetica, piuttosto che meramente analitica.

Ciò che rimane costante è la concezione del processo percettivo come elaborazione dell’informazione.

CAPITOLO 7 – L’APPRENDIMENTO

Introduzione

Nella teoria di Darwin dell’evoluzione delle specie uno dei 2 meccanismi principali di sopravvivenza era individuato nell’apprendimento. Questo meccanismo permette al singolo individuo di adattarsi e, quindi, di rispondere positivamente alle richieste dell’ambiente, mentre quello della selezione permetterebbe alla specie di adattarsi a variazioni più macroscopiche di lungo periodo dell’habitat attraverso la sopravvivenze degli individui portatori della caratteristiche più predisponenti della vita nell’habitat stesso.

Una definizione veramente esaustiva dell’apprendimento è di Hilgard e Bower (1966): “l’apprendimento è il processo con cui si origina o si modifica un’attività reagendo ad una situazione incontrata, ammesso che le caratteristiche del cambiamento dell’attività non possano essere spiegate sulla base di tendenze a rispondere innate, di maturazione o di stati temporanei dell’organismo” (p. 66).

La definizione deve distinguere, infatti, come avvertono gli stessi Hilgard e Bower, “fra i tipi di cambiamenti ed i loro antecedenti correlati, che vengono fatti rientrare nell’apprendimento, e i relativi tipi di cambiamenti, con i loro antecedenti, che non vengono classificati come apprendimento”.

Tra questi ultimi possono essere sicuramente fatti rientrare i riflessi, i tropismi e gli istinti, la maturazione che porta a modificare le sequenze di comportamento attraverso stadi regolari, l’affaticamento e l’abitudine, i processi di pensiero (come il problem solving e il ragionamento deduttivo, che portano a comportamenti indipendenti dalle esperienze effettive).

Nella pur generica definizione fornita per l’apprendimento è riconosciuto il fatto che vi siano più tipi di apprendimento diversi fra di loro. Occorre tenere presente, poi, il fatto che tali tipi debbono essere riferiti alle metodiche di osservazione o a paradigmi. Poiché infatti sotto l’etichetta di “apprendimento” rientrano processi vari, anche eterogenei, le loro descrizioni non possono prescindere dal costante riferimento alle procedure ed alle tecniche impiegate per obiettivare fenomeni loro relativi. La fortuna della nozione di paradigma inizialmente impiegata da Kuhn è stata determinata dal fatto che i processi sottostanti a determinati fenomeni possono essere studiati in modo più adeguato con certe procedure che con altre, fermo restando la loro identità complessiva.

Paradigma del condizionamento classico o rispondente: schema S-R

Esistano catene di azioni nella cui esecuzione non entrano elementi appresi. Pavlov è stato il primo a studiare la genesi dei meccanismi derivati di adattamento, che fanno sì che uno stimolo neutro porti alla risposta nella quale entra il riflesso originario. Pavlov, che aveva perfezionato varie procedure per studiare l’apparato digerente, si interessò alla secrezione

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

salivare: praticava delle fistole nel canale di Warton o nel dotto di Stenone, attraverso le quali introduceva una sonda per raccogliere la saliva secreta.

Pavlov notò che il concetto di riflesso non spiegava da solo la meccanica della secrezione del succo gastrico: questa avveniva anche per stimolazione olfattiva, visiva o addirittura acustica (quando il cane sentiva battere la ciotola nella quale veniva immesso il cibo). Per capire in che modo la stimolazione dell’apparato uditivo potesse avere una certa efficacia anche sui processi della secrezione gastrica, escogitò una situazione sperimentale poi divenuta classica per studiare l’apprendoimento per condizionamento rispondente. Prese un cane, al quale aveva, tramite un’operazione, messo in collegamento con l’esterno la parotide, e fornì una stimolazione acustica isolata per mezzo di un campanello. Non si produceva in tal modo alcuna variazione. Presentò successivamente lo stimolo sonoro in modo immeditamente contiguo a del cibo (tale procedura è detta associazione) e, dopo un certo numero di stimolazioni abbinate, constatò che la sola presentazione dello stimolo sonoro provocava la salivazione. In tal modo pavlov dimostrava che era possibile provocare, attraverso uno stimolo “neutro”, una risposta specifica quasi identica a quella ottenuta con la somministrazione di cibo.

La connessione stimolo-risposta (S-R) indica un riflesso condizionato per significare che il risultato finale non è innato ma condizionato da un’esperienza precedente. Nella situazione sperimentale, uno stimolo incondizionato (SI) viene associato allo stimolo neutro (SN) che produce una risposta di orientamento (RO); la presenza dello stimolo incondizionato, che provoca la risposta incondizionata (RI), nel condizionamento si collega ad SN che diventa così stimolo condizionato (SC) in grado di dare da solo la risposta originaria ora detta condizionata (RC). La rilevanza degli esperimenti di Pavlov e di tutto il paradigma del condizionamento classico, consiste nel fatto che SC, o non avendo manifestato o non manifestando prima dell’addestramento una proprietà atta a provocare la salivazione, finisce per evocarla (RC) dopo l’abbinamento al cibo (SI) ed alla reazione a quest’ultimo solitamente associata (RI).

Pavlov distinse gli stimoli che provocano risposte in stimoli incondizionati (provocano risposte spontaneamente) e condizionati (possono provocare risposte definibili come riflessi condizionati il cui valore per la sopravvivenza è elevatissimo). Attraverso il condizionamento, infatti, l’organismo è in grado di reagire a taluni stimoli adeguati e a segnali che l’esperienza ha trasformato in stimoli dotati di significato. La risposta che il condizionamento suscita può essere più appropriatamente definita come reazione condizionata che come riflesso inteso come una risposta semplice, stereotipata, immodificabile. Per poter essere condizionato uno stimolo deve essere percepibile nel limite delle capacità sensoriali dell’organismo, non provocare una risposta simile a quella provocata dallo stimolo incondizionato, non essere troppo intenso. Lo stimolo incondizionato deve possedere come caratteristica principale quella di provocare risposte specifiche con grado di probabilità alto, o perché fra SI ed RI esiste una via nervosa, o perché c’è stato un apprendimento che rende RI abitudinaria per l’organismo.

Tra SC e SI devono essere rispettate alcune relazioni temporali:se SC precede SI, si ha condizionamento; con un ordine inverso non si evidenzia condizionamento; con una presentazione simultanea si ottiene, anche se con difficoltà, il condizionamento; l’intervallo ottimale fra SC e SI, pur variando a seconda degli stimoli, degli organismi e del sistema sensoriale interessato, è relativamente preciso. Le reazioni condizionate possono essere acquisite (dopo un addestramento, per la contiguità di SC e SI) e naturali (si attuano in modo spontaneo). Quest’ultimo riflesso è stato introdotto per spiegare i comportamenti che denotano una predisposizione a percepire nell’ambiente nuovi segnali con facilità e rapidità ed è stato supposto essere alla base dell’imprinting.

La legge della generalizzazione dello stimolo consiste nella comparsa della stessa risposta in corrispondenza di stimoli analoghi. I tipi di generalizzazione dello stimolo sono 2: quello primario è proprio della risposta basata sulla somiglianza fisica, quello secondario è proprio della risposta basata sulla somiglianza appresa. Non è da pensare che le RC apprese siano consolidate e conservate per sempre: in assenza di ripetizioni delle stimolazioni, dove sono abbinate SC e SI, le relative RC cessano di comparire; questo processo di estinzione può

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

essere procurato anche inserendo un fattore di disturbo nella connessione SC-SI: ciò non porta ad una disattivazione o soppressione della relazione S-R, poiché è possibile una disibinizione ripresentando la stimolazione e un recupero spontaneo, senza ulteriore addestramento, dopo un periodo di riposo. La RC passa attraverso 4 stadi: condizionamento, estinzione, riposo, recupero.

Paradigma del condizionamento operante o strumentale

Descrizione generale

Il condizionamento operante, come è stato denominato da Skinner, permette di studiare comportamenti e apprendimenti complessi più a fondo. Vi sono infatti molteplici forme di adattamento all’ambiente soprattutto nell’uomo, ma anche in una certa misura negli animali che sono la risultante di attività spontanee dell’organismo indipendenti da una situazione. L’organismo solitamente non resta passivo nel suo ambiente, ma entra in interazione con stimoli, che discrimina, seleziona e concorre a modificare per effetto dell’interaszione stessa.

Lo schema di Pavlov non dà ragione di come l’organismo operi sul mondo.

B. Skinner è stato il perfezionatore dei metodi precedenti di Thorndike (apprendimento) e di Miller e Konorsky (condizionamento di secondo tipo). Le osservazioni di Thorndike portarono a formulare la legge dell’effetto, secondo la quale risposte varie alla situazione medesima, quelle che sono accompagnate o immediatamente seguite da soddisfazione, saranno connesse con la situazione, in modo che, quando essa si ripresenterà, tali risposte ricorreranno con maggiore probabilità. Da parte loro, S. Miller e J. Konorsky pubblicarono un lavoro dove veniva descritto un tipo di condizionamento diverso da quello classico, tentando di applicare la legge dell’effetto di Thorndike alle tecniche pavloviane.

Skinner nel 1930 perfezionò attraverso esperimenti numerosi la tecnica, il cui apparato divenne rapidamente famoso (“Skinner box”): consiste in una gabbia, dove una levetta fa cadere cibo (o una quantità piccola di acqua) in una ciotola: un meccanismo di registrazione su carta indica quante volte la levetta è stata premuta ed a quali intervalli. L’esperimento prevede che l’animale sia libero di muoversi nella gabbia e di premere la levetta solo per caso (magari dopo molto tempo): in tal caso, può mangiare cibo (o bere acqua): è il rinforzo. Successivamente sempre per caso il ratto può appoggiarsi altre volte alla levetta, finchè l’intervallo fra una pressione e l’altra diviene pari al tempo necessario per premere la leva e mangiare o bere: a questo punto, si dice che si è verificato il condizionamento. Tale tipo di condizionamento fu da Skinner definito operante, in quanto è una specifica risposta, prodotta dall’animale, a venire rinforzata, non lo stimolo, come nel condizionamento classico. In quest’ultimo, infatti, ad essere condizionato è uno stimolo inizialmente neutro, che viene associato ad uno stimolo già collegato stabilmente con una risposta.

Il rinforzo

Il rinforzo può essere positivo o negativo; talora viene usato come sinonimo di rafforzatore; secondo la definizione di Meehl col termine “rinforzo” si indicano “le operazioni di usare gli eventi-stimolo rafforzatori” in concomitanza di una certa risposta; il cibo per esempio è un rafforzatore, mentre somministare cibo, in concomitanza di una certa risposta, costituisce un rinforzo. Nell’ambito del modello teorico elaborato dalla scuola di Skinner con rinforzo si intendono almeno 3 fatti diversi: a) il processo di dare un rafforzatore ovvero il rinforzo vero e proprio; b) il processo di modificazione del comportamento che si è ottenuto dopo aver somministrato i rafforzatori, per cui si dice che è stato dato un rinforzo (ovvero, che il comportamento è stato rinforzato); c) l’agente rafforzatore che da taluni è pure denominato rinforzo. I rafforzatori possono essere classificati secondo: a) la valenza sull’organismo: positivi/ricompensa; negativi/shock; b) i bisogni sui quali agiscono: bisogni primari/rafforzatori primari; bisogni secondari/rafforzatori secondari; c) secondo la modalità di somministrazione: ratio parziale/continua.

Sono stati studiati vari tipi o modelli di rinforzo, al fine di individuare le condizioni dove il rinforzo cambia da risposta a risposta come avviene in natura. Un modello di apprendimento per condizionamento operante può essere stabilito con procedure varie, le più frequenti

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

delle quali sono le seguenti: a) attraverso variazioni quantitative e qualitative del rinforzo; b) attraverso il rinforzo di solo alcune risposte dell’organismo (rinforzo parziale); c) attraverso la modificazione dell’intervallo di tempo fra emissione della risposta e somministrazione del rinforzo.

In linea generale, si può osservare che col rinforzo continuo l’apprendimento si instaura in modo più rapido, ma altrettanto rapidamente si estingue; viceversa, con un rinforzo parziale l’apprendimento è più lento, così come è più lenta l’estinzione (ovvero l’apprendimento risulta più stabile). Il rinforzo può essere oltre che positivo anche negativo, in quanto evento-stimolo che fa aumentare la probabilità di una risposta atta a rimuovere o ad evitare le conseguenze di uno stimolo nocivo. Si distingue il rinforzo negativo dalla punizione, in quanto il primo aumenta la probabilità che un comportamento si verifichi una volta che venga allontanato dalla situazione, mentre la punizione ha un’azione diretta sulla diminuzione del comportamento in atto. In pratica tuttavia, i 2 tipi di rinforzo non sono isolabili. Anche i rinforzi negativi possono essere somministrati secondo programmi di rinforzo continuo/parziale.

L’estinzione

L’estinzione è il processo che porta a rimuovere i rinforzi che agiscono sulla risposta comportamentale precedentemente rinforzata. Questo prosesso che avviene nell’apprendimento consiste nella diminuzione dell’ampiezza della risposta e in un aumento del tempo di latenza per la reazione, allorchè viene sospeso il rinforzo. L’estinzione quindi è la riduzione di frequenza di una risposta operante: la frequenza di risposta tuttavia può diminuire anche indipendentemente dall’estinzione, ovvero sotto l’azione di fattori come sazietà, fatica, conflitto fra diversi rinforzi.

La gradualità nella diminuzione della forza della risposta, dopo la sottrazione del rinforzo, viene definita “resistenza all’estinzione”: essa è maggiore quanto più valido è l’apprendimento.

Il recupero spontaneo

Il recupero spontaneo contrassegna la ricomparsa di una risposta appresa dopo che questa sia stata attenuata, ovvero estinta, senza il rinnovo del rinforzo. Questo processo dimostra che una R non si annulla, ma lascia una sorta di traccia, che si esprime con una riacquisizione spontanea della forza della R stessa.

Il rinforzo secondario

Nella condizione di laboratorio classicamente utilizzata per lo studio del condizionamento operante, viene solitamente utilizzato un rinforzo per un comportamento di cui si voglia incrementare la frequenza di emissione. In condizioni naturali, tuttavia uno stimolo originariamente indifferente può assumere caratteri di rinforzo se collegato con un rafforzatore efficace. Il nuovo rinforzo prodottosi viene chiamato secondario; esso dapprima agisce esclusivamente perché correlato al rinforzo primario diventando indipendente da questo.

L’importanza del rinforzo secondario è notevole per la comprensione di molti comportamenti dei mammiferi e soprattutto dell’uomo. Nella vita quotidiana, infatti vi sono migliaia di stimoli condizionati o simboli, che rappresentano rinforzi secondari. Un esempio usuale è quello fornito dal denaro che da stimolo indifferente per i bambini piccoli acquista carattere di rinforzo secondario per gli adulti, tramite atteggiamenti sociali e reali rinforzi primari (col denaro si possono acquistare le cose utili). Un altro esempio è costituito da rinforzi verbali di incoraggiamento per prestazioni.

I rinforzi negativi sono classificabili in primari (stimoli nocivi) e secondari (stimoli che, associati a quelli primari, fanno emettere particolari risposte alternative).

Generalizzazione e discriminazione/differenziazione

La generalizzazione riguarda stimoli (l’individuo che ha appreso a dare una risposta a uno stimolo, la emette anche davanti a stimoli simili o che ha appreso a considerare tali) e risposte (lo stimolo che è associato alla risposta ne provoca altre simili o assimilate

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

attraverso apprendimento). La generalizzazione può essere primaria o secondaria a seconda che sia relativa a risposte emesse in corrispondenza di stimoli analoghi con almeno una caratteristica simile o risposte emesse in corrispondenza di stimoli diversi. Complementare alla generalizzazione, è la discriminazione (un organismo apprende a rispondere diversamente a stimoli simili), importante poichè rende opportuna l’esecuzione di un operante in risposta ad uno stimolo discriminativo cioè reso specifico; la differenziazione è fondamentale per adattarsi a esigenze ambientali, poiché conferisce proprietà di decisione e adeguatezza a comportamenti.

Transfer di apprendimento

Abitudini e comportamenti precedentemente appresi possono influire sull’esecuzione dei compiti successivi. Le risposte apprese evolvono nel tempo, intergendo con altre: questo processo è detto transfer di apprendimento, che si verifica quando un comportamento influenza in modo positivo o negativo uno o più atti comportamentali che lo hanno preceduto o che lo seguono; il transfer può produrre effetti di facilitazione e effetti di inibizione o interferenza e può aver luogo in forma proattiva e retroattiva. Si possono avere, quindi, 4 processi di transfer: facilitazione proattiva, facilitazione retroattiva, inibizione proattiva, inibizione retroattiva.

Raffronto tra condizionamento classico e condizionamento operante

Nel condizionamento classico la RC è formata su base riflessologica dallo stimolo condizionato, in quello operante la risposta è più volontaria, anche se non lo è totalmente o necessariamente. Nel condizionamento classico lo stimolo incondizionato si verifica indipendentemente dal comportamento, in quello operante la ricompensa o punizione è subordinata al verificarsi della riisposta. Il condizionamento classico può realizzarsi senza ricompensa, essenziale per il condizionamento operante: il primo funziona in forza della legge di contiguità, il secondo in forza della legge dell’effetto. Il condizionamento classico implica risposte involontarie, controllate dal SNA, quello operante implica risposte del sistema muscolare e di quello scheletrico o processi mentali superiori, controllati dal SNC. Omologie per modalità di acquisizione della risposta, generalizzazione e discriminazione, estinzione e recupero.

Paradigma dell’apprendimento verbale

Fissazione e ripetizione

Per definizione il criterio di apprendimento era raggiunto quando ogni elemento della lista permetteva di evocare l’elemento successivo; a seconda degli obiettivi dell’esperimento era poi stabilito il numero di ripetizioni esatte della serie necessario per ritenere accertato l’apprendimento. Venne successivamente accertato come le ripetizioni successive all’apprendimento producano un sovrapprendimento.

L’effetto seriale

Sempre usando materiale costituito da serie di sillabe senza significato, lettere o parole isolate, sono stati messi in luce 2 fenomeni: 1) gli errori compiuti nell’anticipazione; 2) l’effetto di posizione seriale. Errori compiuti nell’anticipazione: data una serie di elementi durante la memorizzazione si formano fra di essi vari tipi di associazioni sia fra elementi contigui che non: le associazioni fra elementi non contigui possono essere anterograde (per elementi successivi) o retrograde (per elementi precedenti); tali associazioni possono esercitare funzioni facilitanti o inibenti; nei compiti sperimentali, in cui debbono essere richiamati elementi nell’ordine reale di presentazione, è evidente che associazioni fra elementi non contigui inibiscono le risposte corrette; il ruolo delle associazioni anterograde e retrograde nell’apprendimento e nella ritenzione è stato riconosciuto come assai rilevante: Ebbinghaus nel 1885 tentò di chiarire l’influenza che esse esercitano in un compito di apprendimento, usando il metodo delle serie derivate. Effetto di posizione seriale: ponendo in ascissa la posizione ordinale degli elemnti e in ordinata il numero complessivo di errori ed associazioni mancate, si ottiene la curva seriale che indica che gli elementi iniziali e finali sono memorizzati più facilmente di tutti gli altri e che l’elemento appreso con difficoltà maggiore è posto oltre la metà della lista; tale fenomeno, noto come “effetto seriale” o

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

“effetto di posizione seriale”, fu riscontrato per la prima volta da Ebbinghaus nel 1885 e successivamente confermato da numerosi altri ricercatori.

Influenza della lunghezza della serie e modalità dell’esercizio

I fattori che agiscono sul processo di apprendimento o meglio di fissazione di elementi disposti in serie sono: lunghezza della serie (influisce sulla difficoltà di apprendimento e stabilità del raccordo; quando il numero di elementi supera lo span di memoria immediata, aumenta il numero di esercizi necessari per giungere all’apprendimento del materiale; serie di sillabe lunghe sono meglio apprese di quelle corte; l’apprendimento di liste più lunghe richiede un tempo maggiore e presenta maggiori difficoltà, mentre il ricordo è più stabile rispetto alle liste corte); modalità dell’esercizio (può esser distribuito o massivo; con esercizio distribuito si indica un apprendimento realizzato con lunghe pause tra una presentazione e l’altra della serie oppure con tempi molto prolungati di presentazione degli elementi; con esercizio massivo si indica invece un apprendimento realizzato senza pause rilevanti tra una presentazione e l’altra della serie oppure con una presentazione rapida degli elementi; l’esercizio distribuito favorisce l’apprendimento e il ricordo).

Organizzazione del materiale appreso

Tra i fenomeni osservati v’è stata l’organizzazione del materiale appreso nei compiti di apprendimento verbale per materiale che obiettivamente si presta a qualche forma di organizzazione (come i brani di prosa) o che non si presta (come le sillabe prive di significato). Anche nell’apprendere il materiale omogeneo, una serie di lettere o numeri, non si può escludere un processo di organizzazione come può essere il “ritmo”. Witaseck ha tentato di dimostrare ciò, facendo apprendere a soggetti 2 serie monotone di sillabe: 1) AB CD EF 2) ab cd ef Dopo un intervallo temporale faceva riapprendere le sillabe in un nuovo contesto mediante l’aggiunta di una sillaba in testa ed una in coda alla prima serie, e di 2 sillabe in testa alla seconda 1) XABCDEFX 2) xxabcdef I soggetti riapprendevano più rapidamente la seconda serie poiché l’intromissione della coppia di sillabe non disturbava il ritmo binario con cui avevano appreso la serie e, pertanto, non dovevano procedere alla ristrutturazione del tutto come invece si presentava necessario per la prima serie. Che il processo di apprendimento sia dovuto non a semplice ripetizione ma anche all’attività organizzativa, è stato messo in evidenza dagli esperimenti intesi a dimostrare che la difficoltà dell’apprendimento seriale consiste non solo nella mancanza di significato del materiale, ma anche e soprattutto nell’omogeneità del materiale stesso.

Effetto Von Restorff

Von Restorff presentò, su singoli cartoncini e a ritmo di metronomo, sillabe senza senso fra le quali in seconda o terza posizione era inserito un numero. Dopo una presentazione completa veniva richiesto ai soggetti di riprodurre i membri della serie ricordati. Il numero che compariva isolato era ricordato da buona parte dei soggetti; delle sillabe presentate, i soggetti ricordavano in media solo il 25%. L’elemento isolato, singolare, è dunque ricordato meglio di quello ripetuto in modo monotono.

Paradigmi di apprendimento cognitivo

Sotto la denominazione di apprendimento cognitivo rientrano gli aspetti dell’apprendimento connessi alle dimensioni più complesse del comportamento.

L’impianto sperimentale, per questi tipi di apprendimento, è stato messo a punto inizialmente da Tolman che già negli anni trenta sosteneva che tutti gli organismi superiori formano delle mappe cognitive del mondo circostante per cui il comportamento sarebbe guidato anche da aspettative originate da esperienze già fatte, circa la struttura globale dell’ambiente.

Per apprendimento latente si intende un’associazione di stimoli, o di situazioni stimolanti, senza una ricompensa, ovvero una associazione indifferente almeno in apparenza. Il tratto distintivo di questo apprendimento è la mancanza di una ricompensa o di una riduzione della pulsione (almeno a livello dell’osservazione etologica). Inoltre ciò che viene appreso può non risultare chiaro e restare latente. Esso si sviluppa spesso in condizioni naturali nei comportamenti di esplorazione di un ambiente nuovo.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

L’apprendimento intuitivo è stato attribuito alle prestazioni di animali che, posti in una situazione dove la risposta ad uno stimolo-segnale si presenta difficoltosa, arrivano a formarla con rapidità, tale da togliere credibilità alle ipotesi dell’intervento di un normale processo di apprendimento per prove ed errori. Il primo psicologo, che notà la presenza di questi fenomeni, in cui hanno un grande peso le differenze interindividuali, fu W. Köhler (1917-1922), le cui osservazioni sul problem solving degli scimpanzè costituiscono tuttora un classico. Altri studiosi hanno studiato con metodi diversi l’apprendimento intuitivo nei ratti e sono arrivati a stabilire come i comportamenti che denotano la presenza di un insight siano preceduti da un certo periodo dedicato all’esplorazione dell’ambiente e degli oggetti in esso situati, il cui significato sembra dipendere dai processi di apprendimento latente che si realizzano in tale fase “preliminare”. In questa prospettiva sembrano anche integrabili le critiche mosse da Pavlov alle generalizzazioni di Köhler; il fisiologo russo, infatti, negava che si potesse parlare di insight senza controllare i condizionamenti subiti in precedenza dai soggetti osservati. Sembra plausibile asserire che le esperienze precedenti (in quanto “arricchiscono” l’animale per condizionamento classico o per apprendimento) influenzino la capacità di risposta a un compito nuovo, e che l’applicazione di una sequenza motoria adeguata al compito possa presentare il carattere dell’insight tipico dei processi mentali superiori.

Altri paradigmi di apprendimento

L’apprendimento seriale si riferisce a comportamenti seriali cioè a sequenze motorie complesse dotate di carattere direzionale. La realizzazione di un comportamento seriale presuppone l’acquisizione di un’abilità specifica attraverso una serie di prove a complessità diversa e in funzione di un rinforzo finale. Su tale acquisizione il rinforzo finale agisce in modo che l’animale migliora la prestazione man mano che si avvicina alla meta, aumentando l’intensità e la precisione delle risposte: le risposte sbagliate vengono eliminate, e sempre più rapidamente, con l’avvicinarsi della meta. L’apprendimento seriale, che è stato studiato particolarmente da C.L. Hull, sta a dimostrare che l’apprendimento è funzione oltre che della memorizzazione e della capacità di ritenzione del pattern motorio da parte dell’animale, anche della situazione sperimentale all’interno della quale possono essere riconosciuti punti di riferimento che migliorano il rendimento: la meta è senz’altro uno di questi, se non il più importante.

L’assuefazione è la forma più semplice di apprendimento: presuppone l’attenuazione di risposte preesistenti. Il termine assuefazione non si presta ad equivoci poiché viene riservato alla diminuzione persistente della capacità di risposta mediata dal Sistema Nervoso. La sua funzione è importante nello sviluppo del comportamento di giovani animali: consente di eliminare le risposte rivolte verso oggetti errati.

La sensibilizzazione è opposta all’assuefazione: determina un aumento nella forza di una risposta abituale. Per es. l’invio di uno shock elettrico inizialmente esalta le risposte di figa che poi si attenuano, se l’animale esperisce l’impossibilità di evitarle.

L’imprinting, forma di apprendimento complessa ricca di implicazioni teoriche e sperimentali, investe la struttura comportamentale con modificazioni cospicue. L’imprinting osservato da Spalding fu riscoperto da Lorenz, che lo ha descritto come apprendimento tipico degli uccelli a prole precoce, la cui madre è rappresentata da oggetti in movimento. Lorenz ha caratterizzato l’imprinting come limitato a fasi successive alla nascita e decisivo per la scelta del partner nella maturità. L’allevamento in gruppo contribuisce a ridurre la durata delle fasi e porta alla comparsa di forme di imprinting reciproco fra piccoli della nidiata. L’imprinting della figura materna e l’attaccamento sessuale sono fenomeni inscindibili, ma non è stato possibile accertare se siano identici. L’imprinting, una volta instaurato, pone fine alla fase e non presenta alcun rinforzo manifesto. Tutto ciò contribuisce a farlo ritenere un processo di apprendimento particolare legato alla maturazione comportamentale.

CAPITOLO 8 – LA MEMORIA

IntroduzioneOPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Il fattore che contraddistingue una reazione vitale da una esclusivamente meccanica è la presenza della memoria, che diventa dunque la struttura psichica che organizza l’aspetto temporale del comportamento, che determina i legami per cui un evento attuale dipende da uno accaduto in precedenza. Una modificazione che esercita questo tipo di influenza è chiamata traccia.

Lo studio sperimentale della memoria consiste, pertanto, nello studio di come le tracce si formano e si organizzano: è questa la prima fase, detta della fissazione o di apprendimento, nella quale l’individuo memorizza certe risposte suscitate dalle esigenze della situazione; questa fase è talora ridotta ad un breve atto percettivo, ma può anche caratterizzarsi mediante un’attività più o meno complessa che si sviluppa con delle ripetizioni successive, le quali tendono a far sì che il soggetto divenga padrone del compito. Esiste poi una fase di ritenzione, estesa in un periodo di tempo più o meno prolungato e durante il quale ciò che è stato memorizzato viene conservato in modo latente. Per tale motivo la ritenzione non può essere studiata direttamente, ma solo attraverso il suo effetto, che rappresenta la fase successiva e cioè la fase di ricordo o della rievocazione o della riattivazione o della attualizzazione delle risposte acquisite, che possono dare luogo a condotte mnemoniche osservabili. Si vede quindi cosa il soggetto ha ritenuto e come.

Come vedremo descrivendo i metodi sperimentali nello studio della memoria, si distinguono grosso modo 3 grandi categorie di condotte mnestiche: la prima categoria concerne le condotte del ricordo, che comprendono le condotte di riproduzione di risposte acquisite in una situazione precedente e le condotte di narrazione, che rendono conto di uno spettacolo o avvenimento vissuto dal soggetto in qualità di attore o testimone. Una seconda categoria di condotte mnestiche concerne le condotte di riconoscimento che implicano l’identificazione da parte del soggetto di una situazione alla quale, nel passato, egli ha dato una certa risposta, o più generalmente l’identificazione percettivo-mnestica di un oggetto precedentemente memorizzato, ma presente di fatto nel campo percettivo. La terza categoria comprende le condotte di riapprendimento che permettono di inferire l’esistenza di processi di ritenzione tramite l’economia dell’esercizio.

Modelli generali della memoria

Il modello associativo

Il modello associativo della memoria ha costituito la proposta più antica per spiegare come funziona la memoria umana; esso si caratterizza per il fatto di poter descrivere le relazioni associative fra le informazioni in memoria: tali relazioni, infatti, orientano anche il ricordo. Per associazione si intendeva la relazione tra 2 elementi empirici e ideativi, che si organizzano mediante contiguità, somiglianza e contrasto. Il primo studio sperimentale sulla memoria risale al 1880 ed ha per autore Ebbinghaus, il cui obiettivo era quello di vedere come opera la memoria, intesa come “capacità pura”, ovvero quando non è influenzata dalle conoscenze e dalle capacità di organizzare proprie al soggetto; a tal fine egli ricorse a 2 innovazioni tecniche: a) cominciò innanzitutto a far uso di metodi statistici; b) l’errore variabile qualitativo veniva eliminato privando il materiale da apprendere di significato. Questo metodo, noto come metodo dell’apprendimento, fu perfezionato da altri sperimentalisti, tra cui Cattel.

Ebbinghaus dimostrò che non si memorizzano i singoli termini, ma le sequenze ordinate di termini di una serie (quanto più è ridotta la distanza fra i termini maggiore è la forza dell’associazione). Questo fenomeno fu da lui definito contiguità temporale.

Ebbinghaus dimostrò che è più facile imparare una lista breve di termini che una lunga. La memoria umana non è come quella di una macchina calcolatrice, che immagazzina informazioni finchè c’è spazio. Tali fenomeni hanno dato luogo all’ipotesi che il meccanismo della memoria abbia 2 stadi: dapprima le informazioni sono immagazzinate nella memoria immediata e/o in quella a STM (a breve termine), dalla quale sono trasferite a un magazzino più permanente o LTM (a lungo termine).

Estes ha rielaborato il concetto di associazione avvicinandolo a quello di cluster o aggruppamento categoriale (organizzazione di items secondo la categoria di appartenenza). La memoria è come un reticolo associativo di unità verbali e relazioni.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Il modello della memoria associativa umana (HAM: human associative memory) di Anderson e Bower (1973) costituisce un ulteriore sviluppo dei principi associativi, considerati come qualcosa in più di un semplice legame: le loro reti associative sono definite “semantiche”. Il modello assume che ogni nodo di una frase può costituire un punto di partenza per il recupero mnestico. Il modello di Anderson e Bower privilegia l’unità rappresentata dalla frase. I soggetti infatti memorizzano la frase non tanto pezzo per pezzo, ma come configurazione complessiva.

Modello stimolo-risposta

Si è richiamato alle teorie comportamentiste, che si basano sulla connessione fra la stimolazione ambientale e la risposta comportamentale, ed ha portato a studiare la memoria attraverso le modalità dell’apprendimento di materiali verbali non linguisticamente organizzati (liste parole). Per la teoria stimolo-risposta è centrale l’evento, costituito dal rinforzo, in cui è possibile individuare anche una componenete motivazionale. In ambito comportamentista è stata usata particolarmente una tecnica, quella dell’apprendimento di coppie associate (ACA), costituite dallo stimolo, da una risposta, da un rinforzo, che viene dato solo alla risposta giusta per porvocare l’apprendimento.

La tecnica ACA è servita soprattutto per verificare se l’apprendimento sia del tipo “tutto o niente” o “incrementale. L’interpretazione “tutto o niente” consente l’elaborazione di modelli matematici semplici. L’interpretazione “incrementale” è in genere associata all’idea di una soglia, di un’intensità determinata necessaria affinchè vi sia ricordo.

Il modello di Underwood e Schultz costituisce una delle analisi più dettagliate di come impariamo una coppia di termini secondo i presupposti delle teorie stimolo-risposta. Lo stimolo e la risposta sono costituiti da sillabe senza senso formate da una consonante seguite da una vocale: quelle più difficili sono formate da 3 consonanti. Il lavoro sperimentale verte sull’analisi dell’importanza di 2 variabili già elaborate dagli associazionisti: la frequenza con cui un item verbale si presenta nel linguaggio che usiamo, e la prossimità temporale o recenza (recency). Quest’ultima è un meccanismo selettivo, per cui conoscendo gli stimoli più recenti dovrebbe essere possibile differenziarli e selezionarli da quelli presentati precedentemente.

Il modello “Human Information Processing” (HIP)

Il modello human information processing (HIP), ovvero dell’elaborazione umana dell’informazione, si propone di considerare come oggetto psicologico l’uomo che opera sull’informazione proveniente dal modo esterno codificandola e decodificandola. Dagli studiosi che seguono questo modello è comunemente accettata l’idea che si possano distinguere 2 tipi di memoria: la memoria a breve termine (STM) e la memoria a lungo termine (LTM). Il modello più conosciuto è quello proposto da Atkinson e Shiffrin (1968), che prevede 6 stadi di elaborazione per le informazioni.

Il modello costruttivistico

Caratteri generali

Mentre i modelli descritti precedentemente tendono ad isolare unità che il soggetto deve memorizzare e considerano separatamente i differenti processi psicologici, il costruttivismo pone l’accento sul ruolo determinate delle operazioni compiute dal soggetto. La memoria è considerata come un insieme di processi che selezionano, organizzano, rielavborano, trasformano le informazioni provenienti dall’esterno. La psicologia della “Gestalt” ha costituito uno dei capisaldi dell’orientamento costruttivistico: il ruolo fondamentale, in essa, è assegnato alla percezione; l’analisi delle leggi, con cui percepiamo, offre importanti indicazioni per comprendere come registriamo le informazioni in memeoria e come ricordiamo.

Secondo la teoria gestaltista i dati sono colti entro totalità organizzate dinamiche. Le totalità percettive non sono riducibili alla somma delle parti, ma costituiscono qualcosa di nuovo e possiedono caratteristiche peculiari. La scuola della Gestalt contribuì ad impostare il

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

problema della memoria in termini nuovi basandosi essenzialmente sul concetto di traccia: la dimensione temporale dell’esperienza viene trasformata nel campo del cervello in dimensioni spaziali e resa in tal modo interpretabile ad opera degli stessi principi che vengono applicati alla percezione.

Ciò portava a considerare la memoria un processo di elaborazione che coinvolge l’intera personalità. In quanto unità dinamica l’uomo è nello stato di costante cambiamento: la sua motivazione si trasforma continuamente e gli atti di evocazione e riconoscimento fanno parte di una situazione dinamica e mutevole.

La memoria funziona tramite processi di controllo, decisioni, strategie. Una strategia messa in rilievo con la rievocazione libera è l’organizzazione. Nell’organizzazione oggettiva, studiata da Bousfield, il materiale è organizzato in modo da rievocare items simili, ma non sempre il materiale è raggruppato allo stesso modo: nell’organizzazione soggettiva il materiale è organizzato in raggruppamenti specifici.

Bartlett e Piaget

Le persone secondo Bartlett non ricordano passivamente ciò che viene loro presentato, ma scelgono e interpretano a seconda di quelli che sono gli atteggiamenti e interessi durante l’evocazione; pertanto, il ricordo è una costruzione attiva, basato su schemi che si evolvono. Sulla base di tali schemi si ricorda l’esperienza passata, la cui evocazione comporta il costituirsi di un’immagine presente quale risultato della combinazione di dati alla luce di atteggiamenti e bisogni del presente. Anche la teoria piagetiana dei fenomeni cognitivi ruota attorno all’idea che esista un’interazione tra informazioni provenienti dall’esterno e conoscenze del soggetto: da tale presupposto deriva la nozione di schema che implica l’idea di una memoria “attiva” che costruisce, e che implica che gli schemi si modifichino di pari passo allo sviluppo cognitivo.

Neisser

Neisser distingue 2 stadi (registro preliminare e analisi per sintesi), i processi primari, rozzi e globali, e i processi secondari, che rappresentano processi di memoria e si distinguono per l’attività costruttiva nei confronti del materiale grezzo fornito dai processi primari. Per Neisser quindi la memoria è un processo che opera, riutilizza, trasforma e sintetizza tracce passate: l’ipotesi tradizionale della riapparizione (secondo la quale i ricordi esisterebbero già confezionati in memoria) ruota attorno all’idea che il ricordo esiste o non esiste e che se è presente deve rimanere in continuazione nella memoria compiedno occasionalmente delle riapparizioni. Poiché i soggetti difficilmente ripetono esperienze passate nello stesso modo, Neisser propone di sostituire l’ipotesi della riapparizione con l’ipotesi dell’utilizzazione, specificando con tale termine il processo di recupero delle tracce. Nell’elaborazione teorica di Neisser le strutture cognitive o schemi occupano un ruolo centrale poiché vengono prodotte nel momento stesso in cui il soggetto ricorda e non sono mai uguali a quelle costruite nel passato.

Selezione-astrazione

Nel modello di Atkinson e Shiffrin le informazioni in LTM sono permanenti e l’oblio è dovuto all’incapacità di conservare informazioni. L’informazione, prima di entrare nella LTM, deve compiere infatti un lungo tragitto. Wicklgren parla di una memoria intermedia fra STM e LTM: per Wickelgren occorre pensare alla memoria come ad una funzione selettiva che opera scartando gli eventi meno importanti.

La teoria linguistica di Chomsky ha portato a ricerche sul ricordo di frasi e sulla distinzione fra struttura superficiale e profonda: frasi diverse, ma che hanno la stessa struttura profonda, sarebbero per la memoria equivalenti, per cui non si ricorderebbe tutto, ma si metterebbe in atto un meccanismo di selezione, che si basa, inoltre, sull’importanza che il soggetto attribuisce ad essi. Al momento della registrazione in memoria a lungo termine hanno luogo anche operazioni di astrazione, attraverso un meccanismo di decisione che valuta l’importanza delle caratteristiche del materiale. Si selezionerebbero quindi le idee principali, astraendone le nozioni essenziali.

Il modello pluricomponentiOPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Peculiare dell’approccio pluricomponenziale è l’attenzione prestata al fatto che la memoria non conserva un item in una sola maniera, ma lo conserva sotto forma di diversi componenti. Le teorie di Estes e Bower hanno costituito un punto di riferimento. Per Bower gli elementi attribuibili allo stimolo sono organizzati gerarchicamente; ad esempio, nella rappresentazione di un item verbale le componenti semantiche sarebbero gerarchicamente superiori rispetto alle componenti fonetiche.

Underwood ha osservato che i soggetti ricordano attributi o aspetti diversi di un songolo stimolo. A qualsiasi ricordo possono corrispondere un componente temporale, un componente spaziale, di frequenza, modalità, ecc. questi componenti sarebbero utili nei compiti dove il soggetto deve discriminare. La ricchezza degli attributi associati ad un item costituirebbe la condizione per un buon ricordo. Underwood riprende una fondamentale distinzione fra sistema di memoria verbale e non (o per immagini), la quale ha ricevuto un contributo importante da Paivio.

Paivio e coll. hanno ripetutamente dimostrato come gli items ad alto valore d’immagine siano più facilmente ricordati e gli items ad alta significanza non sempre siano avvantaggiati nel ricordo rispetto ad items a bassa significanza con uguale valore di immagine. Il valore d’immagine è un’indice calcolato chiedendo ad un campione di soggetti di valutare in che misura un item è in grado di evocare un’immagine e calcolando la media delle valutazioni date dai soggetti per ogni parola.

Le parole concrete hanno un valore d’immagine alto, mentre quelle atratte un basso valore, per cui spesso si parla di una dimensione concretezza-valore d’immagine. Questa dimensione appare connessa alla significanza.

Secondo molti studiosi, si deve infatti supporre l’esistenza di 2 sistemi di codifica: sistema verbale e sistema per immagini, mediante uno o entrambi i quali verrebbe elaborato qualsiasi stimolo. Se lo stimolo è la figura di un oggetto, può darsi che il soggetto lo elabori verbalmente (ad esempio, memorizzandolo sulla base della sua dimensione verbale), ma è quasi certo che egli lo codifica sulla base delle sue proprietà figurali attraverso il sistema per immagini. Per i nomi ad alto e basso valore di immagine, pari è la probabilità che vengano fissati verbalmente; i nomi ad alto valore di immagine hanno probabilità maggiori di venire codificati dal sistema per immagini; quindi, i nomi ad alto valore di immagine sono avvantaggiati nel ricordo per la possibilità di una loro codifica.

Tipi di prestazione mnestica: richiamo, riconoscimento, ricostruzione

È di esperienza comune l’insuccesso nella rievocazione di qualche materiale appreso a memoria poi recuperato in parte o integralmente in modo spontaneo (richiamo) o attraverso ripetizioni (riapprendimento).

Il problema dell’utilizzazione delle tracce effettivamente presenti in memoria non può andare disgiunto né sostanzialmente né sul piano della metodologia sperimentale da quelli relativi alle fasi della fissazione e della ritenzione. Si può anzitutto precisare che diverso è il rendimento mnestico a seconda del metodo usato per saggiare il grado di ritenzione. Diverse infatti sono le curve di ritenzione a seconda dei sistemi di rievocazione: l’anticipazione (o richiamo), la ricostruzione, il riconoscimento.

La forma delle curve, inoltre, risulta diversa a seconda delle modalità di apprendimento del materiale e delle caratteristiche del materiale da apprendere. In ogni caso, sembra evidente che il riconoscimento è il metodo che dà il massimo di indizi sulla ritenzione anche se, per es., è tutt’altro che accettabile come prova positiva nella deposizione testimoniale.

Il fatto che il riconoscimento dia un maggiore rendimento del richiamo o evocazione è facilmente comprensibile se si pone mente alla sostanziale differenza che intercorre fra i 2 processi. Nel riconoscimento infatti avviene una specie di confornto fra un processo attuale ed una traccia dovuta ad un evento precedente; invece, nel richiamo si deve giugere alla rievocazione sulla base di una speciale tensione interna che cerca di richiamare sul piano della coscienza una traccia.

Un altro metodo è quello della ricostruzione nel quale il recupero di tracce mnestiche è facilitato dalla presentazione di qualche elemento del materiale che ha inizialmente

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

provocato la traccia. Si può ricostruire una figura vista, ad esempio, partendo da qualche linea, ricordare un vocabolo grazie al suggerimento delle prime lettere; non è tuttavia automatico che alla comparsa di una parte segua il richiamo del tutto.

Lewin, dopo aver fatto apprendere ai soggetti una serie di coppie di parole, presentava un membro delle varie coppie, invitandoli a formulare la prima parola che venisse loro in mente. I risultati mostrarono uno scarso richiamo delle parole apprese.

Il processo di ricostruzione si ricollega a quello del riconoscimento: sotto un certo aspetto, entrambi sottendono un collegamento fra un evento percettivo attuale ed una traccia dovuta ad un evento pregresso.

Elaborazione delle informazioni in memoria

Struttura della memoria

L’indirizzo Human Information Processing qualifica l’essere umano come un soggetto che opera sull’informazione che proviene dal mondo esterno, decodificandola, elaborandola, codificandola. Come schema-base della progressiva elaborazione da parte dell’uomo dell’informazione in arrivo, può essere impiegato quello proposto da Norman e Bobrow, cui possono essere ricondotti i moltissimi modelli e micromodelli. I componenti del modello sono i seguenti: 1. uno stimolo esterno al soggetto; 2. una trasduzione sensoriale; 3. un magazzino dell’informazione sensoriale o registro sensoriale (lo stimolo rappresentato con le sue caratteristiche sensoriali è conservato per un tempo brevissimo; si può parlare di memoria immediata o sensoriale che conserva l’informazione in submagazzini distinti, definiti come memoria ecoica, che conserva l’informazione sensoriale acustica, e memoria iconica, che conserva l’informazione sensoriale visiva); 4. un riconoscimento percettivo (questo evento psicologicamente di grande importanza permette di attribuire un significato allo stimolo registrato; attraverso un confronto con le informazioni che il soggetto possiede, lo stimolo viene segmentato, cioè analizzato nei suoi componenti discreti di ordine morfonologico e lessicale); 5. una memoria a breve termine (l’informazione viene conservata per un breve periodo di tempo in un magazzino a breve termine, che ha capacità limitata di immagazzinamento di unità linguistiche; nella STM possono avere luogo vari processi di controllo, che permettono di conservarvi più a lungo l’informazione); 6. una memoria a lungo termine (l’informazione, che è stata elaborata a STM, può essere conservata per tempi lunghi e in quantità illimitata; le caratteristiche dell’informazione conservata in questo magazzino sono più di tipo semantico che fonologico-sensoriale).

Altrettanto importanti sono le fasi di uscita dell’informazione, che sono decisive per l’elaborazione ulteriore dell’informazione o per il decadimento dalla memoria. Particolare importanza ha, in tal senso, il meccanismo di reiterazione che permette di mantenere nella STM più a lungo un numero limitato di informazioni. La nozione di “processi di controllo” è importante perché precisa l’idea che il sistema umano di elaborazione delle informazioni può fornire una prestazione attraverso processi differenti; la prospettazione di una specifica serie di processi da impiegare per ottenere tale prestazione costituisce la scelta di una strategia: il sistema-uomo può essere caratterizzato per la sua capacità di selezionarne una fra le altre e di pianificarla.

Il registro sensoriale

L’ipotesi che esistano dei registri (magazzini) dell’informazione, quando questa conserva le sue caratteristiche eminentemente sensoriali o, meglio, percettive, è stata formulata da Sperling (1960), che stava cercando di spiegare perché solo una quantità finita e limitata di items memorizzati in precedenza possa essere rievocata. Questa quantità stimata da G.A. Miller (1956) in 7 ± 2 unità discrete e definita abitualmente span di memoria immediata, è una parte del materiale presentato. Sperling ipotizzò che ciò che viene percepito sia conservato per un tempo brevissimo, al termine del quale, se il materiale non è stato riconosciuto in unità più ampie dotate di qualche significato per il soggetto o non è stato ricodificato con una ripetizione o con un’attenzione un po’ più prolungata, viene irrimedibilmente perduto.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Si era visto, nelle prove condotte negli anni precedenti che il soggetto per trattenere una parte dell’informazione a breve termine deve verbalizzarla o trascriverla in modo rapido, prima che essa decada: ciò indicherebbe, oltre alla velocità notevole con cui hanno luogo processi di decadimento dalla memoria pre-attentiva, o span di memoria immediata, una capacità di contenimento superiore a quelle evidenziata nelle prove di richiamo immediato, in quanto le attività di denominazione o trascrizione richiedono tempo e quindi possono essere più lente di quanto sarebbe necessario per evocare tutta l’informazione percettivamente registrata prima del suo decadimento. Lo span di memoria immediata potrebbe essere il massimo di informazione recuperabile dai registri sensoriali prima che si completi il processo di decadimento, prevedibibilmente molto rapido.

L’informazione, prima di essere comunicata attraverso le parole o la scrittura, viene tradotta o, meglio, trasdotta in suoni e mantenuta grazie al rehearsal in una memoria uditiva. Il rehearsal ha una velocità troppo lenta per poter eseguire una lettura rapida delle lettere nella memoria sensoriale. Bisogna quindi che venga introdotta una memoria intermedia, la memoria tampone, per raccogliere velocemente le informazioni sensoriali prima che decadano e per mantenerle “a disposizione” del rehearsal, fino a quando quest’ultimo meccanismo non ha compiuto il lavoro.

Dai primi esperimenti, inoltre, apparve che nel registro sensoriale visivo (o memoria iconica) è conservato materiale visivo con molti elementi specifici. Oltre ad una memoria iconica esiste anche un altro registro con le stesse caratteristiche, che permette di conservare per brevissimo tempo i suoni (memoria ecoica).

La memoria a breve termine

Le ricerche di Brown e di Peterson e Peterson avevano l’obiettivo di misurare la quantità di ricordo quando al soggetto fosse impedito il rehearsal. Brown si convinse dell’esistenza di un magazzino a breve termine che (a differenza di quello a lungo termine di capacità enorme dove le informazioni vanno perse a causa di fenomeni di interferenza) ha una capacità molto limitata dovuta principalmente al fatto che le tracce hanno una velocità di decadimento rapida. Il decadimento è il processo responsabile dell’oblio: Underwood e Keppel riuscirono a dimostrare che, nelle prove a STM, ci sono fenomeni di interferenza analoghi a quelli che provocano l’oblio in prove a LTM.

Lo studio dell’attenzione selettiva fu iniziato da Cherry, che cercò di capire come avviene che fra più stimoli il soggetto ne selezioni alcuni e lasci decadere altri. Il modello di Broadbent collocava l’attenzione prima del riconoscimento percettivo, ma dati successivi consigliano di trattare insieme attenzione e riconoscimento. Il riconoscimento percettivo consiste nel riconoscere una corrispondenza fra stimolo e conoscenze durante la percezione e presuppone un’interazione fra le informazioni contenute nello stimolo attuale e quelle già possedute contenute nella LTM: il riconoscimento percettivo è quindi frutto di un’interazione fra le conoscenze generali e le informazioni contenute nell’input.

La fortuna del modello di Atkinson e Shiffrin è in buona parte dovuta al fatto di fondarsi sulla distinzione fra processi strutturali (uno dei quali è il magazzino della STM), che forniscono la base della memorizzazione, e processi di controllo, che dipendono invece dalle caratteristiche del soggetto. Sono questi ultimi, sotto il controllo volontario del soggetto, a spiegare le fasi di transizione da una struttura all’altra. Il più potente meccanismo per il passaggio dalla STM alla LTM è il rehearsal: poiché la STM ha una capacità ridotta, ogni nuovo elemento che vi viene immesso oltre il limite della capacità, fissata dal memory span, tenderebbe a decadere e ad essere definitivamente dimenticato, se non fosse sottoposto a rehearsal (ovviamente il soggetto può decidere se sottoporre a rehearsal certe caratteristiche sensoriali dell’elemento o il suo significato).

Le operazioni di rehearsal sono poi di 2 tipi: una meccanica di mantenimento, l’altra di elaborazione, di analisi dell’elemento, per metterlo in relazione con altre informazioni già immagazzinate a LTM. I meccanismi di controllo in genere comprendono una gamma vasta di strategie, che presiedono alla formazione di schemi, al controllo dei sistemi di codifica e ai trucchi mnemonici.

La memoria a lungo termineOPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

I processi organizzativi nell’apprendimento e nella memoria, rivelatisi di maggiore interesse per la comprensione delle modalità di immagazzinamento e di ritenzione delle informazioni nella LTM, sono quelli di codificazione, mediazione, raggruppamento, organizzazione soggettiva.

Codificazione in memoria

Gli stimoli (o gli items) presentati ai soggetti vengono modificati o anche sensibilmente distorti, nel momento in cui vengono appresi e debbono essere riprodotti. I dati delle ricerche successive sono stati sintetizzati da Underwood in un modello della codificazione, che ha come presupposto la registrazione che il soggetto effettua di ogni fenomeno cui assiste. Tale registrazione interna è caratterizzata dalla compresenza di attributi vari utili per la riproduzione del materiale presentato: vi sono attributi dipendenti dal compito di apprendimento e attributi non dipendenti dal compito.

Mediazione

Un fattore di rinforzo per il richiamo di 2 items o eventi A e B è dato dalla loro contiguità nel tempo. Il processo di mediazione opera attraverso il presupposto della contiguità temporale fra 2 o + items sia direttamente (con un’associazione immediata) sia indirettamente (attraverso varie associazioni). Bugelski ha individuato 5 tipi di elementi che vengono utilizzati dai soggetti per ottenere una mediazione fra 2 o + items non contigui temporalmente.

Raggruppamento o effetto Bousfield

L’efficacia di tale processo di organizzazione per le informazioni in memoria è apprezzabile in compiti di richiamo, dove i soggetti tendono a riprodurre gli items in funzione non tanto dell’ordine iniziale di presentazione quanto del grado di somiglianza.

Organizzazione soggettiva

Secondo Tulving (1962), non esiste materiale che non venga in qualche modo organizzato dal soggetto, magari con categorie e procedure diverse da quelle individuate (e talora proposte esplicitamente) dal ricercatore. Tulving ha evidenziato l’esistenza di un’organizzazione soggettiva, intesa come tendenza del soggetto a ripetere in rievocazioni successive gli items nello stesso ordine, indipendente da quello di presentazione, con la tecnica delle presentazioni successive di sequenze di parole. I processi di organizzazione assicurano una conservazione molto prolungata alle informazioni immagazzinate nella memoria a lungo termine.

Elaborazione materiali verbali

Il primo livello è della percezione linguistica, il secondo quello dell’elaborazione sintattica e lessicale dove si cerca di ricostruire la struttura della frase e individuare il significato delle parole, il terzo dell’interpretazione semantica della frase per ricostruire il significato di tutta la frase. Il punto di partenza può essere l’assunzione del comportamento linguistico guidato dalla grammatica, cioè da un insieme di regole che permetta di disporre i vocaboli in una successione corretta. I primi studi di Miller e coll. del 1963 hanno mostrato che effettivamente la comprensione e la ritenzione in memoria sono influenzate dalla complessità grammaticale della frase.

Vi sono vari livelli di attività per la comprensione di sequenze verbali, essendo la comprensione definita come processo attraverso cui una sequenza di suoni è trasformata in rappresentazione di significato: il primo è la registrazione nella memoria immediata delle sequenze di suoni; nel secondo si individuano i costituenti, tramite operazioni di segmentazione che permettono di isolare una parola e tramite operazioni di riconoscimento del ruolo grammaticale, in funzione di affissi e suffissi. Per Anderson e Bower che hanno elaborato un modello di memoria associativa, il processo di comprensione si conclude con una rappresentazione proposizionale della frase, dove una parte riguarda il contesto ed una parte riguarda il fatto, senza che i significati dei termini vengano connessi con nuovi tracciati alla memoria semantica. Un’altra direzione per lo studio della comprensione è indicata nei modelli multicomponenti la cui formulazione più completa prevede che un

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

concetto sia rappresentato in memoria come serie di informazioni che ineriscono alle categorie cui appartiene il concetto.

La comprensione del significato delle frasi è un processo che non si esaurisce nel momento in cui ne è ricavata una rappresentazione astratta, ma si continua ad espandere in operazioni complesse che mettono in relazione il contenuto letterale della frase con il contesto (linguistici ed extra-linguistico) e con le conoscenze del soggetto. La nozione di schema come guida non solo per le operazioni di rievocazione ma anche per quelle di comprensione ha acquistato una rilevanza notevole negli ultimi studi sull’elaborazione in memoria delle informazioni contenute in testi di lunghezza superiore alla frase: con una definizione generica e approssimativa, per schema si intende una struttura che mette in relazione alcune nozioni fondamentali. Gli schemi aiutano sia l’archiviazione delle informazioni interpretate-integrate nella fase di comprensione, sia il richiamo, attraverso la ricomposizione delle parti mancanti dell’informazione residua in memoria.

L’interferenza

I fattori che contrastano la ritenzione e quindi favoriscono l’oblio sono vari. La teoria classica, detta dell’interferenza, postulava che le cause delle trasformazioni e, soprattutto, dell’oblio risiedano essenzialmente nelle interferenze che scaturiscono dal materiale da apprendere oppure da attività realizzate prima o dopo la fissazione delle risposte di cui si studia l’evoluzione temporale.

Sono state evidenziate 2 ulteriori caratteristiche dell’inibizione retroattiva:

1) l’inibizione è tanto più forte (cioè è più probabile che si dimentichi il compito appreso nella prima frase) quanto è maggiore il grado dell’apprendimento interpolato (Melton e Irvin);

2) l’inibizione è tanto più forte quanto più è numeroso il materiale interpolato (Underwood, 1945).

Le relazioni fra le inibizioni retroattive e proattive e l’oblio possono essere così sintetizzate. L’inibizione retroattiva è considerata da parecchi studiosi come il più importante fattore dell’oblio. Quale potrebbe essere la ritenzione se non si producessero interferenze per le attività interpolate fra il momento della fissazione del materiale e quello del suo richiamo, è stato studiato in alcune condizioni che, se non impediscono le attività interpolate, le riducono abitualmente in modo sensibile.

La ritenzione è migliore nel sonno, quando il livello di attività generale è più basso che nella veglia. In particolare:

1. durante la prima ora di sonno si dimentica nella stessa misura come durante la prima ora di veglia;

2. dopo la prima ora di sonno non si ha più nessun decremento nella ritenzione, mentre durante la veglia questo continua;

3. dopo 8 ore di sonno la percentuale media di ritenzione è del 41%, dopo 8 ore di attività è del 24%.

Altrettanto importante è stato il quesito se solo le esperienze, che avvengono dopo la fissazione del materiale, interferiscono con esso o se anche le esperienze antecedenti la fissazione possono influire sul processo mnestico e produrre oblio.

È stato dimostrato che esperienze antecedenti producono una inibizione o interferenza proattiva. Lo psicologo che ha studiato in modo più sistematico la natura e l’intensità di tale effetto è B.J. Underwood. Egli si accorse che il tasso di ritenzione variava moltissimo da esperimento ad esperimento.

Le ricerche classiche sulla ritenzione e l’oblio

Ricerche sull’oblio

Ebbinghaus fece notare che il rendimento di un soggetto nei diversi momenti della giornata può variare a seconda del suo stato di freschezza o stanchezza e fissò le leggi dell’oblio: 1. il ricordo si detriora col tempo; 2. il corso dell’oblio è assai rapido nei primi stadi; 3. la curva dell’oblio si può esprimere con una formula matematica (curva logaritmica); 4. l’oblio diviene meno rapido se si aumenta il numero delle ripetizioni.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Effetto delle modalità di apprendimento

Katona ha cercato, già alla fine degli anni ’30, di chiarire l’influenza delle modalità di apprendimento sull’oblio, pervenendo essenzialmente a 2 conclusioni: a) se i soggetti memorizzano i compiti, i risultati si accordano con gli aspetti principali della curva di Ebbinghaus, risultando le prime riproduzioni dei soggetti migliori; b) se l’apprendimento avviene con metodo comprensivo, la riproduzione, fatta parecchie settimane dopo il training, risulta buona quanto quella fatta immediatamente dopo il training. Non si ha, quindi, un declino rapido della curva negli stadi iniziali.

Evoluzione delle tracce

Anche l’oblio non è che un caso particolare, il caso estremo, di trasformazione della traccia. Ciò non significa che una traccia non possa scomparire. Anche se non possiamo avere una prova certa di ciò, è plausibile che le tracce meno organizzate, meno articolate, caotiche, si disgreghino rapidamente.

Wulf documentò l’esistenza di trasformazioni progressive che comportano l’accentuazione di certe qualità e l’assimilazione o eguagliamento delle proprietà delle parti; quest’ultimo fenomeno fu denominato livellamento, ossia attenuazione delle differenze esistenti fra le parti costituenti il tutto. Le modificazioni osservate sarebbero quindi di origine autonoma; il riferimento alla legge della pregnanza è esplicito, ma non è presente come essenziale. Sorge ha dimostrato che le riproduzioni delle configurazioni riflettono una tendenza alla pregnanza, cioè alla ricostruzione di un ordine figurale e di un orientamento spaziale migliore.

Tale tendenza sarebbe, pertanto, la causa d’oblio della figura originale, dato che la traccia mnestica relativa ad una figura non pregnante tende ad assestarsi verso caratteri di maggior bontà formale sotto l’azione di 3 principi: di chiusura, di buona forma, di simmetria.

Le conclusioni teoriche sono le seguenti: 1) quando le forme apprese sono perfettamente equilibrate, il sistema corrispondente di tracce sarà stabile e garantirà una fedeltà nella ritenzione; 2) quando la forma appresa non si presenta in condizioni di “bontà” strutturale, la corrispondente traccia mnestica libera dai limiti coercitivi della stimolazione percettiva evolverà per froza autonoma verso modelli più regolari, semplici e simmetrici (ovvero più organizzati); 3) considerando che nel campo mnestico sono presenti sistemi di tracce precedentemente organizzatesi e continuamente stimolati dal flusso della nuova attività percettiva, esiste la possibilitàche la traccia mnestica più recente tenda ad assimilarsi ai precedenti sistemi organizzati in tracce. Tale processo che determina l’assimilazione delle tracce più stabili e più familiari, chiama in causa il ruolo che l’esperienza, anteriormente acquisita, può avere nel rendimento mnestico.

Esperienza passata, familiarità, significato ed atteggiamenti nelle trasformazioni mnestiche

Vari studi sperimentali classici sul rapporto fra la frequenza d’uso delle parole e il loro richiamo hanno messo in evidenza che il numero di stimoli verbali appresi e successivamente richiamati varia con la frequenza d’uso nella lingua scritta e parlata. Una tendenza così chiaramente lineare non si riscontra, tuttavia, per materiali complessi, quali le storie o i resoconti dettagliati di eventi, la cui memorizzazione e il cui richiamo sono influenzati dalla presenza di un significato e dalla possibilità di dare significati ulteriori in funzione delle preferenze o esperienze personali.

F.C. Bartlett, che nel 1932 ha pubblicato uno dei lavori più complessi sul ricordo e sulle trasformazioni mnestiche, fu il primo a criticare i comuni esperimenti sulla memoria fatti con materiale senza senso (gruppi di lettere, cifre, ecc.), sostenendo che essi mancano di realismo (cioè della cosiddetta validità ecologica) nei confronti dei ricordi della vita di tutti i giorni. Egli propose di rendere gli esperimenti più realistici con l’uso di materiale che avesse qualche interesse intrinseco per il soggetto (figure, fotografie, storie). In vari esperimenti di richiamo di storie bizzarre, Bartlett riscontrò nelle riproduzioni una tendenza da parte dei soggetti a rendere la storia più coerente, più significativa e accettabile per il soggetto. Per quanto modificato, il resoconto fornito dai soggetti tende a rimanere nelle successive

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

riproduzioni una storia unitaria. Quest’ultima inizialmente non soddisfacente per il soggetto sarebbe, quindi, inconsciamente razionalizzata, sia nella forma (con un collegamento migliore degli eventi descritti nella storia), che nei particolari (con la connessione dei singoli dettagli ad inferenze).

Tono affettivo e rievocazione mnestica

Koffka e Köhler formularono l’ipotesi che la struttura dell’Ego fosse uhn elemento importante per la qualità della rievocazione mnestica, poiché questo processo verrebbbe facilitato od ostacolato in dipendenza dal collegamento delle tracce mnestiche con un particolare strato dell’Ego. Gli eventi ansiogeni, secondo la teoria psicoanalitica, sono rimossi dal piano cosciente, pur restando operanti, e possono riaffiorare alla memoria solo in particolari condizioni. Il blocco inconscio del richiamo mnestico di esperienze ed eventi che hanno il potere immediato o remoto di cuasare ansietà è un fatto evidente all’osservazione clinica; esso sarebbe dovuto, secondo la teoria psicoanalitica, ad un meccanismo di difesa in parte conscio ed in parte inconscio.

Per Edwards erano state trascurate le “strutture di riferimento”: solo ciò che è congruente alla struttura di riferimento individuale ha le maggiori probabilità di essere ricordato; quindi uno studio che comprenda la conoscenza delle strutture di riferimento dovrebbe consentire previsioni. La capacità di rievocazione è influenzata dalle emozioni che lo stimolo suscita: l’effetto Zeigarnik, cioè la maggior capacità di ricordare compiti interrotti rispetto a quelli completati, si può interpretare nello stesso modo.

Una connessione stretta di carattere generale fra capacità mnestica ed tono affettivo è stata dimostrata da studi recenti condotti da Bowen. Partendo dall’osservazione, di antica data, che le amnesie di eventi ad alto contenuto emotivo sono risolte sotto una trance ipnotica che riporta nello stato di attivazione emotiva analogo a quello dell’evento “dimenticato” nella veglia, Bowen verificò un effetto di dipendenza della memoria dal contesto emotivo. Servendosi della fantasia dei soggetti, veniva indotta una trance ipnotica a coloritura gioiosa o triste. Raggiunto lo stato d’animo desiderato, venivano sottoposti ad una prova di apprendimento di una lista di parole, venivano riportati ad uno stato di rilassamento e fatti uscire dalla trance. La rievocazione veniva effettuata a distanza variabile di tempo, sempre sotto ipnosi, sia in uno stato emotivo affine che divergente rispetto a quello esperito nella fase di apprendimento. Si è visto che la rievocazione in uno stato d’animo triste di una lista di parole appresa nello stesso stato d’animo arriva all’80% del materiale, mentre si arresta al 45% se il materiale era stato appreso in uno stato d’animo felice. Da ciò si deduce che la facilitazione mnestica esiste nel caso di concordanza fra lo stato d’animo nella fase di rievocazione ed in quella di apprendimento indipendentemente dalla qualità dell’emozione, mentre esiste una inibizione mnestica in caso di discordanza.

CAPITOLO 9 – IL PENSIERO

Introduzione

Lo studio del pensiero è stato un dominio della logica di tipo tradizionale aristotelico-scolastico che fin da principio gli ha imposto i termini dei suoi problemi. Il pensiero si qualifica come l’operazione che stabilisce un rapporto fra concetti di cui la logica determina le regole affinchè risulti corretto. In questa concezione si suppone semplicisticamente che si percepiscano dei dati e non i rapporti; questi sarebbero scorti dal pensiero che vi lavorerebbe sopra.

Da questa impostazione deriva il corollario che tale operazione è funzione umana, mentre il pensiero animale e a volte il pensiero umano negli stati di tensione minima consisterebbe in un “non-pensiero”, cioè in una giustapposizione di puri contenuti, immagini o percezioni senza alcuna strutturazione di rapporti. È chiaro che lo studio psicologico del pensiero non può accettare questo punto di vista. Ma l’obiettivo dell’opera dello psicologo deve essere anche l’analisi fenomenologica dei processi di pensiero intesa come raccolta delle forme di pensiero in tutte le sue possibili varietà.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

La raccolta di questi dati è pur tuttavia abbastanza avanzata da consentirne un’esposizione ordinata anche se provvisoria. Innanzitutto va notato che col termine “pensiero” lo psicologo indica una realtà più vasta e comprende processi mentali che non potrebbero essere tutti definiti come processi logici, razionali o ancor meno creativi, pur essendo anch’essi prodotti dall’attività psichica dell’uomo inteso come essere pensante. Vi sono infatti altre forme di pensiero nelle quli sono inesistenti o imperfetti alcuni strumenti logici che a volte non si sono ancora sviluppati o si sono sviluppati in altri contesti socio-culturali o perché non vengono adoperati.

Un altro fattore può condizionare e orientare il pensiero secondo una struttura che si diversifica dal modello logico, razionale, e cioè l’affacciarsi di una componente profonda, arazionale, emotiva che si sovrappone alle normali facoltà logiche del pensiero, le soverchia e le annulla, condizionando così una diversa espressione del pensiero stesso: questa componente profonda condiziona e struttura il pensiero pervenuto, il pensiero neurotico e quello psicotico sia pure con diverse modalità e intensità. Prima di entrare nella trattazione dei vari tipi di pensiero, pare utile riportare i metodi delle ricerche sperimentali intorno al problema della formazione dei concetti. La capacità di apprendere concetti è alla base della costruzione dell’attività di pensiero.

Formazione dei concetti

La realtà ambientale è costituita da una quantità estremamente ricca e mutevole di oggetti ed eventi percettivi. Se l’uomo utilizzasse abitualmente tutta la sua capacità di registrare differenze e rispondesse a ciascun oggetto od evento come unico, sarebbe schiacciato dalla complessità dell’ambiente. Ma l’uomo supera questa difficoltà con un’attività di categorizzazione: esemplifica l’universo dell’esperienza, considerando equivalenti molte varianti della realtà ambientale, e rispondendo ad esse non in quanto uniche, ma in quanto appartenenti ad una stessa classe.

Questa riduzione del molteplice all’unità attraverso l’assimilazione delle varianti fenomeniche ad una categoria, o chema empirico, è essenziale ai fini dell’addestramento all’ambiente, in quanto realizza un’economia nell’attività mentale secondo i principi del minimo sforzo. Dal livello di categorizzazione percettiva si passa per gradi a quello di categorizzazione concettuale. Le equivalenze che è possibile riscontrare fra oggetti od eventi sono fondamentalmente di 4 ordini: formali o figurali, funzionali, affettive, relazionali; ciascun ordine di equivalenza ammette poi un numero indefinito di specificazioni.

In altre parole la contemporanea appartenenza di un oggetto a diverse categorie funzionali è il risultato problematico di una scoperta e non un dato immediato dell’esperienza: la capacità di raggruppare in una stessa categoria funzionale oggetti apparentemente senza relazioni rappresenta spesso un atto inventivo. Chiamiamo concetto il risultato dell’attività di categorizzazione, e lo definiamo: “una classe di eventi aventi qualità comuni e distintive”. Nella formazione dei concetti generalmente vengono indicati 2 diversi processi psichici: l’astrazione e la generalizzazione.

L’astrazione è il processo per cui il comportamento (l’esperienza) è detrminato non dalla situazione completa, ma da un (qualche) particolare con esclusione di altri; la genralizzazione è l’attività per cui il comportamento è costante di fronte ad un particolare che compare in situazioni diverse. Questa distinzione presenta non poche difficoltà: non c’è generalizzazione senza astrazione. Ci può essere astrazione senza generalizzazione, ma allora non c’è categorizzazione.

Heidbreder pensa che la percezione della realtà ambientale sia caratterizzata da un ordinamento gerarchico delle ipotesi percettive e cognitive: la percezione degli oggetti concreti rappresenterebbe la base della reazione cognitiva dominante. Le pure forme spaziali ed i concetti numerici, discostandosi dagli oggetti aventi carattere di realtà fatta di cose, vengono individuati con maggiore difficoltà. In altre parole, di fronte a 2 cubi rossi, la reazione cognitiva dominante è quella di cogliere sincreticamente la realtà oggettuale e solo in un secondo momento di astrarre dalla situazione percettiva attributi quali la rettilinearità dei mergini ed il valore numerico.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Gli studi che si basano sul processo di formazione e verifica di ipotesi partono dall’assunto generale che un soggetto può fornire una risposta adeguata alla situazione solo se formula mentalmente delle ipotesi che mette alla prova finchè non trova quella corretta, cioè quella che gli permette di fornire risposte adeguate. Per strategia s’intende una successione organizzata di risposte, guidata da ipotesi, nel tentativo di arrivare alla soluzione di un problema.

Le ricerche più note sull’argomento sono quelle condotte da Bruner e collaboratori. Nella maggior parte dei loro esperimenti si utilizza il compito di identificare gli attributi rilevanti di un concetto congiuntivo (cioè concetti formati nella fase della congiunzione di attributi: ad es. “triangolo rosso” è formato dalla congiunzione degli attributi di “triangolarità” e “colore rosso”). Essi hanno individuato alcune strategie caratteristiche di molti soggetti. Una di queste è la messa a fuoco (focusing): essa consiste essenzialmente in un processo di eliminazione basato sul confronto di ciascun esemplare preso come fuoco.

Un’altra strategia diffusa osservata da Bruner è lo “scanning”, l’esplorazione, distinta in sottotipi: simultanea e successiva. Alcuni soggetti, invece di adottare un esemplare focale come base per eliminare gli attributi irrilevanti degli stimoli, si formano qualche semplice ipotesi circa la soluzione e categorizzano gli stimoli secondo tale ipotesi fino a che essa non risulta falsa. La verifica può essere compiuta per un’ipotesi alla volta oppure per più ipotesi contemporaneamente.

Recentemente l’attenzione di alcuni studiosi si è rivolta ai concetti così detti naturali, cioè a quelle categorie che non vengono usate secondo definizioni precise e secondo confini netti tra l’una e l’altra. Questi concetti sono usati nel linguaggio e nel pensiero quotidiano e dell’uomo “della strada”. Alcuni studiosi sostengono che quando siamo in grado di riconoscere e classificare oggetti dell’esperienza, non ci serviamo tanto di definizioni vere e proprie quanto di prototipi, cioè di componenti tipici di ogni classe. Tale schema prototipico sarebbe una specie di tendenza centrale valutata sui membri più comuni di una classe. La Rosch ha fatto valutare a dei soggetti i membri più tipici di una categoria ottenendo dei punteggi di “tipicità” per ogni membro.

Il pensiero produttivo

Quando ci troviamo in una situazione problematica senza possibilità di soluzione immediata e di impiego di schemi di comportamento già acquisiti, mettiamo in opera un’attività di ragionamento che, se coronata da successo, crea una conoscenza nuova. Maggiore è stato il contributo della teoria gestaltista. Köhler ha osservato il comportamento di scimpanzè affamati e quindi motivati a prendere il cibo non raggiungibile direttamente, ma risolvendo un problema strumentale locomotorio. La condizione sperimentale può sembrare simile alle situazioni di laboratorio dei comportamentisti; ma vi è una profonda differenza: le situazioni di Köhler sono studiate in modo che, nel campo percettivo, siano presenti tutti gli elementi necessari per risolvere il problema; il soggetto può quindi agire cognitivamente, intelligentemente; qualora riesca a compiere una determinata operazione mentale, raggiunge l’obiettivo.

Per Köhler l’attività mentale della scimmia presenta un aspetto più importante. Il campo psichico del soggetto è caratterizzato dal bisogno di cibo e dall’oggetto che può soddisfarlo; la tendenza naturale porterebbe l’animale a dirigersi verso il cibo ma le sbarre della gabbia lo impediscono. A questo punto l’obiettivo non è “raggiungere la banana”, ma “aggirare l’ostacolo”. Si è così avuta una ristrutturazione del campo cognitivo, un ricentramento. La soluzione del nuovo problema, aggirare l’ostacolo, sarà poi raggiunta in una seconda fase, dove l’esperienza gioca un ruolo; ma l’atto intelligente è già avvenuto in precedenza, con la ristrutturazione del campo cognitivo.

A questo proposito il termine insight è impiegato in 2 accezioni: da un lato indica l’operazione di ristrutturazione cognitiva; dall’altro denota la consapevolezza di una relazione. Nel primo significato, è il processo di soluzione intelligente: quando lo scimpanzè ha un insight, ha già appreso che, per quel problema, ci si deve comportare in quel modo. Per spiegare il secondo significato possiamo portare questo esempio di Köhler stesso: “quando mi prendo la soddisfazione di bere una bevanda fresca, sento che il mio piacere si

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

riferisce al sapore della bevanda ed alla mia sete, e non per esempio al ragno sulla parete”. Certe relazioni sono colte immediatamente senza bisogno di analisi, ragionamento; questo cogliere la relazione è chiamato insight.

È problema ciò che non può essere risolto sulla base di abitudini o comportmento istintivo. Ciò non significa novità della soluzione; si tratta piuttosto dell’uso in un diverso contesto di oggetti o metodi altrove familiari. Il significato da attribuire al termine ristrutturazione è questo; essa avviene, in queste situazioni semplici, in modo immediato, con un insight. L’insight non deve essere inteso come un principio euristico, ma piuttosto come il risultato delle tensioni di campo create dal bisogno e dall’obiettivo, con l’intervento dei dati percettivi attuali e delle eventuali tracce mnestiche. Che la soluzione sia stata compresa, e non semplicemente appresa, è dimostrato dalla velocità di esecuzione e dalla ripetizione in situazioni analoghe.

Per Wertheimer per giungere alla soluzione, il soggetto opera una ristrutturazione dove i fattori percettivi hanno il peso maggiore: il pensiero crea una soluzione nuova, quando riesce a modificare la struttura, percettiva o cognitiva che sia.

L’analisi approfondita del processo di soluzione del problema è stata condotta da Duncker, secondo il quale i modi, le strategie possibili per risolvere problemi: procedere dal di sotto o dal di sopra. Nel primo caso il soggetto analizza gli elementi chiedendosi: “questo può servirmi?”. Può imbattersi così in un elemento che sembra rispondere alle esigenze dello scopo. Nel secondo caso, ci si pone alla ricerca di “quell’oggetto o sistema per mezzo del quale…”. Questo secondo è un metodo più intelligente, in quanto esige che sia fatta un’analisi della situazione e che si sia già arrivati ad escludere una soluzione più immediata con l’impiego diretto degli elementi disponibili. Non è detto che col primo procedimento non si possa giungere alla soluzione; però il risultato è più affidato al caso, è più fortuito. La fissità funzionale è dovuta a abitudini e conoscenze, al contesto percettivo, alla struttura semantica del campo e a implicazioni parassite.

Vedere le cose in un modo diverso dagli altri e da come erano viste precedentemente, significa una ristrutturazione del campo: oggetti, eventi, aspetti prima marginali diventano centrali; su di essi si polarizza l’attenzione e l’interesse.

La teoria gestaltica, suffragata come è da vari esperimenti, rappresenta l’analisi più convincente del pensiero produttivo: esso consiste soprattutto in un’attività di ristrutturazione del campo; tutti quei fenomeni che possono in qualunque modo influire sulla struttura, rendendola più stabile, provocando difficoltà. In questo senso colui che è meno legato alle abitudini, alle conoscenze tipo preconcette, è facilitato.

Le caratteristiche delle soluzioni genuine sono: non essere accecati da abitudini; non limitarsi a ripetere ciò che viene insegnato; non procedere con un atteggiamento eminentemente analitico; osservare la situazione a mente aperta, con una visione complessiva, cercando di capire in quale modo problema e situazione siano in relazione tra loro, cercando di evidenziare la relazione interna tra la forma e il compito assegnato, giungendo alle radici della situazione, illuminando i caratteri di struttura essenziale.

Il pensiero quotidiano

Bartlett lo definisce un tipo di pensiero che entra in azione in situazioni problematiche di ogni giorno, dove le persone, senza compiere sforzo per essere logiche, trascurando le lacune delle informazioni disponibili, intendono prendere posizione, arrivare alla soluzione. Tale pensiero è di immediata comunicazione, può esprimersi in discorsi o per iscritto con caratteri di stile parlato; lo si può cogliere ascoltando conversazioni casuali; si possono infine creare situazioni sperimentali per verificare e analizzare i processi che lo caratterizzano. Una delle caratteristiche del pensiero quotidiano consiste nel fatto che di fronte ad una situazione che richiede giudizi o previsioni, esso trascura di compiere indagini sugli elementi che vi entrano a far parte e che occorrerebbe indagare per un giudizio ponderato; basandosi invece su elementi insufficienti, giunge a rappresentarsi una soluzione al problema e la accetta come valida, anche se in realtà essa non presenta alcuna garanzia di validità.

Il pensiero quotidiano è fortemente orientato a prese di posizione decise.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Una differenza tra il pensiero logico e quello quotidiano è da ricercare nel fatto che in quest’ultimo, a differenza che nel primo, non vi sono tracce di processi elaborati tra dati di partenza e conclusioni. Per colmare tale vuoto tra dati di partenza e conclusioni tratte, spesso ci si rivolge a ricordi personali, a situazioni analoghe, e questo paradossalmente con tanta maggior frequenza quanto più generiche possono apparire le situazioni incomplete. Oppure egli fa uso di elementi perentori (es. “senza dubbio”).

Bartlett considera 2 aspetti del pensiero quotidiano: la generalizzazione e il punto senza ritorno. Per numero ed estensione le generalizzazioni, che si trovano usate nel pensiero quotidiano, sono tali da superare quelle che si potrebbero dedurre astraendo da differenti situazioni caratteristiche comuni: la maggior parte di queste generalizzazioni, che il soggetto usa, si trova prefabbricata nell’ambiente a cui appartiene; molte generalizzazioni sono l’accettazione di convenzioni sociali o la costruzione di altre affermazioni formulate sulla base di queste. A proposito del punto senza ritorno, egli nota cioè che i soggetti, che iniziano a trattare un argomento, forse anche incerti, raggiungono uno stadio dal quale è molto più facile proseguire che tornare indietro, diventado esitanti, inefficaci e molto spesso incoerenti; essi hanno cioè raggiunto la fase che Bartlett chiama punto senza ritorno; essendo il pensiero quotidiano di immediata comunicazione, ciò che impedisce al soggetto di tornare indietro è dovuto in parte al suo prestigio nella situazione di comunicazione in cui egli si trova.

Il pensiero prevenuto

Le direttive prese dagli studi sul pensiero prevenuto sono 2: una che si interessa delle motivazioni inconscie e delle origini di questo pensiero e atteggiamento, l’altra che si interessa degli aspetti formali del problema; ambedue però sono necessari per una comprensione di questo tipo di pensiero dove la componente affettiva condiziona la modalità di espressione e che in questo si differenzia dal pensiero quotidiano. Il pensiero prevenuto presenta 2 elementi: una credenza e un oggetto al quale si applica. La credenza è stata definita da Krech e Crutchfield “una durevole organizzazione di percezioni e di conoscenze intorno a qualche aspetto del mondo dell’individuo”; il carattere formale della credenza è espresso dallo stereotipo: si tratta cioè di una credenza ultrasemplificata e astratta, largamente diffusa tra i membri di un gruppo sociale o etnico e applicata nei riguardi dei componenti di un altro gruppo sociale o etnico oggetto della credenza; lo stereotipo sarebbe, cioè, il risultato di una generalizzazione condotta non rispettando le regole appunto della conoscenza induttiva.

Altri caratterizzano l’errore logico del pensiero prevenuto in un’operazione deduttiva falsa che si può verificare nella conferma del giudizio contenente un predicato stereotipo. Da un punto di vista logico, quindi il pregiudizio potrebbe essere descritto come una generalizzazione confermata a mezzo di un’operazione deduttiva falsa e può realizzarsi per la genericità e ambiguità dei tratti presenti nelle premesse. Tali considerazioni fanno già notare però un’altra particolarità del pensiero prevenuto: la sua rigidità (resistenza della credenza prevenuta a modificarsi di fronte a esperienze contrarie e a porsi come conoscenza completa definitiva).

La differenza tra conoscenza etnologica, scientifica e prevenuta non risiede in una differenza d’oggetto; ma consiste nel fatto che la conoscenza prevenuta ignora il principio stesso del metodo sperimentale: l’atteggiamento conoscitivo. Non ci si può limitare a considerare il pregiudizio solo sotto l’aspetto di atto conoscitivo, più o meno errato, ma occorre distinguere in esso emtrambe le componenti: l’affettività e l’attività cognitiva, che risulterà dalla prima fortemente influenzata. A conclusione di questa esposizione quindi si può dire che si possono distinguere 2 componenti strutturalmente identiche, cioè bipolari: l’affettività e l’attività conoscitiva e un carattere di questa bipolarità, cioè la sua assolutezza o rigidità; mentre tale carattere è proprio della vita dei sentimenti e delle emozioni, non necessariamente lo è per l’attività cognitiva; quando tale rigidità è presente sul piano cognitivo, l’atteggiamento che ne deriva è prevenuto.

Il pensiero neurotico

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Di fronte a una situazione esterna frustrante e minacciosa per la sicurezza, l’Io si difende ad opera di meccanismi psichici inconsci che tendono a rassicurarlo e conferire una veste falsa di razionalità alle affermazioni giustificate dalla necessità emotiva di difesa. Queste difese che operano oscuramente sostenute dalle istanze inconsce della psiche sono elementi che deformano il pensiero neurotico, la cui personalità psichica può definirsi come non armonizzata tra i costituenti, poiché non esiste equilibrio tra forze profonde dell’Es e l’Io. Si determina così una distorsione di origine emotiva, che proprio perché impedice una percezione degli elementi presenti nel campo sotto prospettive più vaste, compromette gravemente il raggiungimento di soluzioni adeguate.

Il nevrotico non può prescindere dalla necessità di rivestire di una parvenza ogni suo sentimento che si fa strada nella coscienza. Attraverso lo studio di questi processi intellettuali distorti irrazionali può essere definito il pensiero neurotico, che è irrazionale perché è sollecitato a un’esclusione del termine intermedio, applicando le leggi della logica su premesse errate o in maniera inadeguata e parziale o sfruttando l’ambiguità di alcuni termini. Così il neurotico usa la negazione, quando è spinto da bisogni emotivi, proprio in virtù del fatto che tende a ridurre le alternative a 2: la parte indicativa del tutto si identifica addirittura col tutto; ogni analogia o somiglianza equivale a identità.

Un altro aspetto nel neurotico è rispecchiare il desiderio di soddisfare contemporaneamente 2 opposte esigenze: in questo caso si è in fase di adualismo, non distinzione tra Io-non Io. Spiccata nei nevrotici è la tendenza a non distinguere oggettivo da soggettivo; a non comprendere se ciò che colpisce la coscienza provenga dall’esterno o dall’interno; il tentativo di razionalizzare sentimenti è indice di tale tendenza; il malato può incolparsi di nutrire certi sentimenti e cercherà di dare una motivazione razionale ai sentimenti. Un altro elemento, che rivela spesso l’irrazionalità del pensiero dei neurotici, è l’uso inadeguato di parole o di espressioni che realmente hanno un significato ambiguo o impreciso.

Come conseguenza dei dati di partenza, che il neurotico seleziona nella costruzione della “visione tunnel” al momento dell’impostazione del problema, anche il processo di ragionamento che ne segue viene ad assumere una struttura semplificata; la parte diventa il tutto, la possibilità diventa certezza, l’analogia identità. Il processo razionale nel nevrotico è condizionato dalle sollecitazioni dell’Es che, per la sua stessa natura, è arazionale.

Il pensiero psicotico

Una particolare deviazione dal pensiero logico deve essere considerato il pensiero psicotico. Tale deviazione è così evidente e vistosa da giustificare la sua delimitazione al campo patologico. Quello dello psicotico, infatti, non corrisponde (nella sua interezza) a nessun altro tipo di pensiero. Questa eccezionalità è in rapporto alla gravità della malattia psicotica, che provoca una completa disorganizzazione della personalità.

Ciò che più colpisce nel pensiero (e nel linguaggio) dello psicotico è la sua incomprensibilità, assurdità e incoerenza.

Il problema fondamentale del malato e l’obiettivo verso il quale è messo in tensione il suo pensiero, è come affrontare una realtà che lo angoscia e incombe su di lui così che le sue difese ne risultano sopraffatte e impotenti a porvi argine. La rottura con la realtà può avvenire solo se egli modifica se stesso al fine di vederla in modo diverso e di raffigurarsela come meno terrificante. Per questo compito il malato ha a disposizione meccanismi che dal punto di vista formale sono gli stessi di ogni uomo: essi sono rudimentali, sepolti nell’inconscio. Uno dei gruppi più importanti di questi meccanismi è rappresentato da processi intellettuali caratteristici.

Le emozioni però hanno il potere di trasformare o deformare i processi intellettuali e ciò ha l’esemplificazione evidente nella psicosi. Lo psicotico adotta meccanismi intellettuali particolari, che non corrispondono affatto a quelli della logica ordinaria: il suo pensiero non è illogico o insensato ma si ricollega ad un proprio criterio logico che conduce ad esiti difformi da quelli consueti. In altre parole lo psicotico sembra avere una facoltà concettuale costituita in modo diverso da quella dell’uomo normale (Arieti, 1963).

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Più sono intense le emozioni in gioco, maggiore diventa la necessità di ricorrere a alterazioni intellettuali; specie in situazioni di emergenza, il livello di razionalità viene spesso perduto con regressione a gradi inferiori. Questo principio viene definito “principio della regressione teleologica”: regressione perché sono adottati livelli meno progrediti di integrazione psichica; teleologica perché questa regressione ha uno scopo, e precisamente di evitare l’ansietà, e di consentire il conseguimento dei risultati desiderati. Questo tipo di pensiero non è specifico dello psicotico: anche i sogni, allucinazioni, deliri, sembrano avere uno scopo affine.

Esaminando più da vicino questo particolare tipo di logica, che Arieti ha denominato paleologica, si constata che esso è basato sul principo enunciato da Von Domarus, che così afferma: “Mentre l’individuo normale accetta l’identità soltanto sulla base di soggetti identici, il paleologico accetta l’identità basata su identici predicati”. Viene cioè accolta in modo errato la figura (logica) aristotelica del sillogismo.

Anche nel pensiero infantile fino ai 3-4 anni e nel pensiero onirico può trovare applicazione il principio di Von Domarus; lo stesso simbolismo freudiano dal punto di vista formale si basa proprio sulla seguente affermazione: “Il simbolo di un oggetto è qualcosa che sta al posto dell’oggetto ma che possiede anche una certa somiglianza con l’oggetto stesso, ossia ha un predicato o una caratteristica comune”. È la scelta dei predicati come legame identificatorio tra 2 proposizioni che provoca la bizzarria, imprevedibilità e incomprensibilità del pensiero psicotico.

Nello psicotico, soprattutto nello schizofrenico, si può notare sia la riduzione della capacità di connotazione che la prevalenza della denotazione e verbalizzazione: il primo fatto è dimostrato dall’incapacità a definire parole comuni, a formulare o ad usare parole o concetti che comprendono intere categorie.

L’esame di queste particolari leggi del pensiero paleologico pone in luce un aspetto significativo, vale a dire la tendenza a vivere in un mondo di percezioni, piuttosto che di concetti. Quando sono necessari concetti astratti, questi tendono a formularsi in un linguaggio concreto collegato ad immagini percettive che finiscono per sostituire completamente i processi elevati del pensiero. Questo processo di percettualizzazione si esprime nei sogni e nelle allucinazioni che rappresentano in maniera significativa la perdita del contatto con la realtà psicotica. Ma i disturbi dei processi di pensiero che compaiono nella psicosi coinvolgono anche le semplici associazioni di idee, così che spesso si verificano dispersioni dei pensieri, dissociazioni, “insalata” di parole e l’incomprensibilità del linguaggio schizofrenico.

CAPITOLO 10 – IL LINGUAGGIO

Introduzione

Il linguaggio è una delle capacità che più caratterizza la specie umana. La competenza linguistica, infatti, sembra essere una prerogativa umana ed ha svolto un importante ruolo. Il linguaggio permette 2 importanti funzioni: quella comunicativa, grazie alla quale siamo anche in grado di trasmettere idee e conoscenze, e quella simbolica e di astrazione; quest’ultima capacità, di astrarre ed utilizzare simboli, è talmente importante per lo sviluppo

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

e l’impiego del pensiero che il problema del rapporto tra linguaggio e pensiero è un tema che troviamo presente e variamente discusso fin dall’origine della nostra cultura.

Secondo Piaget (1962) i bambini si servono del linguaggio cosiddetto “egocentrico”, cioè apparentemente non usato per la comunicazione, non tanto per guidare il loro comportamento, quanto perché è l’unica forma di linguaggio che hanno a disposizione. Alla base di questa ipotesi sta la convinzione che lo sviluppo cognitivo proceda separatamente sviluppandosi nell’interazione con gli oggetti e le persone che circondano il bambino. Il contrasto con Vygotskij sembra netto: secondo Vygotskij il pensiero non è espresso in parole; esso viene ad esistere attraverso esse.

Ciò che è sicuro è che, se è possibile sostenere che il linguaggio è una prerogativa esclusivamente umana, sicuramente anche molte specie animali producono suoni simili alle parole e comunicano. È un fatto noto a tutti, ad esempio, che i pappagalli sono in grado di apprendere e produrre correttamente parole. questo non vuol dire tuttavia che essi siano in grado di parlare.

Il linguaggio è infatti una capacità estremamente complessa che può venire definita come la competenza di associare suoni e significati mediante regole grammaticali che variano col variare delle lingue specifiche. È grazie a queste capacità che comprendiamo e produciamo frasi corrette e dotate di significato, che non abbaiamo mai né udito né detto prima. I comportamenti utilizzati per la comunicazione sono innati a differenza di ciò che avviene per la specie umana, la quale pur avendo una disposizione genetica a parlare, deve però acquisire durante lo sviluppo tale capacità; per questo un modo ovvio per vedere se anche altre specie possono acquisire il comportamento verbale è cercare di insegnare loro a parlare (diversi tentativi sono stati fatti con gli scimpanzè, che sembrano essere più adatti a un simile tentativo).

La linguistica

Cenni storici

La linguistica si occupa dello studio della lingua a prescindere da chi la usa e dal modo in cui viene usata. Secondo la definizione di De Saussure, la lingua è un’astrazione che indica le regole che governano l’uso di suoni, forme e strumenti lessicali, sintattici e semanitici. Esistono molte lingue, ciascuna con regole, mentre la competenza di linguaggio è una capacità specifica della specie umana. Poiché abbiamo tale capacità linguistica possiamo acquisire da bambini la nostra lingua. L’oggetto di studio della linguistica sono le regole che governano le lingue e sono comuni a tutte.

La linguistica generativa

Secondo Chomsky, fondatore di questo indirizzo, la linguistica è una disciplina i cui dati sono i giudizi dati dai parlanti sulle frasi della lingua. Per Chomsky scopo della linguistica è spiegare quali sono le regole che un parlante usa nel dare giudizi. In altre parole, egli si propone di spiegare quali sono le conoscenze che il parlante/ascoltatore deve possedere per poter usare correttamente quella lingua., chomsky assume che esiste una predisposizione innata, patrimonio genetico della specie umana, ad acquisire lingue. Tutti i bambini normali esposti ad una lingua qualunqueacquisiscono in breve la capacità di capire e produrre un numero potenzialmente infinito di frasi di quella lingua. Che nell’acquisire la lingua madre un bambino non imiti ciò che sente dagli adulti è indicato dal fatto che i bambini in una fase commettono errori di ipercorrettismo.

A parere di Skinner il linguaggio non è altro che un comportamento appreso attraverso rinforzi. In polemica con Skinner Chomsky sostiene che ciò che un bambino acquisisce sono regole della lingua particolare cui è esposto. Queste regole relative alla lingua costituiscono la competenza linguistica del parlante. Chomsky distingue fra competenza ed esecuzione. La prima è definita come insieme di conoscenze linguistiche che il parlante/ascoltatore ideale deve possedere per essere in grado di produrre e comprendere un numero di frasi infinito della sua lingua. Nella pratica la competenza si riflette nell’esecuzione, che comprende le manifestazioni linguistiche del soggetto.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

Per Chomsky l’aspetto creativo del linguaggio è una caratteristica fondamentale della competenza e il tipo di linguistica è generativa nel senso che si preoccupa di individuare le regole linguistiche che permettano l’uso creativo, cioè la produzione sempre nuova di espressioni della lingua da parte del parlante. Creatività ed innatismo, nel senso specificato, sono le nozioni fondamentali.

La psicolinguistica

Dal comportamentismo al cognitivismo

Per la complessità di questa capacità umana, il linguaggio, per un lungo periodo, in pratica fino alla rivoluzione chomskiana, è stato affrontato dalla psicologia solo marginalmente. Tra gli psicologi, che si sono occupati di linguaggio prima del cognitivismo, bisogna ricordare Wundt, Bühler, Vygotskij, Piaget. Si tratta di autori che vanno ricordati come classici, ma i cui studi restano sporadici fino all’avvento della psicolinguistica. Il termine psicolinguistica venne usato per la prima volta in occasione di un convegno tenutosi nell’Indiana a Boomington nel 1953, a cui parteciparono psicologi, linguisti, informatici.

Oggi il termine psicoliguistica indica il settore della psicologia che studia la capacità di parlare e capire.

Negli anni ’50 la corrente dominante in psicologia era il comportamentismo e diversi autori, in quell’ambito, si occuparono di linguaggio. Tra essi i più noti furono Mowrer, Osgood e Skinner. Secondo Skinner una persona apprende a parlare in un modo molto simile a quello con cui apprende ogni comportamento: attraverso le interazioni con l’ambiente, attraverso rinforzi e punizioni. Il bambino si impadronisce progressivamente di abilità linguistiche, che vengono rafforzate dalle persone che lo circondano, e smette man mano di utilizzare espressioni che gli adulti non accettano. Prima apprende le parole e più tardi impara ad unirle, in modo da formare frasi che gli adulti rinforzano o meno, a seconda che siano o non siano corrette. Skinner sottolinea come, quando i bambini emettono i primi suoni simili a quelli del linguaggio adulto, oppure le prime parole, ottengano una grande quantità di rinforzi da parte dei genitori. Inoltre il riuscire ad esprimere desideri e bisogni è, di per sé, un forte rinforzo per il bambino.

Comunque il problema del linguaggio resta in ambito comportamentista relativamente marginale. È soprattutto con l’avvento della teoria chomskiana e con l’affermarsi della psicologia cognitivista, che fa propri gli assunti della linguistica generativa, che quello del linguaggio diventa un settore principale e trainante dell’indagine psicologica.

Per questa ragione, trattando dei problemi fondamentali della psicolinguistica, cioè l’acquisizione, comprensione, produzione e memoria semantica, faremo quasi esclusivamente riferimento agli studi cognitivisti.

Acquisizione

Al momento della nascita, il bambino non possiede le capacità linguistiche adulte, che per maturare richiedono diversi anni. L’acquisizione del linguaggio sembra seguire una successione regolare. La maggior parte dei bambini comincia a balbettare attorno ai 6 mesi e produce le prime parole verso i 12 mesi; verso l’età di 2 anni i bambini cominciano a formare le prime frasi rudimentali e dopo i 5 anni si può dire che abbiano già acquisito la grammatica di base e lo stile del linguaggio adulto.

Nei primi 6 mesi il bambino produce suoni che sono uguali in tutti i contesti linguistici: in questa fase un bambino italiano emette suoni identici a un bambino indiano o ugandese. Lo sviluppo linguistico richiede esercizio e i bambini dedicano molto tempo a produrre suoni linguistici. Un fatto interessante è che benchè i neonati siano incapaci di produrre parole, essi sono però in grado di reagire a stimoli verbali.

Dai 6 ai 12 mesi appare il balbettio e si passa da uno stadio dove il bambino produce suoni che non hanno alcun rapporto con parole della lingua madre alla produzione sempre più corretta di parole. Queste prime parole all’inizio vengono riferite dal bambino agli oggetti e situazioni più svariate. Dal punto di vista delle categorie grammaticali, le prime parole che il bambino produce sono sostantivi, nomi di oggetti e persone per lui rilevanti come i genitori,

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

i giocattoli, il cibo; più tardi e nell’ordine egli comincerà ad usare i verbi e gli aggettivi e solo alla fine gli avverbi e i pronomi.

Tra il primo e il secondo anno di vita il bambino affina le proprie capacità e inizia a produrre espressioni che possono essere costituite di una parola. Un bambino di questa età può dire “pappa” intendendo “voglio la pappa”. Queste parole, mediante cui i bambini esprimono intere frasi, vengono chiamate olofrasi.

Successivamente il bambino comincia a legare insieme parole per formare delle frasi. In questa fase, dove i sostantivi costituiscono buona parte del vocabolario, le frasi non sono né complete né corrette e il linguaggio viene perciò definito telegrafico. Lunghezza, complessità, correttezza grammaticale si modificano fra i 18 e i 24 mesi: il bambino da questa età continua ad arricchire il suo vocabolario e a perfezionare le sue conoscenze grammaticali fino a che egli diviene pedorne di strutture assai simili a quelle degli adulti e controlla un vocabolario di circa 2000 parole attorno ai 5 anni.

Un fatto rilevante nell’acquisizione del linguaggio da parte dei bambini è che essi arrivano in un tempo relativamente breve ad impadronirsi di questa abilità così complessa senza che essa venga insegnata.

La comprensione

Capire un discorso è un processo complesso che richiede capacità diverse concorrenti. Ciò che arriva alle nostre orecchie è una sequenza continua di suoni. Per poter capire la frase a partire dai suoni, dobbiamo segmentare il continuum dei suoni, in modo da isolare le parole. Dobbiamo quindi attribuire significati alle parole e analizzare la struttura della frase. Questi 3 stadi, percettivo, semantico e sintattico, non esauriscono il processo di comprensione che per aver luogo ha bisogno di altri fattori.

Ci troviamo di fronte al problema di capire come, a partire da stimoli fisici diversi, riusciamo a percepire la stessa lettera o parola. Un elemento di ulteriore complicazione è il fatto che il flusso reale del discorso non è chiaro e nitido: circa metà delle parole che nel discorso comprendiamo senza sforzo sono così distorte a causa di rumori, errori ecc. da risultare incomprensibili, quando sono sentite separatamente.

Un altro problema è quello del ‘cocktail party’: quando ci troviamo a una festa, capita che più persone parlino di cose diverse; come facciamo a seguire questi discorsi e percepirli separatamente? Esistono diverse teorie, tra le quali una particolarmente importante è la teoria dell’analisi per sintesi, che assume che l’ascoltatore possiede un sistema che produce o ‘sintetizza’ dei suoni. Quando sente un pezzo di discorso, questo sistema cerca di produrre suoni confrontabili con quelli uditi; i tentativi non sono casuali, ma vengono guidati da indici di somiglianza acustica; i suoni, prodotti dal sistema, vengono confrontati col suono ricevuto e porta alla sua identificazione.

Il processo di costruzione attraverso cui un ascoltatore giunge a interpretare a una sequenza di suoni consiste nell’attribuire significati alle parole che via via vengono identificate, nel metterle insieme alle parole già sentite e a quelle che seguiranno, fino al compimento della frase. Per ottenere questo risultato un ascoltatore deve evidentemente utilizzare un largo numero di strategie sia di tipo sintattico (cioè che utilizzano informazioni provenienti dalla struttura della frase), sia di tipo semantico (cioè informazioni sui significati delle parole). Gli studiosi hanno attribuito maggior peso alle une o alle altre dando così luogo a 2 diversi approcci nella studio della comprensione.

L’approccio sintattico, sviluppato da Bever, Fodor e Garrett, Kimball e altri, fa uso soprattutto di parole funzionali e della classificazione delle parole in nomi, verbi ecc…, l’approccio semantico si serve soprattutto dei significati delle parole, utilizzando ampiamente le conoscenze degli ascoltatori che sanno che le frasi, che sentono, sono sensate e si riferiscono a un contesto in larga parte ad essi noto.

Produzione

Perché la comunicazione abbia luogo occorre che le persone siano in grado, oltre che di capire, anche di parlare, cioè di produrre frasi. Come la comprensione, anche la produzione

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

sembra richiedere pochissimo sforzo, benchè sia un processo complesso. Parlare è un atto fondamentalmente strumentale, compiuto per avere qualche effetto sull’ascoltatore. Di conseguenza comincia con l’intenzione del parlare di comunicare qualcosa, seguito dalla scelta e dalla produzione di espressioni che egli giudica adeguate ad esprimere le intenzioni. Il parlare richiede 2 diverse capacità: quella di pianificare e quella di seguire ciò che è stato pianificato. Questa distinzione non è netta dal momento che, parlando, una persona compie entrambe le attività. È possibile distinguere 5 fasi fondamentali nella produzione linguistica; le prime 4 riguardano la pianificazione e l’ultima l’esecuzione: 1) Pianificazione del discorso; 2) Pianificazione della frase; 3) Pianificazione dei costituenti; 4) Programma articolatorio; 5) Articolazione.

La memoria semantica

Tutti noi abbiamo una grande quantità di conoscenze e senza dubbio esse debbono essere organizzate in qualche modo nella nostra memoria, altrimenti non sarebbe possibile recuperarle e utilizzarle quando necessarie. Oltre a ciò, dobbiamo anche prevedere un sistema organizzato dei significati delle parole della nostra lingua, a cui facciamo ricorso quando parliamo o ascoltiamo: il lessico mentale. Che i significati delle parole siano organizzati nella memoria risulta evidente se si considera che siamo in grado di accedere a questi significati facilmente.

Sono stati costruiti dei modelli per indagare in che modo nella memoria a lungo termine questi significati e concetti sono organizzati. Secondo la definizione di Tulving il magazzino di memoria a lungo termine che contiene queste conoscenze, o memoria semantica, è distinta da un altro tipo di memoria chiamata memoria episodica, che contiene informazioni relative a fatti o esperienze personali.

Il problema centrale è come sono organizzati in memoria i concetti relativi a nomi di generi naturali come ‘cane’, ‘animale’, ‘uccello’. Il sistema che è proposto è di una rete con nodi e indicatori organizzati gerarchicamente.

L’informazione viene immagazzinata al nodo più onnicomprensivo possibile nella gerarchia, dal momento che ciò che è vero di esso deve essere vero anche dei nodi derivati.

Socializzazione, linguaggio e sviluppo cognitivo

Il dibattito relativo ai rapporti fra sviluppo cognitivo e linguaggio ha ricevuto contributi dalla teoria e dalle ricerche elaborate da Basil Bernstein (1975) nell’ambito della sociolinguistica. Bernstein assume dalla teoria linguistiche di Chomsky la distinzione fra la nozione di competence, ossia l’astratto sistema di regole linguistiche a disposizione di ogni parlante, e quella di performance, ossia l’uso effettivo e osservabile del linguaggio nelle scelte dei parlanti e nelle loro deviazioni dal modello della competence. La teoria di Bernstein si fonda principalmente sull’ipotesi che la struttura delle relazioni sociali determini gli usi e le scelte linguistiche dei parlanti; a loro volta i comportamenti linguistici, socialmente modellati, orienterebbero l’accesso verso diversi universi simbolici di conoscenza e agirebbero sul comportamento sociale favorendo o inibendo le possibilità di controllo e di mobilità sociale.

Bernstein individua e descrive 2 sistemi di uso linguistico, definendoli codice elaborato e codice ristretto. Il primo consentirebbe l’accesso simbolico ai principi della propria esperienza sociale ed esistenziale e ne permetterebbe la progettazione e il mutamento; i significati, espressi dal codice elaborato, sono designati come di tipo universalistico, perché basati su principi ed operazioni linguisticamente espliciti e universalmente comprensibili. Il codice elaborato lascia ampie libertà alle scelte linguistiche dei parlanti permettendo di esprimere e differenziare contenuti semantici complessi e scarsamente prevedibili.

Il codice ristretto concede una libertà ridotta alle scelte linguistiche del parlante e presenta una massima prevedibilità negli aspetti semantici e sintattici degli enunciati. Il significato complessivo della comunicazione può risultare o eccessivamente generico e poco chiaro o troppo orientato su elementi concreti legati al contesto immediato del discorso e

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it

all’esperienza particolare del parlante (significati particolaristici). Ne conseguirebbe pertanto una tendenza ad operazioni di ragionamento di tipo concreto, di ostacolo all’accesso a livelli metalinguistici di controllo e di innovazione.

Le ricerche condotte da Bernstein in Gran Bretagna stabiliscono un rapporto tra l’uso dell’uno o dell’altro codice e la classe sociale d’appartenenza (dove la classe sociale viene definita principalmente in base al tipo di divisione del lavoro). L’uso esclusivo del codice ristretto rispecchierebbe la struttura delle relazioni sociali interpersonali della classe operaia (working class); quello del codice elaborato la struttura di relazioni della borghesia (middle class).

La psicofisiologia

Sono gli studi di psicofiosiologia che hanno messo in luce ormai da tempo il fatto che solo parte di un emisfero, di solito il sinistro, sembra essere indispensabile per un corretto comportamento verbale. Gli studi condotti successivamente su pazienti che a causa di traumi di varia natura presentavano lesioni all’emisfero sinistro hanno condotto a pensare che, come aveva intuito Broca, una parte del cervello è specializzata per l’abilità linguistica. Nella maggior parte delle persone un disturbo del linguaggio è la conseguenza di un danno alla superficie individuata da Broca e all’area temporo-parietale posteriore (area di Wernicke).

Le lesioni frontali tendono a dar luogo a deficit nella produzione del linguaggio (afasia espressiva), mentre le lesioni posteriori tendono a generare difficoltà nella comprensione (afasia ricettiva). Tuttavia queste distinzioni sono tutt’altro che chiare ed è molto comune che lesioni o stimolazioni elettriche producano parecchi tipi di disturbi contemporaneamente. Dei vari tipi di disturbi linguistici, quello dovuto a lesioni periferiche, chiamato disartria, è di scarso interesse psicologico.

Assai più interessanti sono i disturbi derivanti da lesioni corticali, come l’afasia verbale, che comporta la perdita del linguaggio e dell’abilità di scrivere e l’afasia sintattica, che consiste nella difficoltà o incapacità ad utilizzare regole grammaticali. Un diverso tipo di disturbo è l’afasia nominale che consiste nel non trovare le parole che indicano oggetti; Penfield e Roberts riportano il caso di un paziente che per indicare un pettine rispose ‘pettino i capelli’, usando il verbo senza poter usare il nome corrispondente. Un altro fenomeno interessante è la sordità verbale che implica l’incapacità di capire il linguaggio parlato senza che vengano danneggiate le capacità di leggere, scrivere, parlare. Come Hemphill e Stengel (1940) sottolineano, la sordità verbale non ha nulla a che vedere con difficoltà acustiche, dal momento che i suoni vengono sentiti perfettamente: sono per i pazienti privi di significato.

Negli ultimi 15-20 anni parte della ricerca psicofisiologica s’è orientata sullo studio della relazione fra lateralizzazione del linguaggio e regioni cerebrali per il controllo delle mani. I risultati di questi studi hanno di fatto modificato le precedenti teorie, mostrando come il mancinismo non sia necessariamente correlato con la dominanza dell’emisfero destro per il linguaggio. Usando tecniche diverse, Humphrey e Zangwill, Penfield e Roberts, Brand e Rasmussen hanno dimostrato che anche il mancino ha le aree del linguaggio a sinistra.

OPsonline.it: la Web Community italiana per studenti, laureandi e laureati in Psicologia

Appunti d’esame, statino on line, forum di discussione, chat, simulazione d’esame, valutaprof, minisiti web di facoltà, servizi di orientamento e tutoring e molto altro ancora…

http://www.opsonline.it