Materiale Area psicologica e sociale

ELEMENTI DI PSICOLOGIA

1-LINEAMENTI STORICI
La parola “psicologia” è un composto di 2 termini greci, psichè (anima) e lògos (discorso). Tradizionalmente si attribuisce il conio del termine al teologo riformatore Filippo Melantone. Le  conoscenze  psicologiche  ci  derivano  da  4  fonti:  esperienza  personale,  esperienza artistica, i discorsi di senso comune, le discipline specialistiche. Due filoni confluiranno nella psicologia occidentale: quello filosofico e quello medico.


Filone filosofico
Uno dei temi più rilevanti in tutta la filosofia greca è quello della natura dell’anima e dei suoi rapporti con il corpo. Aristotele identificava diverse facoltà dell’anima: vegetativa, grazie a cui l’organismo cresce e si riproduce; quella sensitiva, con la quale si acquisiscono gli stimoli dall’ambiente; quella intellettiva, che consente il pensiero e la volontà.
Filone medico
E’ la pratica medica stessa a richiedere un approccio complessivo, psicologico e fisico, alla malattia.

Dal Medioevo a Cartesio
Per Cartesio la realtà si divide in 2 mondi distinti e separati: la rex extensa, cioè la sfera della materialità, in cui regnano leggi puramente meccaniche; la rex cogitans, che è invece il mondo immateriale del pensiero.

Kant
Tra i successori di Cartesio, il problema centrale è quello epistemologico, cioè la riflessione sui  limiti  e  sulle  modalità  della  conoscenza  umana.  L’orientamento  principale  è  quello empirista di Locke, Berkeley,Hume. Kant, sul finire del ‘700, conclude un’epoca del pensiero psicologico e nel contempo apre la strada alle istanze che proietteranno la psicologia fuori dalla  tutela  della  filosofia.  Egli  sancisce  la  fine  della  controversi  tra  razionalismo  ed empirismo, enunciando il programma del suo “idealismo trascendente”. Per Kant, il mondo ci appare in un dato modo in ragione della struttura del nostro intelletto. Per poter conoscere
una cosa, la mente deve quindi categorizzarla, cioè ricondurla alle proprie strutture. Ciò che è
oggetto di conoscenza deve rispettare certi parametri, conformi alle caratteristiche del nostro sistema conoscitivo, le “categoria dell’intelletto”. Egli recupera la nozione di Cartesio del cogito intendendola però come un evento mentale a sé stante che accompagna ogni nostra attività mentale. L’io, infatti, è un presupposto per conoscere gli oggetti, non un oggetto a sua volta: la nostra dotazione psichica è uno strumento, come un cannocchiale, attraverso cui si possono vedere gli oggetti, ma non il cannocchiale stesso.
Due  tipi  di  reazione  a  ciò  segnarono  le  sorti  della  psicologia:  uno  è  quello  di  stampo positivista, legato ai nomi di Helmholte e Wundt; l’altro è quello antikantiano e neocartesiano di Brentano.

 


Psicofisica
L’introduzione di metodi sperimentali nella raccolta dei dati e lo sviluppo di metodologie quantitative  nel  trattamento  dei  dati  stessi  sono  i  due  mezzi  principali  grazie  a  cui  la psicologia otterrà lo status di scienza a pieno titolo. Un impulso decisivo allo sviluppo della misurazione psicologica provenne dallo studio dei meccanismi sensoriali, con la fondazione della psicofisica. Il merito va a Fechner. Nemico del dualismo cartesiano e sostenitore della posizione di monismo ontologico egli si propose di elaborare un metodo grazie a cui dimostrare che “spirito” e “materia” non sono che le due facce attraverso cui conosciamo un’identica realtà di fondo. Dagli di Weber risultava che la sensazione avvertita dal soggetto e lo stimolo somministrato si trovano in un rapporto di dipendenza, anche se non di proporzionalità diretta. Fechner giunse ad enunciare l’equazione detta legge di Weber- Fechner: E=klogR , dove E è l’intensità della sensazione, R l’intensità dello stimolo e k una costante che dipende dal sistema sensoriale considerato.

Helmholtz
Muller formulò la teoria delle energie specifiche dei nervi_i nervi non sono semplici conduttori neutrali che trasferiscono lo stimolo senza elaborarlo. Ogni tipo di nervo, in base alle proprie particolari caratteristiche, veicola selettivamente certe info ed esercita un influsso
determinante sulla qualità delle esperienze sensoriali. Alle ricerche di Muller si collega il
lavoro di HelmHoltz. La specificità funzionale dei nervi fu da lui estesa anche alla fibre componenti: egli ipotizzò la presenza nell’apparato visivo di recettori retinici di tre tipi, sensibili a colori diversi (rosso, blu, verde), detti colori fondamentali. Egli portò avanti anche uno studio sui tempi di reazione, connesso alla scoperta dei riflessi, cioè di risposte motorie determinate dal  contatto  tra  nervi  afferenti  ed  efferenti  al  livello  del  midollo  spinale,  quindi  senza passaggio attraverso il cervello e senza intervento della volontà. L’apparente istantaneità della percezione e l’assenza di riscontri esperienziali indicano il carattere inconscio di tali processi: egli parla così di giudizi o inferenze inconsce.

Wundt
Egli fece impiantare nel 1879 all’Università di Lipsia il primo laboratorio di psicologia sperimentale. Solo con la sua opera la psicologia raggiunse un profilo istituzionale e accademico  del  tutto  nuovo.  La  complessa  visione  teorica  di  Wundt  assegna  un  posto centrale al concetto di esperienza. L’esperienza può essere considerata dal punto di vista delle informazioni che reca a proposito del mondo esterno; o può essere studiata in rapporto alle sue proprietà intrinseche. Titchener, allievo di Wundt, fu il promotore della scuola strutturalista: questa si imperniava sul tentativo di descrivere gli eventi mentali elementari, evitando il cosiddetto errore dello stimolo.

Brentano
Il suo pensiero influenzò correnti come la psicologia della Gestalt.
La sua psicologia descrittiva mira alla classificazione dei fenomeni psichici, ma, differenziandosi  dall’impostazione  di  Wundt,  esclude  del  tutto  il  metodo  sperimentale, riservato alla “psicologia genetica”, cioè alla scienza che studia le origini, le cause e lo sviluppo dei dati psichici. L’interesse dello psicologo descrittivo va invece unicamente alla struttura qualitativa del fenomeno psichico e alla modalità con cui esso si rivolge al proprio oggetto. I diversi modi in cui la coscienza “intende” gli oggetti corrispondono alle classi fondamentali dei fenomeni interni, rappresentazione, giudizio, sentimento. La conoscenza psicologica è per lui empirica, in quanto derivata dalla percezione interna; questa non è una


facoltà  specifica  come  il  senso  interno  postulato  dagli  empiristi,  né  è  uno  stato  di introspezione da raggiungere mediante concentrazione attentava, come in Wundt. Anche in James l’analisi della vita interiore, assunta nella sua immediatezza qualitativa e fenomenica, è il fondamento della conoscenza psicologica.

L’evoluzionismo
La teoria dell’evoluzione di Darwin non mancò di influenzare lo studio di ogni aspetto dell’attività e della natura umana. L’applicazione del darwinismo alla ricerca psicologica implicava comunque che non solo i caratteri somatici, ma le stesse caratteristiche mentali fossero il risultato di un processo di evoluzione biologica e adattamento all’ambiente. Due sono le conseguenze di ciò:
1. accanto all’apprendimento e all’esperienza si riconosceva il ruolo preponderante di una dotazione psicologica innata e biologicamente ancorata;
2. si riconosceva la continuità tra le caratteristiche mentali umane e quelle dei primati, ammettendo tra esse una differenza di grado ma non di tipo. Lo studio del comportamento animale diventava così direttamente rilevante per la ricerca psicologica.
Fu Galton, pioniere della psicometria e della statistica psicologica, a studiare la variabilità dei caratteri  mentali,  sostenendone  la  determinazione  ereditaria.  Nel  suo  studio  sul  Genio
ereditario  (1869)  esaminava  le  capacità  intellettuali  di  un  vasto  campione  di  individui
“eminenti” e le confrontava con le capacità attribuibili ai loro antenati. La sua conclusione fu che il livello di abilità mentale di ogni individuo è pressoché totalmente determinato per via ereditaria, mentre l’apprendimento e l’ambiente culturale giocano un ruolo del tutto marginale. La sua opera, anche se molto superficiale, ebbe il merito di attirare l’attenzione degli psicologi sulle differenze individuali.

Pavlov
La crescente convergenza tra psicologia e fisiologia è ulteriormente testimoniata da Pavlov. Egli chiamò riflesso condizionato la reazione prodotta in assenza di una stimolazione diretta. Secondo lui il riflesso condizionato è un fenomeno naturale di portata generale, almeno per gli organismi superiori, e riguardante non solo le reazioni fisiologiche, ma il comportamento stesso.

La psicologia della Gestalt
La Gestaltpsychologie (psicologia della forma) ebbe origine dall’insegnamento di Stumpf a Berlino da cui mossero anche figure come quella di Lewin. La teoria della produzione di rappresentazioni_la tematica delle qualità figurali nella teoria della percezione deriva dal riconoscimento dell’esistenza di proprietà che risultano attribuibili ad un complesso percettivo, ma non alle sue parti, e cioè mentre le sue parti possono sussistere senza l’intero e indipendentemente da esso, l’intero non può sussistere senza le sue parti. Posizione della “Scuola della forma”_consiste nel considerare i fenomeni non più come una somma di elementi che si debbano per prima cosa isolare, analizzare, anatomizzare, ma come degli insiemi  che  costituiscono  unità  autonome,  che  presentano  una  solidarietà  interna  e  che hanno leggi proprie. Il modo di essere di ogni elemento dipende dalla struttura dell’insieme e delle leggi che lo regolano. La conoscenza del tutto e delle sue leggi non potrebbe essere dedotta dalla conoscenza separata dalle sue parti che vi si incontrano. La risoluzione di un problema non è altro che la ristrutturazione di un campo cognitivo detta insight, grazie a cui elementi  prima  isolati  o  caratterizzati  da  rigidità  funzionale  vengono  messi  in  rapporto dinamico e acquisiscono funzioni nuove e originali. Altri ambiti in cui la Gestalt ha sviluppato il


proprio lavoro sono la psicologia delle relazioni interpersonali e la psicologia sociale e della personalità.

Il funzionalismo
Il funzionalismo fu la prima vera e propria scuola psicologica nata e sviluppata interamente in USA.  Centro  di  espansione  fu  l’Università  di  Chicago,  dove  operarono  i  due  principali animatori del movimento, Dewey e Angell. Occorre inquadrare la condotta umana in una considerazione di tipo “funzionale”, in cui lo stimolo e la risposta vanno identificati insieme. Questa continuità dell’azione è legata, per i funzionalismi, a premesse biologiche-evolutive ben precise: le risposte comportamentali si sono infatti evolute in ragione degli stimoli come reazioni adattive e dotate di scopo, non come processi separati. l funzionalismo si indirizzò anche verso lo studio dell’individuo ella dinamica sociale e di gruppo. Questo fu, anzi, il nucleo centrale del movimento, che si sviluppò a Chicago in una Scuola ai confini tra psicologia, antropologia e sociologia, influenzata dalla figura di Mead. Questa corrente mise in luce il ruolo dell’interazione sociale nella costruzione dei processi cognitivi e nella strutturazione del sé. Ponendo un forte accento sull’apprendimento come strategia adattiva, ispirò nuove idee nella concezione del nesso stimolo-risposta. Queste idee trovarono espressione nella celebre formula S-O-R (stimolo-organismo-risposta) proposta da
Woodworth,  dove  l’organismo  viene  a  inserirsi  come  termine  di  mediazione  tra  stimolo
esterno e risposta comportamentale.

Il comportamentismo(’20-’60)
Il comportamentismo è stato forse l’unico movimento che abbia impresso il proprio sigillo su un’intera epoca. Le sue radici affondano, da un lato, nelle ricerche sull’apprendimento e sui riflessi  condizionati,  particolarmente  nel  campo  della  psicologia  animale  e  comparata; dall’altro, nelle teorie funzionaliste, oltre ad accogliere in pieno l’influsso della biologia evoluzionista di Darwin. Il suo successo, però, non può essere disgiunto dal quadro storico generale, caratterizzato da un’intensa industrializzazione. La nascita del movimento si può fissare con la pubblicazione, nel 1913, di un articolo di Watson dal titolo La psicologia così come la vede il comportamentista. Innanzitutto ci fu una radicale ridefinizione dell’oggetto di studio della psicologia: non più la coscienza con i suoi contenuti privati e accessibili solo all’introspezione, ma il comportamento osservabile e in linea di principio misurabile, concepito essenzialmente come risposta a stimoli ambientali anche essi identificabili e quantificabili.

Skinner e il neocomportamentismo
La sua psicologia è dominata dal problema del controllo e della modifica del comportamento su basi scientifiche. Cardine di ciò è il concetto di rinforzo, cioè ricompensa (o punizione) che aumenta (o diminuisce) la probabilità di un comportamento. Il suo contributo sperimentale è connesso  alla  distinzione  tra  il  condizionamento  classico  di  Pavlov  e  un  diverso  tipo  di condizionamento,  detto  “operante”.  Mentre  Pavlov  associava  semplicemente  uno  stimolo incondizionato  a  uno  condizionato  che  prima  non  determinava  alcuna  risposta,  Skinner somministra lo stimolo di rinforzo solo dopo che il soggetto ha effettuato un dato movimento in  maniera  spontanea.  Ciò  permette  di  potenziare  la  frequenza  di  quel  movimento, realizzando così un effettivo apprendimento. Le reali funzioni tra gli stimoli rinforzanti e le risposte condizionate sono, per lui, governate da leggi che si possono studiare sperimentalmente.

 
Il cognitivismo e le scienze cognitive (’60-’70)
Gli anni ’60-’70 hanno visto un ritorno in grande stile dei concetti mentali e intenzionali, dell’interesse per le capacità simboliche umane, per la percezione e per tutti quei processi cognitivi che il comportamentismo aveva ignorato. Dal punto di vista storico, il movimento comincia  a  riconoscersi come tale a  partire dal libro di Neisser Psicologia  cognitiva (1967). Ci sono 3 fattori che spiegano come la rivoluzione cognitivista non sia sorta dal nulla:
1. Le linee di connessione tra il cognitivismo e il comportamentismo sono molto fitte, tanto da far pensare che il cognitivismo sia una diretta filiazione del comportamentismo;
2. Il cognitivismo, però, ha radici molto più antiche del comportamentismo;
3. Negli anni successivi alla II g.m. si è assistito a sviluppi materiali e tecnologici che hanno reso possibile l’elaborazione di un quadro teorico in grado di unificare novità di portata storica che hanno realmente indotto a trasformazioni nel modo di vita e nella mentalità.

2-METODI DI RICERCA SOCIALE

La psicologia viene comunemente definita come la scienza che studia il comportamento. L’analisi del comportamento avviene secondo metodi differenti che vanno dall’osservazione fino al cosiddetto esperimento di laboratorio. In quanto scienza, la psicologia è empirica, perché si fonda sull’osservazione diretta dei fatti, è obiettiva, perché si basa su osservazioni che non dipendono dalla soggettività del ricercatore, dispone di meccanismi di autoregolazione, in quanto dati nuovi possono mettere in discussione acquisizioni precedenti, ed è guidata dal “principio della parsimonia”, nel senso che privilegia la spiegazione più semplice. La ricerca empirica parte sempre da una ipotesi che dovrà poi essere verificata. Effetto Zeigarnik_esso si riferisce alla tendenza a ricordare meglio i compiti non portati a termine rispetto a quelli portati a compimento. La Zeigarnik intuì che i compiti portati a termine e quelli non ancora completati avevano destini differenti in termini di memoria e avanzò l’ipotesi che i compiti non terminati generavano un “sistema di tensione” che ne facilitava il ricordo. Il percorso seguito dalla Zeigarnik ci fa comprendere come: 1) si arrivi alla formulazione di un’ipotesi a partire da un’intuizione e con il sostegno di una teoria; 2) si possano ricreare in laboratorio situazioni specifiche in risposta alle quali si osservano determinati comportamenti.

Il concetto di variabile
Si può intendere la variabile come una condizione, un attributo o una caratteristica di una persona o di un evento che varia a seconda delle situazioni o delle persone. Quando si parla di variabili ci si riferisce a delle categorie entro cui gli individui possono assumere diverse posizioni. Secondo Anderson “E’ utile considerare le variabili come domande i valori come risposte”. Sempre secondo Anderson, per comprendere che cos’è una variabile è utile fare preliminarmente  riferimento  al  concetto  di  proprietà  “La  proprietà  è  un  qualcosa  che
caratterizza  alcuni  oggetti,  ma  non  altri.  La  variabile  è  un’insieme  di  proprietà  che  si escludono a vicenda.” Le diverse proprietà di una stessa variabile si definiscono valori; ci
sono variabili quantitative e variabili qualitative: le prime variano in grandezza, le seconde cambiano di genere. Ci sono anche variabili continue e variabili discontinue.

Variabili dipendenti e indipendenti
Una distinzione va fatta tra questi 2 tipi di variabili:
variabile indipendente_ quella che lo sperimentatore manipola direttamente;
variabile dipendente_ è una misura del comportamento del soggetto.


Si può affermare che la variabile indipendente rappresenti lo stimolo, la causa.

Le scale
Secondo Stevens(1951) le scale sarebbero di 4 tipi:
• Nominali_ una scala nominale permette di classificare eventi e oggetti in categorie. A queste categorie può essere assegnato un valore numerico. La funzione delle lettere e dei numeri è puramente nominale e serve solo a identificare le classi e a indicare che differiscono tra loro.
• Ordinali_ una scala ordinale è quella che dispone gli oggetti o gli eventi in basa alla loro grandezza. Queste scale servono a ordinare gli oggetti cui si riferiscono. Per queste esiste un ordinamento, una graduatoria specifica. La scala ordinale consente non solo di classificare gli oggetti, ma anche di disporli in ordine di grandezza. In queste, gli intervalli tra le classi non hanno un valore omogeneo.
• A intervalli_ un buon esempio di scala ad intervalli è fornito dalla misurazione della temperatura in C° con il termometro. Gli intervalli sono regolari. In qualsiasi scala a intervalli si parte dal fatto che esiste un punto zero per convenzione.
• Di rapporto_ queste scale sono caratterizzate da un punto zero reale e da differenze tra i valori numerici. Le info che si possono raccogliere con una scala di rapporti sono molto dettagliate.

L’esperimento di laboratorio
Nella ricerca psicologica tutto prende le mosse dall’osservazione: quanto più accurata è l’osservazione dei fenomeni, tanto più sono attendibili le conclusioni che da essa si possono trarre. Il livello più accurato di osservazione è la cosiddetta osservazione controllata, principio cardine del metodo scientifico. Ciò che forma il carattere distintivo dell’esperimento di lab è la manipolazione diretta della variabile dipendente da parte dello sperimentatore; egli crea delle condizioni e osserva quale effetto queste producono sulla/e variabile/i oggetto di studio. In un esperimento di laboratorio ogni valore della variabile indipendente si definisce condizione sperimentale.

L’errore sperimentale
Si  ha quando il mutamento  della  variabile  dipendente è prodotto da una qualsiasi altra variabile, diversa dalla indipendente. Visto che nell’esperimento di lab ciò che interessa è l’effetto  della  variabile  indipendente  su  quella  dipendente,  se  esistono  altre  variabili  che hanno un rapporto causale con la variabile dipendente e sono confuse con la variabile ind, esse producono un errore sperimentale. Sono 2 le procedure che si possono eseguire per correggere l’errore:
controllo_ per controllare una variabile che potrebbe confondersi con la variabile indipendente, dobbiamo solo limitarci a tenerla costante;
randomizzazione_ (dall’inglese random= a caso) assegnando casualmente i soggetti alle diverse condizione sperimentali saremo certi che qualsiasi altra variabile sarà distribuita secondo il caso.
In un esperimento dobbiamo, poi, garantire 2 cose:
  Validità  interna_  un  esperimento  ha  validità  interna  quando  ci  sono  fondati  motivi  per ritenere che esista realmente una relazione di causa ed effetto tra variabile ind e variabile dip.
  Validità esterna_ con essa si fa riferimento alla possibilità di generalizzare i dati di una ricerca, di estendere i risultati ottenuti a individui e contesti più ampi.


I quasi-esperimenti
Un requisito fondamentale per un esperimento di lab è la diretta manipolazione della variabile ind da parte dello sperimentatore e l’assegnazione casuale dei soggetti alle diverse condizioni sperimentali.  In  qualche  occasione  non  è  possibile  manipolare  la  variabile  ind  o  non  è possibile  controllare  l’assegnazione  casuale  dei  soggetti  alle  condizioni  sperimentali.  In questo caso si parla di quasi-esperimento: si richiama a un modo di analisi e sperimentazioni proprio del metodo sperimentale, senza però soddisfare tutte le esigenze di controllo del metodo sperimentale stesso. Il termine fu introdotto da Cook e Campbell. Per estensione si possono considerare quasi-esperimenti anche quelli in cui non sia possibile controllare tutti gli altri aspetti dell’esperimento stesso.

La ricerca osservazionale
Tutte le indagini che non rispettano i requisiti del metodo sperimentale vanno definite ricerche non sperimentali. Il metodo dell’osservazione si differenzia da quello sperimentale per una serie di ragioni: esso non comporta la manipolazione diretta della variabile indipendente; lo sperimentatore non crea situazioni particolari per accertare se esiste una relazione funzionale tra 2 o più variabili. L’osservazione può svolgersi sul campo, ma anche in lab. 2 tipi di osservazione:
• Osservazione  naturalistica_  l’osservatore  non  disturba  con  la  sua  presenza  il comportamento dei soggetti, ed è fondamentale che il ricercatore non sia “visibile” a quelli che sono oggetto di studio;
• Osservazione  partecipante_  l’osservatore  è  “mescolato”  ai  soggetti  sui  quali  sta compiendo i suoi rilievi.

L’intervista
Le interviste sono classificate in 3 modi:
1. strutturate_ l’intervistatore pone le domande così come sono formulate nel modulo dell’intervista e ne rispetta la successione;
2. semistrutturate_ l’intervistatore è tenuto a porre un certo numero di domande specifiche, ma può anche porne delle altre per una migliore comprensione;
3. non strutturate_ il ricercatore dispone di uno schema che gli fa da guida, ma può variare l’ordine delle domande e aggiungerne altre.
La scelta di un tipo di intervista rispetto ad un’altra dipenderà dagli obiettivi che il ricercatore si era posto, dal numero di persone coinvolte.

Il questionario
Elenco di domande cui un soggetto è chiamato a rispondere. Queste possono essere chiuse o aperte

Il metodo dei test
Un test è uno strumento che comprende prove di diversa natura. Anne Anastasi ha affermato che “Un test psicologico consiste essenzialmente in una misurazione obiettiva e standardizzata di un campione di comportamento.” Un test psicologico deve rispondere ai seguenti requisiti:
• obiettività_ se la somministrazione, la determinazione e l’interpretazione dei punteggi prescindono dal giudizio soggettivo della persona somministratrice;

 • standardizzazione_ si riferisce all’uniformità delle prove, delle condizioni di somministrazione e delle procedure di determinazione del punteggio, in quanto le regole che guidano l’uso di quel test devono essere definite;
• fedeltà, cioè attendibilità;
• validità.

3-LA PERCEZIONE
La percezione viene intesa come presa di coscienza nell’ambito dell’esperienza sensibile. Una domanda: fino a che punto dobbiamo dare credito alle nostre percezioni? In definitiva, in tutti gli esperimenti, non si tratta mai di una soluzione definitiva. Galileo, mentre chiedeva allo scienziato di astrarsi dai dati sensoriali, costruiva e perfezionava il cannocchiale proprio per incrementare l’efficienza dei sensi di cui non bisogna fidarsi. Da cosa traeva origine questa ambivalenza nei confronti della percezione?

Una diversa impostazione del problema
1  secolo  e  ½  di  ricerca  sperimentale  ha  fornito  un  gran  numero  di  prove  che  l’attività percettiva non è e non può essere un ottuso meccanismo di registrazione di dati, ma è invece un complesso e sofisticato meccanismo. Quindi l’attività percettiva viene considerata come
l’insieme concatenato dei processi di raccolta, elaborazione, trasformazione e organizzazione delle informazioni disponibili nell’ambiente in cui si vive. Affinché si abbia una percezione si
devono dare 3 condizioni:
stimolo distale_ un pezzo di mondo che rifletta o emetta qualche tipo di energia, che è distante dall’osservatore;
stimolo prossimale_ consiste nella stimolazione dei recettori sensoriali periferici;
percetto_ che è il frutto dell’elaborazione finale e l’insieme dei percetti forma il nostro mondo fenomenico.

La psicofisica
Il ruolo di mediatore tra gli stati del mondo esterno e la conoscenza che ne possiamo avere è dato  dall’energia  a  cui  il  sistema  percettivo  è  sensibile.  Fechner  definì  “psicofisica”  la
disciplina che doveva studiare il rapporto tra il mondo degli stimoli fisici e quello delle esperienze psicologiche da essi prodotte. Già Weber si era reso conto che il modificarsi della
quantità di energia che colpisce i nostri organi di senso non produce una modificazione equivalente della sensazione. Questa non dipende solo dal modificarsi dell’intensità dello stimolo, ma dipende anche dal livello complessivo di energia che colpisce l’organo di senso in un dato momento. La relazione tra intensità dello stimolo e intensità della sensazione non è lineare, cioè a una stessa variazione della stimolazione non corrisponde una equivalente variazione della sensazione ad essa associata. Sono stati introdotti 2 criteri di misura delle sensazioni:
la  soglia  assoluta,  che  si  riferisce  alla  quantità  minima  di  energia  necessaria  perché  si produca una sensazione riconosciuta dal chi percepisce, ed è soggetta a una variabilità a
seconda dei momenti;
la soglia differenziale, che è la variazione che deve subire l’intensità di un dato stimolo perché un soggetto ne colga il cambiamento e anche questa è soggetta a oscillazioni e interferenze. La costante di Weber misura l’intensità di uno stimolo, dicendoci di quanto esso debba variare per essere percepito come diverso da un altro, ma non ci dice nulla sulla variazione della sensazione.

 

 

Informazione e attività percettiva
Il mediatore energetico veicola informazione. Per informazione si intende ogni generico aumento di conoscenza, cui si accompagna una riduzione dell’incertezza e dell’ambiguità. Un’importante fenomeno percettivo è il completamento amodale: si parla di “amodale” perché la parte nascosta è presente nella nostra esperienza, ma non è specificata nella modalità sensoriale. Una fonte aggiuntiva di info che favorisce il completamento con l’unificazione di parti è dato dalla buona continuazione. Questa è uno dei fattori di organizzazione figurale individuati e descritti nell’ambito della psicologia della Gestalt da Wertheiner.

La figura in rapporto con l’ambiente circostante
L’attività percettiva tiene conto innanzi tutto delle relazioni che si instaurano tra ogni oggetto presente in una scena e la scena nel suo insieme.

Percezione diretta e percezione indiretta
Il filosofo Berkeley fu il primo fautore della percezione indiretta, perché riteneva che la percezione della profondità  spaziale  fosse  il  frutto  dell’integrazione dei dati  visivi con  le conoscenze acquisite attraverso le esperienze tattili e motorie. Helmholtz riteneva che i dati raccolti dagli organi di senso periferico consentissero al percepente di formulare solo delle
ipotesi sulla tridimensionalità del mondo osservato, in quanto essi si dimostrano incompleti e
frammentati. Chiamo inferenza   inconscia quel processo che suppliva, sulla base dell’esperienza passata e delle conoscenze acquisite, i dati insufficienti raccolti dagli organi di senso.

Gli indici della profondità
_ tutti i dati che contribuiscono a determinare e incrementare il rendimento percettivo di profondità spaziale nella terza dimensione. Alcuni degli indici di profondità, come accomodazione,convergenza,disparità binoculare, dipendono dal funzionamento degli organi sensoriali.
Accomodazione_ si modifica la curvatura del cristallino per consentire la messa a fuoco sulla retina di oggetti che so trovano a distanze diverse dall’osservatore;
Convergenza_ cioè la rotazione degli occhi nella loro orbita, in modo da puntare entrambi sull’oggetto osservato;
Disparità binoculare o retinica_ dà luogo, a livello cerebrale, alla fusione di un’unica immagine delle due immagini, leggermente diverse, registrate da ciascun occhio producendo una dislocazione in profondità.

Percepire per agire e conoscere
Di recente ci si è resi conto che la percezione deve assolvere a due funzioni diverse e complementari: raccogliere ed elaborare le informazioni necessarie sia al sistema cognitivo sia al sistema motorio.

Vedere il movimento: il movimento apparente
Movimento apparente o stroboscopio_ una serie di accadimenti vengono visti come movimento quando l’accensione e l’estinzione di due punti luminosi avviene in un ambito di precisi rapporti di spazio (distanza tra due punti), di tempo (intervallo tra accensione e estinzione) e di energia (intensità della luce dei punti). Dopo varie ricerche si è arrivati a capire che l’attività percettiva tende a conservare il più possibile la stabilità di un ambiente in cui avvengono continue trasformazioni e spostamenti.


Vedere il movimento: movimento indotto e analisi vettoriale
Il  fenomeno  del  movimento  indotto  (Dunker  ’29)  si  verifica  quando  il  movimento  di  un elemento della scena osservata viene attribuito ad un altro elemento. Poiché lo schema di riferimento viene automaticamente assunto come maggiormente stabile rispetto ai singoli elementi al suo interno, il movimento sarà sempre attribuito al singolo elemento, anche quando è lo schema di riferimento che si muove. Il sorgere e il tramontare del sole è forse il più evidente e convincente esempio di movimento indotto.

La luce e il colore
Le dimensioni fisiche della luce sono la luminanza e la riflettanza, che riguarda la proprietà che una superficie ha di riflettere una maggiore o minore quantità di luce. Le dimensioni fenomeniche della luce sono: la chiarezza_ si riferisce all’impressione che l’osservatore ha dell’intensità e dei mutamenti nella luce che colpisce gli oggetti; la bianchezza_ si riferisce all’impressione che l’osservatore ha del diverso colore.

4-L’APPRENDIMENTO
La ripetizione dell’esperienza è la condizione necessaria perché si verifichi un apprendimento. L’apprendimento riguarda tutta la sfera della personalità e non solo l’ambito delle conoscenze e delle capacità esecutive. Anche se c’è un accordo sulla definizione di apprendimento, per la sua interpretazione ci sono diverse teoria contrapposte. Da un lato ci sono le teorie associazioniste (o stimolo-risposta), di derivazione empirista, che confluiscono nell’approccio comportamentista., che sostengono che il meccanismo di acquisizione di comportamenti nuovi avviene con l’associazione tra eventi o stimoli presenti nell’ambiente e le risposte emesse dai soggetti: più specificatamente, il comportamentismo assume che il soggetto registra passivamente gli stimoli ambientali e quindi ciò che si impara è una copia di ciò che si è fatto esperienza. Dall’altro lato ci sono le teorie cognitiviste classiche, come la Gestalt, che fondano l’apprendimento su un processo di elaborazione intelligente degli stimoli presenti nell’ambiente: esse affermano che il soggetto interviene sull’ambiente attivamente, usando diverse funzioni cognitive (percezione, memoria, attenzione) per elaborare gli stimoli nuovi.

Il condizionamento classico (o pavloniano)
Si parla di apprendimento tramite condizionamento quando i comportamenti o le risorse vengono appresi in associazione alla comparsa di specifici stimoli. Nel caso del condizionamento classico ci si riferisce solo a risposte fisiologiche di tipo riflesso, cioè a comportamenti automatici evocati da stimoli specifici. Gli stimoli condizionati sono in grado di evocare certe risposte solo dopo essere stati ripetutamente percepiti dal soggetto come abbinati agli stimoli che naturalmente evocano quelle risposte. Lo stimolo condizionato assume il valore di anticipazione di quello incondizionato e produce una stessa risposta comportamentale. A Pavlov si deve la formulazione della teoria del condizionamento classico. Lo stimolo che evoca il riflesso viene definito stimolo incondizionato(SI). La risposta originaria data allo stimolo è la risposta incondizionata(RI), mentre quella appresa è un riflesso condizionato o risposta condizionata(RC). Quindi egli dimostrò che uno stimolo inizialmente neutro, presentato per molte volte in stretta contiguità temporale con uno stimolo che per sua natura evoca una risposta riflessa è in grado di evocare una risposta riflessa simile.
-Acquisizione della risposta condizionata_ questo apprendimento non è immediato, esiste un

 

 


periodo di acquisizione della risposta condizionata. La procedura di apprendimento è efficace solo se lo stimolo condizionato viene presentato prima dello stimolo incondizionato, in modo che il primo venga percepito come precursore dello stimolo che evoca la risposta riflessa.
-Estinzione e recupero spontaneo della risposta condizionata_ dopo un certo numero di prove in cui lo stimolo condizionato non sia seguito da quello incondizionato la risposta acquisita si estingue gradualmente, anche se ciò non vuol dire che l’associazione tra gli stimoli si sia annullata.
-Variabili nel condizionamento classico_ sono 3: l’intensità e/o la salienza degli stimoli incondizionati  e  di  quelli  condizionati;  l’intervallo  di  tempo  tra  SC  e  SI  molto  breve;  la frequenza degli accoppiamenti degli stimoli.

Condizionamento avversivo
Col condizionamento classico possono anche essere condizionate risposte che si producono a seguito di stimoli incondizionati spiacevoli. In questo caso gli stimoli sono chiaramente
avversivi

Condizionamento di ordine superiore
Pavlov dimostrò che era possibile condizionare un cane al solo stimolo luminoso (stimolo di secondo ordine), grazie all’abbinamento con lo stimolo condizionato, senza che fosse mai
comparso lo SI. Un condizionamento di questo tipo viene detto condizionamento di ordine superiore.

Generalizzazione e discriminazione
Generalizzazione_ ci si riferisce a quel fenomeno di estensione delle risposte condizionate a tutti gli stimoli molti simili a quello condizionato. La risposta generalizzata, però, è correlata alla somiglianza con lo stimolo condizionato originario. Il processo di generalizzazione è automatico e non richiede alcun intervento di apprendimento supplementare, dal momento che la tendenza a generalizzare l’apprendimento è spontanea e presente in tutte le specie. Condizionamento discriminatorio_ si tratta di seguire la stessa procedura del condizionamento classico, solo che si vuole che i faccia riferimento a un solo stimolo.

Condizionamento classico nell’uomo
Gli esempi di condizionamento umano riguardano soprattutto le risposte emotive (Watson e Rayner). Watson, il caposcuola del comportamentismo, aveva definito la paura come un’emozione primaria.

Condizionamento operante
Abitualmente noi dobbiamo apprendere di comportamenti nuovi che attivamente producano cambiamenti nell’ambiente in funzione del raggiungimento di uno scopo. Le modificazioni del comportamento che aumentano le capacità o le conoscenze in funzione di un’interazione attiva  e  funzionale  con  l’ambiente  vengono  definite  risposte  strumentali,  perché  sono strumenti che permettono di raggiungere degli effetti desiderati nell’ambiente. Skinner le chiamerà risposte operanti, perché operano sul mondo al fine di ottenere un certo effetto.

Thorndike e l’apprendimento per prove ed errori
Egli individuò la forma più caratteristica di apprendimento sia degli animali che degli uomini nell’apprendimento per prove ed errori. I suoi esperimenti erano condotti su dei gatti, privati di

 

cibo da molte ore, che venivano messi uno per volta nella gabbia-problema, fuori dalla quale era messo del cibo visibile all’animale. Il gatto veniva reinserito varie volte nella gabbia e egli notò che l’animale faceva sempre meno movimenti sbagliati per raggiungere lo scopo. Egli definì questa procedura come “apprendimento per prove ed errori”. La relazione tra tentativi casuali e azione efficace fu chiamata legge dell’effetto_ le azioni che producono effetti soddisfacenti hanno più probabilità di essere ripetute quando si presenti la stesa situazione, mentre quelle che producono effetti spiacevoli o inefficaci hanno progressivamente meno probabilità di essere ripetute.
Motivazione_ il successo che si ottiene con un comportamento agisce come premio e rinforzo per l’azione compiuta.
Egli aveva verificato che la punizione è assai meno efficace nel diminuire la probabilità che un certo comportamento si verifichi di quanto lo sia il premio nell’aumentarne la probabilità. Il premio ha maggior potere della punizione.

Skinner e l’apprendimento per condizionamento operante
Egli ha dato i maggiori contributi nell’ambito dell’apprendimento condizionato. Fu lui a definire le risposte operanti come quei comportamenti che producevano un effetto sull’ambiente e condizionamento operante quel processo di apprendimento per cui gli effetti di una risposta
operante (premio o punizione) determinano la probabilità che quella risposta sia emessa. Egli
ideò un dispositivo che consisteva in una gabbia.
-Acquisizione_ nel comportamento operante, un apprendimento, cioè una modificazione del comportamento relativamente stabile, viene acquisito solo a condizione che il nuovo comportamento sia seguito da un rinforzo.
-Estinzione_ è il processo di riduzione della responsabilità che un comportamento condizionato venga emesso in assenza di rinforzo. Ogni comportamento ha una resistenza differente all’estinzione. Quando i comportamenti appresi diventano automatizzati o abitudinari i rinforzi non sono più necessari e il comportamento non si estingue.
-Generalizzazione  e  discriminazione_  uguale  a  quello  del  condizionamento  classico;  il rinforzo dato a un certo comportamento estende il suo effetto anche a comportamenti simili.
1) I rinforzi_ si intendono quegli stimoli o effetti che seguono una risposta e che determinano la probabilità che la risposta medesima sia emessa. Questo è la condizione necessaria e sufficiente perché si realizzi un apprendimento. Sono classificati in base a 3 criteri: 1) la valenza che hanno per il soggetto e implica la distinzione tra rinforzi positivi e negativi; 2) i bisogni sui quali agiscono, sulla base dei quali i distinguono i rinforzi primari dai secondari;
3)la modalità di somministrazione, che può essere continua o intermittente. I rinforzi positivi sono quelli che generano un effetto piacevole e di soddisfacimento per il soggetto e fungono da  ricompensa per un  dato  comportamento;  i  rinforzi  negativi  sono  ciò  che  aumenta  la probabilità di far cessare delle punizioni o di rimuovere uno stimolo negativo o spiacevole per il soggetto con un comportamento di fuga. I rinforzi primari riguardano ciò che ha importanza per la sopravvivenza dell’organismo; i rinforzi secondari sono stimoli neutri che inizialmente non hanno valore, ma lo assumo coll’esperienza. I rinforzi continui vengono dati a seguito di ogni risposta desiderata, i rinforzi parziali vengono dati saltuariamente. Ci sono 4 schemi di somministrazione di rinforzi parziali: 1) schema a intervallo fisso, in cui si prevede che una risposta sia rinforzata dopo un periodo di tempo prefissato; 2)schema a intervallo variabile, si prevede che una risposta sia rinforzata dopo un periodo variabile; 3) schema a rapporto fisso, il rinforzo sarà fornito dopo u numero prefissato di risposte; 4) schema a rapporto variabile, il rinforzo sarà fornito dopo un numero di risposte variabile e impredicibile dal soggetto. 2) La punizione_ riduce la probabilità che un comportamento venga emesso. Essa inibisce un

12
 


comportamento,  non  lo  estingue,  è  un  mezzo  molto  comune  e  talvolta  necessario  per controllare e modellare il comportamento. La sua efficacia è molto inferiore rispetto a quella del  rinforzo.  Skinner  riteneva  che  un  modo  molto  più  efficace  per  sopprimere  un comportamento indesiderato fosse quello di rinforzare positivamente un comportamento con esso  incompatibile,  però  bisogna  sempre  vedere  se  un  soggetto  conosca  o  no  un comportamento  alternativo  a  quello  indesiderato.  Ogni  punizione  produce  un’emozione negativa che a volte può generare altri comportamenti indesiderati. Skinner riteneva che la punizione, come stimolo avversivo, fosse efficace solo per il condizionamento classico, ma non per il condizionamento operante. 3) La variabili nel condizionamento operante_ alcune variabili influenzano il condizionamento operante e le più importanti sono: 1) la forza o la salienza dei rinforzi o delle punizioni, nel senso che maggiore è la ricompensa o la punizione tanto maggiore è la probabilità che quest’ultima venga ripetuta o inibita; 2) l’intervallo di tempo  tra  comportamento  e  rinforzo,  cioè  tanto  più  breve  è  il  tempo  tra  risposta  e ricompensa, tanto maggiore sarà la possibilità che la risposta venga appresa; 3) la frequenza delle conseguenze, l’acquisizione dei comportamenti ha un andamento diverso a seconda della procedura di rinforzo che si adotta. 4) Il modellamento_ nel condizionamento operante il rinforzo viene dato solo dopo che il comportamento desiderato è stato emesso, ma non è sempre possibile che i soggetti siano in grado di emettere da soli quel comportamento. In questi casi si procede per approssimazioni successive, cioè tramite un procedimento che consiste nel rinforzare ogni risposta che si approssima se4mpre più a quella desiderata, fino a che non compaia e questo procedimento viene detto modellamento (shaping).

Il condizionamento operante nell’uomo
La maggior parte degli esseri umani viene condizionata con rinforzi secondari come il danaro, le lodi. Esiste un principio, noto come principio di Premack che estende il valore di rinforzo anche alle attività, nel senso di affermare che un’attività piacevole può agire come rinforzo per un’attività spiacevole. Il biofeedback è una procedura di autoregolazione di una funzione fisiologica basata su un’informazione di ritorno (feedback) che giunge al soggetto, tramite un segnale che gli indica quando è stato in grado di produrre un certo cambiamento fisiologico desiderato.

Il comportamentismo intenzionale di Tolman
Alcuni psicologi nell’ambito del comportamentismo sostenevano che potevano essere ipotizzati dei costrutti mentali, che in quanto tali non erano direttamente osservabili. Alcuni divennero  sostenitori  della  teoria  S-O-R,  dove  la  variabile  indica  un  tipo  di  mediazione mentale tra stimolo e riposta. Il primo autore che mostrò questa apertura alle considerazioni di costrutti  mentali ipotetici  fu  Tolman  che  definì  la  sua  teoria  come comportamentismo intenzionale. Essa si fonda su alcuni punti di base: ogni comportamento fa riferimento a un’azione o a una serie di azioni finalizzate a uno scopo, cioè presuppone un’intenzione; esistono delle variabili intervenienti che sono responsabili della mediazione tra la situazione stimolante e la risposta dei soggetti. Egli dimostrò come i soggetti, nel mettere in atto un comportamento, utilizzano i dati presenti nell’ambiente e la sua organizzazione spaziale, costruendosi una vera e propria mappa cognitiva. Inoltre dimostrò che i soggetti scelgono di eseguire quelle azioni che permettono loro di raggiungere lo scopo nel modo più breve e facile, secondo un principio detto principio del minimo sforzo. Un altro fenomeno che i suoi esperimenti misero in evidenza fu quello dell’apprendimento latente, cioè esprimenti dove veniva dimostrato che gli animali imparano l’organizzazione spaziale del loro ambiente attraverso l’esplorazione e quindi l’apprendimento non verrebbe esibito fino a che non si

 

individua uno scopo da raggiungere. In questo caso il rinforzo non era necessario per apprendere, come nella concettualizzazione di Skinner, ma per manifestare un apprendimento, cioè utile per dare una prestazione.

Teoria dell’apprendimento sociale: l’apprendimento osservativo
Questa teoria, la cui formulazione è stata data da Bandura, rappresenta una sintesi tra i principi del condizionamento operante e quelli di un approccio cognitivo. Sviluppatasi alla fine degli anni ’70 questa teoria si colloca nella prospettiva della psico cognitiva. Questa teoria sostiene che gran perte del comportamento umano si ottiene in modo indiretto, osservando le risposte date da un altro soggetto (un modello) e poi cercando di imitarlo. Sono molti i fattori che intervengono a determinare l’efficacia dell’apprendimento imitativo:
  In primo luogo dipende dall’attenzione;
  In secondo luogo ci sono processi di rappresentazione in memoria di ciò che si è osservato;
  Il terzo fattore è la capacità di riproduzione motoria;
  Il quarto fattore indispensabile è il rinforzo. Bandura, come Tolman, riteneva che il ruolo del rinforzo fosse soprattutto legato all’esecuzione della risposta più che all’apprendimento.
Nella prospettiva dell’apprendimento sociale un efficace programma di apprendimento umano dal punto di vista pratico dovrebbe basarsi: 1) sull’osservazione di un certo comportamento;
2) sul rinforzo diretto dato dal soggetto, dopo che ha emesso la risposta appresa per imitazione. La differenza di base tra questa e quella del condizionamento operante risiede nel riconoscimento del ruolo centrale dei processi mentali nella pianificazione delle azioni.

L’apprendimento nella teoria della Gestalt
Gli psicologi della Gestalt si muovevano in una prospettiva teorica totalmente diversa da quella delle teorie comportamentiste, Erano interessati alle leggi generali che governavano la percezione umana e i processi di soluzione di problemi, mentre l’apprendimento era considerato un fenomeno secondario. Questo era determinato dal modo in cui i processi di soluzione di problemi portavano ad analizzare la situazione presente e le tracce dell’esperienza passata. I gestaltisti attaccarono Thorndike e l’apprendimento per prove ed errori, in quanto sostenevano che la casualità della soluzione del problema da parte degli animali studiati da Thorndike era dovuta alla specifica condizione sperimentale che non consentiva all’animale di esprimere un comportamento intelligente. Gli esperimenti di Kohler sugli scimpanzé erano tesi a dimostrare come gli animali realizzassero degli apprendimenti per intuizioni (insight). Ciò Che a lui interessava capire era se i tentativi dello scimpanzé fossero casuali o finalizzati allo scopo in modo intelligente. L’interpretazione che egli diede era che i tentativi erano intelligenti nella misura in cui l’animale verificava la soluzione. Una volta trovata la soluzione gli animali, quando venivano posti in una condizione analoga, ripetevano con successo l’azione utile: questa ripetizione dl comportamento dopo l’insight fu definita apprendimento per insight.

5-LA MEMORIA
Dal punto di vista evoluzionistico la memoria si è sviluppata per permettere ad animali e uomini di affrontare un mondo molto complesso, che però ha delle regolarità che rendono necessario l’uso dell’esperienza appresa. La memoria, quindi, si esprime come capacità di
ricordare gli eventi passati, le immagini, le idee, le informazioni e le abilità precedentemente apprese, ed è costituita da un insieme di meccanismi e di funzioni. Non è un sistema unitario,
ma è formato da componenti. Gli eventi originali che si apprendono vengono continuamente rielaborati, riorganizzati, smembrati per conservarne solo gli elementi comuni.

 

Tradizionalmente si pensava che l’apprendimento riguardasse la fase di acquisizione delle conoscenze che precede la fase della memorizzazione. Il comportamentismo non considerava la memoria come oggetto di studio, ma solo il comportamento che dimostrava se certe informazioni erano state apprese o meno. L’approccio cognitivista non distingue tra processi di apprendimento e di memoria.

I meccanismi di elaborazione e codifica
Le informazioni che devono essere apprese entrano nel sistema cognitivo attraverso meccanismi di codifica che possono essere attivati intenzionalmente, cioè secondo delle strategie pianificate, o in modo automatico.
Nel caso dell’apprendimento cosiddetto incidentale, cioè non volontario e quindi non pianificato, l’efficacia della  codifica  dipende  da  quanto  il  materiale  è stato elaborato. La codifica incidentale non è consapevole. Nella memoria immediata o a breve termine l’informazione viene codificata temporaneamente, prima di passare alla memoria permanente o a lungo termine. Il processo di elaborazione consiste in un forma di ripasso o reiterazione del materiale nel formato visuo-spaziale o in quello fonologico. La ripetizione meccanica, che serve solo a conservare l’info per poco tempo, viene anche detta ripasso di mantenimento. A questo viene contrapposto il ripasso elaborativi, che ha lo scopo di mantenere disponibile le
info per il tempo necessario perché vengano interpretate e integrate con le altre.

L’organizzazione delle tracce mnestiche
Oltre la categorizzazione e le organizzazioni tematiche esistono altre strategie di organizzazione che vengono definite mnemotecniche, e che hanno il vantaggio di ridurre di molto la quantità di info che deve essere ricordata. La loro utilità è sempre quella di fornire uno  schema  organizzativo  a  materiale  non  strutturato.  La  più  nota  mnemotecnica  per immagini è il metodo dei loci, che consiste nell’individuare un numero di elementi lungo un percorso abituale, perciò molto noto, nel crearsi un’immagine mentale di quegli elementi e associare a ogni immagine quella dell’elemento da ricordare. Quando le info da apprendere hanno già delle relazioni tra loro, allora il compito consisterà nell’individuare il tipo di legame che c’è tra i vari elementi e usare quello per guidare la codifica.

Il contesto
Il contesto di apprendimento viene codificato con le info da apprendere e si riferisce a molti e diversi tipi di situazioni concomitanti all’apprendimento: in primo luogo all’ambiente, ma anche agli elementi associati allo stimolo che vengono percepiti con questo, nonché allo stato emozionale e alle conoscenze attivate nella situazione specifica di apprendimento. Anche lo stato emotivo in cui ci si trova durante l’apprendimento rientra nella definizione generale di contesto; infatti si tratta del contesto emozionale. Esiste infine un altro tipo di contesto che è quello  cognitivo,  cioè  sono  tutte  quelle  conoscenze,  associazioni  di  idee,  riferimenti concettuali che vengono attivati nel momento dell’apprendimento. L’idea che le info vengano codificate insieme a elementi appartenenti ai vari tipi di contesto presenti al momento dell’apprendimento è contenuta nel principio di specificità di codifica, formulato da Tulving e Thomson. Baddeley distingue tra contesto interattivo, che fa riferimento a un contesto che modula e modifica il modo in cui uno stimolo viene percepito e codificato, e un contesto indipendente, che si riferisce a informazioni di contesto che vengono immagazzinate insieme allo stimolo, ma non lo modificano.

 


Elaborazione intensiva o distribuita nel tempo?
Nei processi di apprendimento bisogna anche tener conto di fattori quantitativi, e cioè di quanto riusciamo ad elaborare e apprendere in relazione al tempo e alla distribuzione del tempo che dedichiamo al compito. E’ stato dimostrato che in generale è meglio distribuire nel tempo le prove di apprendimento e questo è il fenomeno conosciuto come distribuzione della pratica.

L’immagazzinamento dell’informazione
A conclusione del processo di elaborazione, l’informazione viene archiviata sotto forma di rappresentazione mestica o traccia mestica. In quale forma il sistema cognitivo conserva l’informazione elaborata? Innanzi tutto dobbiamo distinguere tra info che vengono archiviate temporaneamente  nella  memoria  a  breve  termine  e  quelle  che  si  mantengono  a  lungo termine nella  nostra mente.

Rappresentazione del significato delle conoscenze
I primi modelli sulle rappresentazioni delle conoscenze si sono occupati dei concetti e in particolare di formulare delle ipotesi su come questi si formassero nella mente degli individui e su quale fosse la loro organizzazione. A partire dagli anni ’60, per potere spiegare la
comprensione del linguaggio naturale, Collins e Quillian misero a punto un programma per
calcolatori, il TLC. Secondo questo modello i concetti sono organizzati in una struttura gerarchica a rete, che rispetta l’organizzazione logica di inclusione delle categorie. Un effetto fondamentale che si verifica lungo la rete è quello della propagazione dell’attivazione, cioè, una  volta  che  viene  attivato  un  concetto,  si  attivano  le  conoscenze  ad  esso  connesse. L’effetto di facilitazione trovato da Mayer è noto come priming semantico. Quindi la propagazione dell’attivazione e il priming semantico sono concetti molto importanti che ci aiutano a comprendere i meccanismi del ricordo.

Gli schemi
Un altro tipo di modelli fa riferimento al mantenimento delle conoscenze in strutture, che si estendono  oltre  il  livello  di  singoli  concetti  e  che  vengono  definiti  schemi.  Affinché  uno schema si formi nella nostra mente è necessaria la ripetizione di esperienze simili, da cui estrarre  caratteristiche  comuni.  Questi  hanno  un  nucleo  fisso  (“valore  di  dafault”)  che permane stabilmente e componenti variabili, fornite dalle esperienze, che continuamente li arricchiscono e/o modificano. Essi rappresentano la conoscenza a qualsiasi livello di astrazione. Un’altra funzione importante dello schema consiste nel fatto che guida la percezione e il riconoscimento, perché mi permette di selezionare le informazioni che è utile ricavare dall’ambiente, in funzione dei miei scopi.

Il ricordo
Una  volta  che  l’info  è  stata  immagazzinata  è,  in  linea  di  massima,  disponibile  alla rievocazione. A proposito dell’espressione del ricordo si deve distinguere tra forme implicite e quelle implicite. La memoria esplicita_ si riferisce a una manifestazione del ricordo di info, precedentemente apprese, che è intenzionale e consapevole. La memoria implicita_ si riferisce a delle modificazioni del comportamento o nella esecuzione di compiti, che sono prodotte da esperienze precedenti.

 

 

 

Chiavi di accesso al ricordo
I processi di recupero prendono sempre avvio da un suggerimento o indizio, che fornisce la chiave d’accesso all’informazione ricercata. L’informazione medesima non è accessibile se l’indizio da cui si parte è inappropriato. Come si può sapere se un indizio è appropriato? Per rispondere dobbiamo rifarci a un concetto e cioè alla specificità di codifica_ il ricordo è più
efficace nella misura in cui il sistema cognitivo ristabilisce la situazione originale di apprendimento.

Condotte di ricordo: libero, guidato, riconoscimento + organizzazione del ricordo
Ci sono differenti condotte di ricordo intenzionale:
o Ricordo libero_ qui è il contesto della situazione di apprendimento che viene fornito come chiave d’accesso al ricordo;
o Ricordo guidato_ qui, oltre le info di contesto situazionale, vengono fornite anche informazioni concettuali, che rimandano al contesto cognitivo del soggetto, poiché si assume che la categoria di appartenenza di una parola venga automaticamente inferita durante il suo apprendimento;
o Riconoscimento_ qui l’indice di richiamo coincide con l’informazione da richiamare alla mente e quindi, oltre tutte le info dei due ricordi, viene anche fornita l’informazione percettiva. La sovrapposizione tra indici di richiamo e informazione da ricordare aumenta passando dal ricordo  libero  a  quello  guidato,  al  riconoscimento,  ed  è  proprio  in  funzione  di  tale sovrapposizione che ci attendiamo che aumenti anche al quantità di ricordo che i soggetti riescono a ottenere passando da una condotta all’altra. La discriminabilità della traccia è una caratteristica che facilita la ricerca in memoria durante il recupero. I materiali organizzati producono un miglior ricordo. Molti studi hanno dimostrato che l’uso di strategie differenziate, finalizzate alla ricerca attiva in memoria, migliorano sensibilmente le performance di ricordo.

Fedeltà e ricostruttività della memoria
La relazione tra conoscenza generale e il ricordo di eventi specifici è molto stretta e avviene nella doppia direzione: l’esperienza di un evento arricchisce e modifica lo schema generale di quel tipo di evento e lo schema permette la ricostruzione di un evento specifico, mediante inferenze plausibili ( inferenza = deduzione intesa a provare e sottolineare una conseguenza logica). Bartlett nel ’32 inserì per la prima volta il concetto di schema, come struttura concettuale in cui la conoscenza di ogni individuo è organizzata e che guida la comprensione del mondo, affermando che la memoria è un’organizzazione dinamica di tracce, disponibile come riferimento per fornire nel presente risposte agli stimoli ambientali e suscettibile di innovazioni e aggiornamenti. Una forte emozione può danneggiare sia la codifica sia il ricordo dei fatti.

La dimenticanza
Anche l’oblio ha , entro certi termini, un potere adattivo. E’ esperienza di tutti che si è in grado di ricordare eventi o informazioni apprese da molto tempo, mentre non si è in grado di ricordare un evento accaduto la scorsa settimana. Il trascorrere del tempo, da solo, non costituisce un indice in grado di spiegare la possibilità o meno di ricordare un fatto.

La curva dell’oblio
Un famoso psicologo tedesco, Ebbinghaus, fu il primo alla fine dell’800 a dedicare all’oblio degli studi sperimentali sistematici, usando come soggetto se stesso. Al contrario dell’apprendimento che presentava un andamento lineare, l’oblio presentava un andamento

 

che assomiglia a una funzione logaritmica, cioè a dire che da principio vi è una dimenticanza rapida e consistente che da un certo momento in poi progredisce lentamente e tende poi a stabilizzarsi. Le conoscenze procedurali, cioè le abilità complesse automatizzate, non sembrano essere suscettibili della stessa dimenticanza delle conoscenze semantiche.

Cause dell’oblio
L’oblio è un processo non direttamente osservabile, quindi sono state fatte nel tempo diverse ipotesi sui fattori che lo potevano determinare.
-Ipotesi  di  decadimento_  le  tracce  mnestiche  depositate  in  memoria,  se  non  vengono riattivate, con il tempo tendono a dissolversi, a svanire.
-Ipotesi di interferenza_ si basa sul concetto che attività e esperienze nuove interferiscono con la ritenzione del materiale già acquistato. Jenkins e Dallenbach dedussero che anche le normali attività svolte da una persona interferiscono con l’apprendimento precedente, aumentando la dimenticanza.
Il  tipo  di  interferenza  viene  definita  come  retroattiva,  perché  produce  i  sui  effetti  sulla ritenzione passata; più attività svolgiamo dopo l’apprendimento più è probabile che dimentichiamo. In generale si pensa che, nel caso dell’interferenza, la traccia originaria venga oscurata  dalla  successiva,  ma  non  distrutta.  Un  secondo  tipo  di  interferenza  è  definite
proattiva, perché i suoi effetti vengono prodotti sulle ritenzioni future; sarebbe l’apprendimento
passato  che  influenza  il  ricordo  della  traccia.  Sembra  che  la  probabilità  di  dimenticare qualcosa a causa dell’interferenza di un’altra info appresa in precedenza dipenda anche dalla relazione che c’è tra le info.
-Ipotesi dell’impossibilità di accesso al ricordo_ un’altra ipotesi dell’oblio sarebbe quella data da Tulving, secondo cui la dimenticanza potrebbe essere dovuta alla mancanza di un appropriato suggerimento, cioè si tratterebbe di temporanea inaccessibilità.
-Fattori emozionali_ le emozioni intense non favoriscono né l’attenzione, né l’apprendimento, né
il ricordo, e quindi indirettamente possono essere causa di una temporanea dimenticanza. Per avere
un rendimento cognitivo efficiente occorrerebbe avere un livello medio di attivazione emotiva.
-Cause organiche_ alcune forme di oblio possono avere una base organica, cioè possono essere originate da danni cerebrali provocati da traumi. In questo caso il termine va più opportunamente sostituito con quello di amnesia, che è di 2 tipi: amnesia anterograda, se la perdita di memoria è riferita a eventi successivi al danno cerebrale; amnesia retrograda, se la perdita riguarda gli eventi accaduti prima del danno.

L’architettura cognitiva della memoria
La memoria è formata da più componenti e quindi la memoria umana è vista come un complesso di sistemi interconnessi. Atkinson e Shiffrin nel ’68 proposero il primo modello multicomponenziale della memoria_ i sistemi di memoria, descritti per alcune loro caratteristiche specifiche, erano 3:
1. la memoria sensoriale (RS)_ che conserva per un breve periodo di tempo l’informazine che proviene dagli organi di senso;
2. la memoria a breve termine (MBT)_ dove l’informazione proveniente dal registro sensoriale può essere conservata e trasferita, tramite il processo della reiterazione, nella memoria a lungo termine;
3. la memoria a lungo termine (MLT)_ parte dell’informazione proveniente dalla MBT viene ricodificata e mantenuta per un tempo indefinito.

Il registro sensoriale(o memoria sensoriale)
Ha la funzione di trattenere lo stimolo percettivo nella memoria per un tempo brevissimo dopo la sua comparsa. In questa memoria sensoriale vengono conservate le caratteristiche fisiche degli stimoli, registrate attraverso gli organi di senso; non c’è ancora nessuna elaborazione che conduca al riconoscimento del significato degli stimoli stessi.

La memoria a breve termine
Nella sua iniziale modellazione la MBT è un sistema di memoria che ha la funzione di trattenere nella mente cosciente l’informazione che proviene dal registro sensoriale per il tempo utile a svolgere quei compiti cognitivi per i quali quell’info sia necessaria. Quante info può contenere la nostra coscienza immediata? Un numero molto modesto. Infatti il sistema a breve termine è a capacità limitata. La capienza media della MBT nell’adulto normale corrisponde a circa 7 unità di informazione. L’ampiezza della MBT di un singolo individuo viene chiamata span di memoria. La sua capienza può essere aumentata se si fanno dei raggruppamenti (chunks) delle unità di info da ricordare. Il tempo in cui l’info rimane nella MBT è di pochi secondi; solo la reiterazione ne consente la permanenza. La MBT è stata riconcettualizzata e definita come memoria di lavoro. Questa consente la rappresentazione nella  coscienza  dei  risultati  parziali  che  provengono  dai  compiti  cognitivi  che  si  stanno
svolgendo. Il modello della memoria di lavoro è costituito da più componenti: un processore
centrale chiamato esecutivo centrale, che presiede a tutte le operazioni cognitive di tipo intenzionale, e 2 magazzini che mantengono temporaneamente l’info necessaria per le operazioni stesse, che sono il ciclo fonologico, deputato al mantenimento del materiale verbale, e il taccuino visuo-spaziale deputato al mantenimento dell’info visivo-spaziale.
I. Esecutivo centrale_ ha molte funzioni: pianifica le azioni in funzione di uno scopo, recupera le info necessarie per l’esecuzione del compito che sta svolgendo sia dai magazzini a breve termine sia da quelli a lungo termine;
II. Il ciclo fonologico_ mantiene temporaneamente l’info fornita dal linguaggio ascoltato o letto e, attraverso il processo della ripetizione, mantiene l’info disponibile al sistema. La quantità di info che può contenere non viene più stabilita in base al numero di unità di informazione conservata, ma in base al tempo di pronuncia.
III.  Il  taccuino  visuo-spaziale_  è  deputato  a  conservare  temporaneamente  l’informazione visiva e spaziale per mantenerla disponibile per l’esecuzione di compiti immaginativi da parte dell’esecutivo centrale.

Sistemi di memoria a lungo termine
La MLT non è più considerata un sistema unitario. I sistemi di questa memoria sono 4:
1) Il sistema di rappresentazione percettiva (PRS)_ è stato concettualizzato da Tulving e Schacter.  Riguarda  la  rappresentazione  in  memoria  delle  caratteristiche  percettive  degli oggetti e delle parole, viste e udite, quindi si tratta di un sistema presemantico, cioè l’info trattenuta non implica accesso al significato di oggetti e parole;
2) Il sistema procedurale_ è deputato all’immagazzinamento delle abilità percettive, motorie e degli effetti del condizionamento. Il modello di rappresentazione delle conoscenze procedurali più noto è quello degli script (copioni) di Schank e Abelson;
3) Il sistema semantico_ contiene tutta la conoscenza generale sul mondo che ciascuno individuo possiede: linguaggio, simboli, algoritmi etc. E’ un sistema di conoscenza esplicita, nel senso che contiene informazioni che possono essere espresse;
4) Il sistema episodico_ formato dalle rappresentazioni che riguardano eventi o episodi del passato direttamente esperiti dal soggetto, cioè episodi specifici collegati al luogo e al tempo

 

dell’esperienza di apprendimento del soggetto.

6-LINGUAGGIO E COMUNICAZIONE
Il linguaggio è il prodotto di un’attività cognitiva complessa che accompagna buona parte delle nostre interazioni quotidiane.

Modelli della comunicazione
I modelli via via formulati per spiegare il modo in cui il linguaggio veicola le info sono diversi e hanno portato a elaborazioni sempre più complesse dei contenuti. Shannon e Weaver_ una fonte (X) invia per mezzo di un trasmettitore (T), a un destinatario (Y) che è in grado di decodificarlo  (D),  un  messaggio  (M)  tramite  un  canale  (C).  Le  funzioni  del  linguaggio riguardano situazioni sia personali sia sociali e possono essere definite come segue: funzione ideativi, con cui strutturiamo l’esperienza sia essa interna sia esterna; funzione interpersonale, che stabilisce o mantiene relazioni sociali con cui si esprimono ruoli; funzione testuale, che opera nessi tra il soggetto e la situazione in modo da produrre discorsi e non insiemi sconnessi di frasi.
Teoria degli atti linguistici (Austin)_ ogni frase che il parlante formula corrisponde a un atto linguistico. L’atto linguistico può essere considerato come la congiunzione di 3 livelli:
a) Livello locutorio_ indica il rispetto di certe regole sintattiche e semantiche nel concatenare
le parole nelle frasi;
b)  Livello  illocutorio_  esprime  la  nostra  intenzione  comunicativa,  secondo  modalità  che variano in funzione del contesto e dello scambio;
c) Livello perlocutorio_ riguarda gli effetti extralinguistici prodotti dal nostro atto linguistico. Tramite l’atto linguistico il parlante esprime uno stato psicologico: una credenza, una volontà, un impegno. La formalizzazione dei principi che sono alla base del linguaggio naturale e che regolano i nostri scambi verbali vede nel lavoro di Grice sul “principio di cooperazione” una delle  formulazioni  più  note  e  citate  per  quanto  riguarda  la  competenza  comunicativa.  Il principio di cooperazione presuppone che ogni interlocutore contribuisca con lo scambio comunicativo rispettando implicitamente alcune regole tacite e questo principio si articola in 4 massime che sono: quantità, qualità, relazione, modalità.
Teoria della pertinenza (Sperber e Wilson)_ serve per spiegare con quale procedimento i parlanti sono in grado di mettere in evidenza i contenuti informativi rilevanti nel processo comunicativo. Comunicare vuol dire innanzitutto selezionare parte dell’informazione che proviene dall’ambiente. La capacità comunicativa è quindi soprattutto capacità percettiva e queste variano da persona a persona. Loro due parlano di ambiente cognitivo per riferirsi al mutuo sapere, costituito da informazioni condivise dagli interlocutori.

Linguaggio come retroazione
Un approccio pragmatico ai processi comunicativi considera soprattutto l’interazione tra testo e contesto, cioè tra l’attività discorsiva e le condizioni in cui questa si produce.
Morfema_ l’unità minima dotata di significato.
La semantica studia il modo in cui le parole sono collegate ai concetti e in quale maniera sono riferite a oggetti, situazioni, eventi.
Il significato delle parole risiede nell’uso che i parlanti fanno delle parole che compongono frasi e discorsi. Il senso di una frase non sarà mai la somma dei significati delle parole che al compongono. Un contributo importante allo studio dei fatti linguistici è venuto da Chomsky, che radicalmente ha messo in crisi il modo di intendere il linguaggio da parte dei compertamentisti. Questi, infatti, lo intendevano quale mero susseguirsi di stimoli e risposte

 

appreso per esclusiva imitazione. Egli, invece, sosteneva che il linguaggio umano si sviluppa come un sistema autonomo, acquisito indipendentemente dallo sviluppo di altre capacità cognitive, grazie a un dispositivo innato, chiamato LAD. Il modello di grammatica da lui elaborato, definito generativo-trasformazionale, di tipo teorico, ha molto cambiato tutti gli studi successivi. L’assunto su cui questo modello si basa è innanzitutto che il linguaggio è creativo, ognuno di noi è capace di produrre un numero infinito di frasi e quanto produciamo in forma scritta o orale rappresenta la struttura superficiale. Al detto (parte esplicita) si associa il non detto  (parte  implicita).  Mentre  il  presupposto  fa  riferimento  al  contenuto  semantico,  il sottinteso è un implicito dell’enunciato. Sapere condiviso_ insieme di conoscenze, credenze, ipotesi  condivise  dagli  interlocutori.  La  produzione  e  la  comprensione  si  articolano temporaneamente su un terreno comune, permettendo agli interlocutori di costruirsi una propria  rappresentazione  del  discorso.  In  questa  prospettiva  l’attività  di  comprensione  e quella di produzione del linguaggio sono considerate unite in uno stesso processo. Comprendere vuol dire cercare di identificare scopi e sottoscopi dell’interlocutore.

Il testo, il discorso, la conversazione
Con il termine discorso si intende un qualsiasi testo costituito da frasi (struttura) formulate per produrre  senso  (funzione)  per  fini  comunicativi  o  internazionali  (contesto).  La  ricerca
psicologica cerca di spiegare l’attività cognitiva di un soggetto che compie individualmente
operazioni legate a tipi particolari di compiti. La comprensione del testo è un compito solitario; la conversazione, invece, è un’attività che si condivide con altri soggetti e che avviene tramite il canale orale, ma anche con forme non verbali. Comprender un testo implica l’interazione di competenze oltre che sintattiche anche semantiche e pragmatiche. Lo studio dei meccanismi di  comprensione  del  testo  risulta  importante  in  psicologia  al  fine  di  mettere  in  luce  le operazioni cognitive sottostanti. La comprensione non può prescindere dall’interazione di tre fattori: testo, contesto, lettore.
1. Che cos’è un testo? De Beaugrande e Dressler definiscono il “testo come un’occorrenza comunicativa che soddisfa 7 condizioni di testualità”:
a) Coesione_ modo in cui le parole che ascoltiamo o leggiamo sono in relazione tra loro; b) Coerenza_ prodotto del rapporto tra concetti e relazioni sottostanti di casualità, scopi, tempo;
c) Intenzionalità_ scopo di un progetto per cui è stato prodotto il testo;
d) Accettabilità_ capacità inferenziale del ricevente;
e) Informatività_ relativa ai tipi testuali: annuncio, articolo, saggio;
f) Situazionalità_ adeguatezza del tipo di messaggio alla situazione;
g) Intertestualità_ capacità di rapportare le conoscenze attuali a conoscenze precedenti nel rapporto di un testo con altri tipi di testo.
Tali criteri governati da principi di efficienza e appropriatezza sono considerati oggi elementi di base dell’analisi testuale. Un altro modello di elaborazione del testo è quello prodotto da Kintsch e Van Dijk, che cercano di far corrispondere l’attività linguistica a quella cognitiva componendo il processo di comprensione in sottoprocessi. Il modello di Kintsch prevede che la comprensione del testo sia di tipo sequenziale.  Il testo narrativo è costituto da un insieme di azioni e modifiche di stato realizzate da personaggi. Il testo espositivo ha lo scopo di informare il lettore su un particolare ambito di conoscenze.
2. Il contesto in cui si legge un testo orienta la capacità di comprenderne i significati. La comprensione di testi ed eventi dipende da molteplici fattori che legano aspetti semantici, contesto, schemi e processi inferenziali.
3. Ma quali inferenze attiviamo nella lettura di un testo? La comprensione di un testo, scritto o

 

parlato, implica la fusione di due tipi di informazioni: quelle che provengono direttamente dal testo e quelle che vengono attivate nella mente del parlante. L’insieme di queste conoscenze viene rappresentato perché il lettore è in gradi di connettere tra loro info esplicite e indirette, di fare inferenze. Come afferma Halliday “la lingua scritta non era, e non è mai stata, conversazione scritta”. Il campo della prossemica, che analizza la regolazione del rapporto fisico tra gli interlocutori, è forse quello che fornisce le info più immediatamente osservabili sulla competenza comunicativa. L’interazione verbale si realizza perché gli interlocutori applicano, integrandole, competenze sia linguistiche che extralinguistiche.

7-IL PENSIERO
Il termine “pensare” si riferisce a un processo cognitivo ogni volta differente. Tradizionalmente la psicologia del pensiero si occupa del pensare inteso come ragionare, come immaginare, come prendere delle decisioni. Il processo ragionativo è un processo del tutto “interno”.

Il ragionamento induttivo
Si è individuata la differenza fra un ragionamento basato su un processo di generalizzazione induttiva, che procede da casi particolari per individuare delle regolarità non immediatamente evidenti nel mondo circostante, e un processo ragionativo di inferenza deduttiva, che parte da
una o più asserzione date e, senza far ricorso a dati empirici, tende verso una conclusione. Il
ragionamento deduttivo è riconoscibile e analizzabile in modo esplicito nel ragionamento sillogistico e nel ragionamento condizionale. La sequenza ragionativa, detta anche inferenza, di tipo deduttivo, segue la direzione contraria, cioè parte dai dati empirici, cioè dal particolare, per raggiungere affermazioni di tipo generale. Il pensiero induttivo viene usato molto meno di frequente nella vita di tutti i giorni. Il forte valore adattivo dell’inferenza induttiva consiste nell’economizzare lavoro cognitivo, riducendo le differenze e individuando delle regolarità che permettono di “catalogare” le infinite differenze degli oggetti appartenenti alla realtà.

Le euristiche
Negli anni ’60 Kahneman e Tversky hanno iniziato a studiare il giudizio probabilistico nella vita di tutti i giorni: una serie di lavori hanno messo in evidenza “ostacoli” caratteristici della ragionamento, formati da procedure mentali abitualmente usate nei giudizi di probabilità, definite euristiche_ procedure mentali veloci, dovute a vincoli di tempo e di capacità cui il
sistema cognitivo deve sottostare, che possono essere definite come procedure di semplificazione  del  processo  ragionativi.  A  differenza  dell’euristica,  il  procedimento  che
garantisce la soluzione corrette di un problema è l’algortimo_ meccanismo di ricerca della soluzione che esplora tutti i percorsi possibili. Il vantaggio del metodo algoritmico è la sua indubbia efficacia solutoria. Le euristiche producono risparmio di tempo e di lavoro cognitivo e costituiscono delle vere e proprie “scorciatoie” ma comportano, a differenza degli algoritmi, il rischio di errori. Un’altra importante differenza e che gli algoritmi sono applicabili generalmente solo a problemi con un elevato grado di formalizzazione. Esistono, in psicologia cognitiva, due euristiche:
  Euristica della rappresentatività_ questa euristica comporta che un evento venga considerato appartenente a una determinata categoria, perché la sua descrizione è simile o rappresentativa di quella stessa categoria;
  Euristica della disponibilità_ si riferisce a una procedura mentale che privilegia la scelta di fatti maggiormente accessibili in memoria. Quando gli individui devono fornire un giudizio sulla probabilità di un determinato evento spontaneamente attivano dalla memoria gli esempi che essi possiedono relativi a quegli eventi e giudicano in basa a quel campione che risulta

 

limitato  e  soggettivo.  La  disponibilità  dei  dati  è  influenzata  da  alcuni  fattori  che  ne determinano la maggiore o minore facilità di recupero e uno di questi è la familiarità.
La probabilità soggettiva non sempre corrisponde alla probabilità statistica. Le posizioni e le ricerche di Tversky e Kanneman non sono condivise da tutti i ricercatori. Gli argomenti più forti di obbiezione sono sostanzialmente due: uno riguarda il dato assunto come normativo, e l’altro riguarda alcuni aspetti pragmatici del discorso. Più convincente è l’obbiezione pragmatica: le difficoltà dei soggetti deriverebbero da fattori di tipo linguistico. Il motivo per cui i soggetti sono indotti in errore è dovuto a una formulazione del problema “incompleta”. Tra i fattori pragmatici studiati c’è quello della rilevanza che si riferisce al fatto che i soggetti, quando giudicano una probabilità, sono portati a privilegiare l’informazione più rilevante.

Prendere decisioni
Stimare la probabilità che un determinato evento si verifichi è meno problematico di prendere decisioni.

Criteri della presa di decisione
1) Massimizzazione del valore atteso_ decidere comporta quasi sempre dei conflitti fra desiderabilità e probabilità di un evento. La teoria classica è fondata sul rapporto tra la
probabilità del verificarsi di un evento incerto e il valore dell’evento stesso. Questo rapporto si
calcola sommando i prodotti delle probabilità di un certo evento per il valore dell’evento stesso.
2) Utilità attesa_ Bernoulli nel 18° secolo introduce il concetto di utilità, mettendo in evidenza l’equivalenza tra il valore monetario del risultato di un’azione e il valore reale che tale risultato possiede per la persona che lo sceglie. L’utilità è il valore soggettivo che un certo risultato possiede.
3) Vantaggio soggettivo nell’utilità attesa_ Secondo von Neumann e Morgenstern in situazioni incerte e di rischio è possibile ipotizzare un sistema “più che ordinale”: secondo questo sistema è sempre possibile etichettare, per ogni persona, i diversi livelli di vantaggio, e ipotizzare un comportamento razionale in grado di massimizzare l’utilità attesa dell’evento. La scelta più razionale implica degli assiomi basilari: 1) assioma dell’ordinamento debole_ le opzioni devono essere in relazione tra loro, cioè dobbiamo preferirne una all’altra, o essere indifferenti; 2) assioma della transitività_ se A è preferito a B e B è preferito a C, A è preferito a C; 3) assioma dell’indipendenza o della cosa certa_ se qualcuno preferisce A a B, e ci sono
2 opzioni che differiscono per il solo fatto che il risultato di uno è A e dell’altro B, il decisore deve scegliere la prima opzione; 4) assioma dell’invarianza_ se, per il decisore, A è uguale a B, e se A e B sono ugualmente probabili, egli sarà disponibili a sostituirli l’uno con l’altro; 5) assioma della dominanza_ se l’opzione A è migliore dell’opzione B in una dimensione, ed è almeno altrettanto buona nelle altre, l’opzione A è dominante e deve essere preferita a B.

Violazione delle norme di razionalità
Questi sono gli assiomi più importanti che costituiscono le fondamenta della teoria dell’utilità attesa. In situazioni di rischio, però, la decisione individuale risente della formulazione o del contesto con cui esso viene proposto.

Teoria del prospetto
A partire dalla considerazione  che  gli  individui non necessariamente rispettano la teoria normativa dell’utilità attesa, cioè tendono in alcune circostanze a violarne gli assiomi, Kahneman  e  Tversky  hanno  proposto  una  modella  descrittivo  della  presa  di  decisione,

 

definito teoria del prospetto. I due fattori che qui vanno presi in considerazione e messi in relazione tra loro, cioè moltiplicati, sono la probabilità di un evento e la sua utilità. Per quanto riguarda la probabilità, la teoria del prospetto assume che noi operiamo delle distorsioni sulle probabilità di un evento. Queste distorsioni avvengono secondo una particolare funzione matematica, definita funzione   , cioè   = f(p), dove p è probabilità reale. Questa distorsione è tale per cui le probabilità basse sono leggermente sovrastimate e quelle alte sono sottostimate. Per quanto riguarda l’utilità la teoria assume che gli individui stabiliscano l’ammontare di un guadagno o di una perdita non rispetto a valori assunti, bensì rispetto a determinati punti di riferimento.La funzione dell’utilità mostra come le perdite vengano considerate diversamente dai guadagni, nel senso che una perdita ha un valore negativo maggiore del valore positivo della vincita della stessa cifra. Questa proprietà della funzione è chiamata avversione alle perdite.

Il ragionamento analogico
Il ragionamento analogico è una caratteristica dominante del pensare umano. Anche intuitivamente pensiamo di essere in grado di ragionare per analogie, cioè di potere usare conoscenze pregresse per risolvere nuovi problemi.

Transfer
Ragionare in modo analogico vuol dire essere in grado di discriminare le somiglianze superficiali da quelle strutturali e questo comporta sia il trasferimento di una conoscenza da un problema a un altro problema, sia il trasferimento di un strategia di soluzione da un problema a un altro. Ragionare analogicamente vuol dire operare un transfer di competenza da un dominio a un altro. Naturalmente il trasferimento non può mai essere totale, avvengono sempre dei transfer incompleti. Secondo la teoria del mapping la conoscenza è rappresentata secondo reti di tipo preposizionale che usano oggetti e predicati, cioè attributi di oggetti e relazioni fra oggetti.

Intelligenza
L’intelligenza acquisisce definizioni differenti a seconda dell’uso che di tale concetto deve essere fatto. Possono essere identificate 4 aree di pertinenza del concetto di intelligenza, che mettono in evidenza la multifunzionalità di tale definizione. Può avere una connotazione biologica, quando si assume che l’intelligenza possa essere il risultato di processi biochimici o biofisici; cognitiva, quando si ritiene che essa sia identificabile con una serie di processi cognitivi analizzabili e quantificabili in un laboratorio sperimentale; o può avere una connotazione  contestuale,  quando  viene  considerata  come  il  risultato  e  l’espressione  di sistemi culturali differenziati; infine l’intelligenza può essere considerata come un sistema, cioè  come  il  risultato  dell’interazione  fra  elementi  cognitivi  e  contesto.  Il  concetto  di intelligenza come sistema possiede le maggiori capacità euristiche. Più sistematico dal punto di vista sperimentale ed empirico è il modello triarchico di Sternberg. Il termine triarchico è dovuto all’assunzione da parte del modello dell’esistenza di tre parti o subteorie. La prima considera l’intelligenza da un punto di vista “interno”, cioè si occupa di quei meccanismi cognitivi che conducono a un comportamento intelligente. La seconda parte considera il rapporto tra ambiente e compiti da eseguire, in termini di familiarità. La terza parte mette in relazione l’intelligenza con il mondo esterno, analizzando i tre comportamenti che caratterizzano il comportamento intelligente nel mondo quotidiano: adattamento all’ambiente, modellamento all’ambiente e selezione dell’ambiente.

 

Le metacomponenti del comportamento intelligente
Sono i processi di livello più elevato, che vengono usati per valutare, monitorare e pianificare l’esecuzione  di  un  compito;  sono  di  tipo  esecutivo,  nel  senso  che  forniscono  alle  altre componenti indicazioni operative sul da farsi. Ci sono alcuni aspetti specifici da vedere: innanzitutto è molto frequente che un problema sia di difficile soluzione perché non ne è chiara la sua natura. Un secondo aspetto, necessario per risolvere i problemi, è quello dell’individuazione degli elementi e dei passaggi necessari per giungere alla soluzione. Un altro aspetto di estrema importanza riguarda la necessità di combinare procedimenti solutori in una strategia specifica, cioè ordinare, secondo una sequenza corretta, i diversi passaggi da compiere.  Un  4°  aspetto  da  considerare  è  quello  relativo  alla  selezione  di  un  formato attraverso cui rappresentare mentalmente il problema. Il quinto aspetto metacomponenziale è probabilmente quello più importante, e riguarda la distribuzione delle risorse. Ciò vuol dire essere in grado di investire le prospere risorse, sia cognitive sia temporali, in modo adeguato ed efficace. Un’ultima metacomponente è il monitoraggio della soluzione, che consiste nel controllare lo stadio di risoluzione del problema che abbiamo raggiunto e nel modulare i comportamenti, in funzione dei feedback che riceviamo dall’ambiente esterno.

Le componenti di performance nel comportamento intelligente
Accanto alle metacomponenti sono fondamentali le vere e proprie componenti di performance. Quelle più importanti sono 5:
  Codifica_  processo  attraverso  cui  le  persone  decifrano  cognitivamente  i  termini  di  un problema per accedere alle informazioni rilevanti per la soluzione e che sono immagazzinate nella memoria a lungo termine.
  Inferenza_ capacità di individuare una o più relazioni fra oggetti o eventi.
  Mapping_ riconoscimento di una relazione di lato livello tra due relazioni di livello inferiore ed è differente dall’inferenza, nel senso che quest’ultima è il riconoscimento di una relazione tra due termini.
  Applicazione_ attribuzione a due eventi di una relazione che è stata inferita precedentemente.
  Giustificazione_ quando nessuna della opzioni disponibili è corretta o quando non ci sono soluzioni dirette o complete a un problema, si tratta di scegliere quella meno imperfetta e di trovare dei buoni motivi che ne giustifichino la scelta in sé e rispetto ad altre possibilità.

9-LE EMOZIONI
Non esiste un'unica teoria sistemica e completa delle emozioni. Risulta, quindi, difficile formulare una definizione univoca. In linea generale, potremmo definirla come una reazione avente valore adattivo, determinata da esperienze piacevoli o spiacevoli, caratterizzata da peculiari reazioni somatiche e da determinate qualità affettive. Per chiarire meglio il concetto può essere utile riportare la definizione di Lazarus che, adottando una prospettiva cognitivo- fenomenologica, descrive le emozioni come stati organizzati e complessi in cui sono distinguibili tre componenti:
• impulso  all'azione  :che  comprende  la  mimica  delle  emozioni,  l'aspetto  espressivo ereditato filogeneticamente (es: nell'emozione rabbia, il viso appare contratto e preparato all'attacco);
• reazioni  fisiologiche.  modificazioni  somatiche  (es:  aumento  dell'adrenalina  nella rabbia);

 

 


• valutazione cognitiva dello stimolo: per cui l'emozione è strettamente connessa ai processi cognitivi.

Paradigma teorico
Nonostante tuttora esista una cera confusione già nella definizione del termine, l'emozione può essere definita come una reazione avente valore adattivo, determinata da esperienze piacevoli o spiacevoli, interne o esterne, caratterizzata da peculiari reazioni somatiche e da determinate qualità affettive.
Nella tradizione razionalista del XVII secolo, l'emozione viene considerata come un fattore di distorsione e di disturbo del comportamento razionale. Le emozioni sono una categoria di stati e di esperienze considerati come appartenenti alla parte animale ed irrazionale dell'essere umano, e quindi hanno una connotazione estremamente negativa. Con Darwin l'emozione diventa oggetto di studio specifico in quanto elemento per la sopravvivenza  della  specie,  poiché  predispone  l'organismo  alla  reazione  e  in  quanto strumento di comunicazione.
Con Freud c'è una ulteriore rivalutazione delle emozioni e degli affetti, in quanto alla base della struttura della personalità, e in quanto chiave di accesso all'inconscio.
Il comportamentismo non si occupa dell'elemento soggettivo dell'emozione ma piuttosto delle "azioni" legate alle emozioni, mentre la fisiologia si interessa del loro substrato fisiologico al livello del Sistema Nervoso e dell'interazione neuro-ormonale.
" La prima teoria chiara e coerente sull'emozione fu quella di James-Lange (1884-1885). Secondo questi Autori, l'emozione coincide con l'esperienza della modificazione somatica, viene quindi intesa come un riflesso soggettivo degli stati corporei. Quindi alla percezione dell'oggetto segue una modificazione somatica, e la coscienza della modificazione costituisce l'emozione come fatto psichico.
" Al contrario, secondo la teoria ipotalamica di Cannon e Bard, l'emozione non è legata alla modificazione somatica. In base agli esperimenti su gatti decorticati, gli Autori affermano che la percezione di uno stimolo attiva l'ipotalamo suscitando l'emozione, e provocando quindi cambiamenti somatici e comportamentali.
" Schachter- Singer ha proposto un collegamento tra le due teorie: considera la prima valida per i bambini piccoli, e la seconda per l'individuo adulto che, attraverso l'esperienza e l'apprendimento, ha imparato ad associare le emozioni agli stimoli. " Secondo i Comportamentisti il comportamento emotivo è frutto dell'azione degli stimoli sensoriali sul Sistema Nervoso attraverso gli organi di senso. Watson in oltre, afferma che nel neonato ci sono tre comportamenti emotivi fondamentali: paura, ira e amore, dai quali, tramite l'apprendimento  condizionato,  si  avrebbe  la  moltiplicazione  e  la  diversificazione  delle emozioni nel corso dello sviluppo. Una critica alla teoria comportamentistica dell'emozione, è che non riesce a cogliere l'interezza del fenomeno emozione, ma solo la parte fenomenica.
" Vi sono poi gli studi neuroanatomici e neurofisiologici di Papez, che ha descritto il circuito dall'ippocampo  ai  corpi  mammillari  dell'ipotalamo.  Secondo  lo  studioso,  questo  circuito elabora informazioni propriocettive ed esterocettive riguardo la condotta emozionale. Sostanzialmente  Papez  afferma  che  l'espressione  emozionale  e  l'esperienza  emotiva
possono essere dissociate e che l'aspetto esperenziale necessita della mediazione della
corteccia.
" Nel contesto della teoria cognitivo-fenomenologica dell'emozione, Lazarus definisce le emozioni come stati organizzati e complessi che consistono in valutazioni cognitive, impulsi di azione e reazioni somatiche. Ogni qualità emotiva si distingue per una diversa configurazione delle tre componenti, che però sono soggettivamente esperite come un fenomeno unitario.


 


" Nella teoria psicoevoluzionistica delle emozioni, Plutchik considera le emozioni come elementi riflessi dell'adattamento. La teoria si basa sul fatto che le emozioni esistono a tutti i livelli evolutivi ed hanno una storia evolutiva, e quindi varie forme di espressione nelle diverse specie. L'Autore distingue poi le emozioni primarie da quelle secondarie: le primarie sono concepibili in termini di coppie di polarità opposte, mentre le secondarie sono stati misti o derivati dalle primarie.

Il tipo di emozioni
Il tipo di emozione dipende dalla modalità con cui l'individuo anticipa e costruisce l'esito delle sue transazioni con l'ambiente (es: se vado a una festa e penso che gli altri saranno cordiali con me sperimenterò serenità, se invece penso che nessuno mi rivolgerà la parola o che tutti rideranno di me inizierò, probabilmente, ad essere ansioso).
Una  delle  teorie  elaborate  sulle  emozioni  è  quella  comportamentista  di  Watson,  che considera solo gli aspetti descrittivi, comportamentali delle emozioni, e non considera i fattori psicologici interni. Le emozioni sono determinate, dall'azione degli stimoli sensoriali sul sistema nervoso attraverso, gli organi di senso. L'autore ha studiato i comportamenti emozionali osservando dei neonati. Quest'ultimo manifesta tre comportamenti emozionali fondamentali: paura, ira ed amore. Queste sarebbero le emozioni di base dell'individuo, che
in seguito vanno moltiplicandosi e diversificandosi attraverso l'apprendimento condizionato.
Watson esclude gli aspetti psicologici soggettivi, quali determinanti delle emozioni, ma semplicemente: la rabbia è l'attacco, la paura è la fuga. Per dimostrare sperimentalmente la sua teoria egli somministrò degli stimoli ad un neonato al fine di suscitare queste tre emozioni e poi osservava i comportamenti che ne derivavano (es: per suscitare la rabbia teneva fermo il piccolo).
Scheman giunse alla conclusione che nel bambino è presente una sola reazione emotiva, definibile come "eccitazione generale", e che le emozioni attribuite al neonato sarebbero frutto delle proiezioni degli adulti. Il comportamentismo ha fornito importanti contributi sulla genesi delle emozioni, in modo particolare la paura è stata studiata molto approfonditamente. Nell'acquisizione della paura, il dolore, gioca un ruolo importante, attraverso il meccanismo dell'apprendimento. Ad esempio, il bambino impara ad avere paura del fuoco perché si è scottato.  Le  emozioni  hanno  un  ruolo  importantissimo  nelle  prime  interazione  madre- bambino: il neonato si accorge che quando piange, la madre si prende cura di lui, ed impara così a cogliere le correlazioni tra il suo comportamento e quello del genitore. Attraverso le emozioni, quindi, percepisce la differenziazione tra Sè e non Sè, si sperimenta artefice del suo comportamento, comunica con l'ambiente esprimendo i suoi bisogni, consentendo, alla madre di comprenderli e di soddisfarli.

Il modello psicoanalitico
Il modello psicoanalitico ha dato grandi apporti allo studio delle emozioni, in ambito sia teorico che applicativo. Nel setting analitico, il paziente ha la possibilità di divenire consapevole e rielaborare le sue relazioni d'oggetto in quanto rivive la situazione affettiva, emotiva che ha avuto nei confronti della figura di attaccamento, verso l'analista (transfert). Quindi, i disturbi emotivi vengono trasferiti dalla figura di attaccamento all'analista.

La comunicazione delle emozioni
Un altro capitolo importante riguarda la comunicazione delle emozioni. Lo studioso che più se ne è occupato è Ekman. Egli, ex attore, ha realizzato una serie di espressioni facciali di emozioni (paura, gioia, rabbia, sorpresa, dolore) facendosi fotografare. In seguito ha portato

 

queste fotografie in vari paesi del mondo, notando che queste emozioni di base vengono riconosciute quasi da tutti, indipendentemente dalle varie culture di appartenenza. In questo modo l'autore mise a punto la teoria transculturale delle emozioni. Altri studiosi si sono dedicati agli aspetti strettamente fisiologici delle emozioni, cercando di individuare quali siano le strutture fisiologiche implicate quando si attiva un'emozione. Il legame tra emozione e modificazioni somatiche, è campo di interesse della medicina psicosomatica, quell'area della medicina che si occupa di malattie organiche o funzionali che vedono le esperienze emotive come loro cause determinanti. Se gli stati emotivi, non vengono elaborati a livello psicologico in modo adeguato, possono alterare le funzioni somatiche fino ha determinare delle vere e proprie lesioni organiche.

Metodi di indagine
Il colloquio è un importante strumento di indagine delle emozioni. Al di là di ciò che viene comunicato verbolmente dal paziente, è importante osservare tutto ciò che entra a far parte della comunicazione non verbale: la postura, i gesti, l'intonazione della voce, lo sguardo, il contatto oculare e la mimica facciale. Nel colloquio, anche per esplorare il livello emozionale è molto importante l'empatia. Paradossalmente essa richiede sia partecipazione che distacco. Ci deve essere identificazione, fusione di se stessi con l'altro, fino a sentire "come se" si fosse
l'altro.(  Metodo  psicometrico-Metodo  sperimentale.Esperimento  di  Watson  con  i  neonati.
Esperimenti di Ekman sull'espressione delle emozioni).

Ambiti applicativi
Nei disturbi psicologici le emozioni hanno, quasi sempre, un ruolo chiave. Esistono forme di schizofrenia in cui l'individuo non mostra emozioni. Importante è il concetto di acting aut: la pressione delle emozioni diventa tale che non è più governabile e si traduce in un agito, un passaggio  all'atto.  In  campo  clinico  è  importante  osservare  la  congruenza  tra  il  vissuto emotivo che l'individuo mostra e quello che comunica verbalmente, per analizzare la gravità della patologia ed il livello di realtà. L'indice di congruenza tra stato emotivo e codice verbale viene utilizzato come indice diagnostico della gravità della patologia, del contatto con la realtà e del modo in cui la persona si relaziona a se stessa. Talvolta, infatti, il paziente non mostra la giusta rilevanza e qualità emotiva rispetto agli eventi. In qualsiasi ambito lo psicologo lavori (clinico, scolastico-evolutivo ecc) interagisce sempre con delle categorie emozionali. Si può trattare di eventi emotivi positivi, negativi, semplici o complessi ma comunque le categorie emozionali fanno sempre parte della materia prima del lavoro dello psicologo, dello psicoterapeuta e dello psichiatra. Altri importanti ambiti applicativi sulle emozioni, a livello di psicoterapia, riguardano la terapia centrata sul cliente di Rogers (C.C.T.), l'uso del transfert, le varie tecniche comportamentali di decondizionamento (capitolo sull'apprendimento).{sharethis}

Condividi

Materiale OSS

Mobilizzazione e OSS: come sollevare il paziente verso la testiera del...
Mobilizzazione e OSS: come sollevare il paziente verso la testiera del letto

La mobilizzazione del paziente è una pratica ricorrente tra i compiti dell'operatore socio sanitari [ ... ]

L'OSS e Il letto ospedaliero
L'OSS e Il letto ospedaliero

Il letto del paziente deve essere ergonomico, consentire cioè il benessere e la sicurezza del pazie [ ... ]

L'operatore socio sanitario e il confort ambientale del paziente
L'operatore socio sanitario e il confort ambientale del paziente

Uno dei compiti fondamentali dell'OSS è curare l'ambiente di degenza dell'ammalato sia all'interno  [ ... ]

L’operatore socio sanitario: un percorso per la formazione
L’operatore socio sanitario: un percorso per la formazione

Questo testo, nel panorama editoriale di trattati specifici riguardanti la materia, propone un nuovo [ ... ]

L'operatore socio sanitario e la cura dell'igiene nel paziente alletta...
L'operatore socio sanitario e la cura dell'igiene nel paziente allettato

Uno dei compiti specifici dell'OSS è  curare l'igiene personale dal paziente che a causa di patolo [ ... ]

L'operatore socio sanitario e le misure di prevenzione delle infezioni...
L'operatore socio sanitario e le misure di prevenzione delle infezioni urinarie

Oltre ai fattori di rischio infezione comune in ambito ospedaliero esistono anche i fattori di risch [ ... ]