expand_lessAPRI WIDGET

Mad in America, cattiva scienza, cattiva medicina e maltrattamento dei malati mentali di Robert Whitaker (2015) – Recensione

Il libro ripercorre la storia della psichiatria americana ed europea a partire dal 1750, quando il malato mentale veniva trattato come un essere inferiore, tanto da meritarsi come cura i salassi, le purghe, la sedia rotante e la somministrazione di sostanze che inducevano la nausea.

 

La storia della psichiatria nel libro di Whitaker

Conoscere la storia della psichiatria riveste grande importanza per comprendere dove siamo arrivati oggi nella cura della malattia mentale. E’ da questa premessa che il giornalista scientifico Robert Whitaker parte per scrivere questo libro, che in parte completa l’altra sua celebre opera Indagine su un’epidemia, che contiene concetti molto provocatori (ma in parte aimè condivisibili) come quello che gli esiti della cura della malattia mentale grave erano migliori cento anni fa (quando non c’erano gli psicofarmaci) o che c’è una remissione maggiore dei disturbi psichiatrici nei paesi in via di sviluppo (dove ci sono pochi psicofarmaci) rispetto ai paesi sviluppati.

Il libro ripercorre la storia della psichiatria americana ed europea a partire dal 1750, quando il malato mentale veniva trattato come un essere inferiore, tanto da meritarsi come cura i salassi, le purghe, la sedia rotante e la somministrazione di sostanze che inducevano la nausea. L’800 ebbe con il francese Pinel una temporanea umanizzazione dei trattamenti, con l’introduzione della cosiddetta terapia morale (antesignana del modello biopsicosociale, che vedeva la malattia mentale anche come conseguenza di eventi di vita stressanti), che venne ripresa in America da alcune comunità di Quaccheri.

Il ‘900 (definito dall’autore l’età più buia) fu caratterizzato da una regressione della visione della malattia mentale, anche grazie alla diffusione dell’eugenetica, che identificava nel malato di mente un portatore di patrimonio genetico alterato che andava pertanto eliminato per migliorare la razza umana.

Negli anni ’20 negli Stati Uniti si arrivò alla sterilizzazione obbligatoria dei malati mentali, alla stregua della Germania Nazista. In quell’epoca manicomiale il disagio psichico era visto come qualcosa da eradicare violentemente producendo lesioni al cervello. I trattamenti terribili in voga in quel periodo comprendevano il coma insulinico, l’uso massiccio di barbiturici, la terapia convulsiva con metrazol e poi con scosse elettriche, la lobotomia (in precedenza altre mostruosità chirurgiche come l’estrazione di tutti i denti o l’isterectomia come possibile cura della follia).

La modalità di sperimentazione scientifica per salute mentale di quel periodo e, secondo l’autore anche in parte del periodo successivo, contravveniva al celeberrimo Codice di Norimberga (prodotto dopo la seconda Guerra Mondiale in opposizione agli orrori sanitari del Terzo reich), che sanciva il principio secondo il quale gli interessi scientifici non avrebbero mai dovuto avere la precedenza sui diritti dell’essere umano.

 

Le ricerche sugli psicofarmaci

Oltre ai danni cerebrali permanenti causati dalla lobotomia, nel libro viene raccontato il periodo delle ricerche americane sull’esacerbazione di psicosi indotta da allucinogeni come l’LSD, che veniva somministrato in dosi massicce senza un valido consenso dei pazienti. La scoperta degli psicofarmaci a partire dagli anni ’50 per certi versi rivoluzionò radicalmente la cura e la qualità di vita delle persone affette da disturbi mentali, anche se l’autore non ne riconosce il valore e anzi sostiene che gli psichiatri americani ne abbiano sempre fatto un uso sconsiderato, in nome di un riduzionismo biologico che in Europa ha sicuramente preso meno piede.

Vengono presentati studi e testimonianze che mettono in discussione l’efficacia degli psicofarmaci, in particolare i neurolettici (anche quelli di nuova generazione), che aumenterebbero addirittura il rischio di ricadute nella malattia. Whitaker accusa la classe psichiatrica americana di essere stata accecata di fronte al miraggio psicofarmacologico, che poi è stato ridimensionato in termini di efficacia e in questo anche le industrie farmaceutiche hanno sicuramente le proprie responsabilità.

Sicuramente un libro-inchiesta molto efficace che pecca un po’ della mancanza dell’aspetto propositivo, privilegiando quello critico.

La scoperta dell’atlante semantico del nostro cervello

Per la prima volta è stata elaborata una mappa semantica della corteccia celebrale, definita atlante semantico, che mostra quali aree celebrali si attivano quando dobbiamo associare un significato alle parole che ascoltiamo.

Lo studio

Nel seguente articolo viene riportata la recente scoperta avvenuta nel campo delle neuroscienze ad opera dei ricercatori dell’Università di Berkeley in California: Alexander G. Huth, Wendy A. de Heer, Thomas L. Griffiths, Frederic E. Theunissen e Jack L. Gallant sono i nomi dei ricercatori che hanno partecipato e contribuito a questa nuova scoperta che può aprire importanti orizzonti nel campo delle neuroscienze e non solo.

Nello specifico, per la prima volta è stata elaborata una mappa semantica della corteccia celebrale, definita atlante semantico, che mostra quali aree celebrali si attivano quando dobbiamo associare un significato alle parole che ascoltiamo. È stato dimostrato così che il linguaggio impegna molte aree del cervello e non esclusivamente quelle a sinistra.

Lo studio che ha portato alla mappatura celebrale del sistema semantico dell’Università della California, Berkeley, è stato pubblicato sulla rivista Nature con il seguente titolo: “Natural speech reveals the semantic maps that tile human cerebral cortex” (Alexander G. Huth, Wendy A. de Heer, Thomas L. Griffiths, Frederic E. Theunissen e Jack L. Gallant, 2016).

Il gruppo – guidato da Alexander Huth, postdottorando di ricerca in neuroscienze, e Gallant, professore di psicologia – per le loro ricerche ha scelto sette soggetti volontari, ai quali è stato chiesto di ascoltare per circa un paio d’ore delle storie narrative dalla “Moth Radio Hour” (Carey B, 2016). È stata così mappata sistematicamente la selettività semantica attraverso la corteccia, utilizzando la modellazione voxel-wise dei dati forniti dalla risonanza magnetica funzionale (fMRI, questa permette di visualizzare in tempo reale l’attività dell’area celebrale che corrisponde alla facoltà utilizzata dal soggetto in quel dato momento) mentre i soggetti ascoltavano queste storie. I dati forniti sono stati utilizzati per calcolare una stima di modelli voxel-wise che anticipino l’attività in ogni voxel (pixel volumetrici) in base al significato delle parole nelle storie (disponile sul sito).

In altri termini: a questi volontari è stato fatto ascoltare lo stesso programma radiofonico e sono stati confrontati i risultati tra loro attraverso un programma che analizza semanticamente i testi della trasmissione.

[blockquote style=”1″]Using novel computational methods, the group broke down the stories into units of meaning: social elements, for example, like friends and parties, as well as locations and emotions . They found that these concepts fell into 12 categories that tended to cause activation in the same parts of people’s brains at the same points throughout the stories. They then retested that model by seeing how it predicted M.R.I. activity while the volunteers listened to another Moth story. Would related words like mother and father, or times, dates and numbers trigger the same parts of people’s brains? The answer was yes.[/blockquote] (Carey B, 2016).

I ricercatori hanno così dimostrato che il sistema semantico è organizzato in schemi intricati di popolazioni neuronali che mostrano una corrispondenza tra gli individui. Un dato interessante che emerge da questo studio è infatti che le mappe celebrali dei concetti semantici che risultano, sono simili tra i soggetti esaminati. Per fare un esempio, nella corteccia parietale laterale, tutti e sette hanno mostrato una zona selettiva per parole “sociali”, in relazione alle persone.

In questo modo è stato possibile creare il primo atlante semantico.
[blockquote style=”1″]Our results suggest that most areas within the semantic system represent information about specific semantic domains, or groups of related concepts, and our atlas shows which domains are represented in each area[/blockquote] (Alexander G. Huth, Wendy A. de Heer, Thomas L. Griffiths, Frederic E. Theunissen e Jack L. Gallant, 2016).
Si è così scoperto che il sistema semantico è distribuito in più di 100 aree distinte che si trovano in entrambi gli emisferi celebrali.

Lo studio dei ricercatori dell’Università della California Berkeley, che ha elaborato la prima mappa cerebrale del sistema semantico, si può trovare sulla già citata rivista Nature (Alexander G. Huth, Wendy A. de Heer, Thomas L. Griffiths, Frederic E. Theunissen e Jack L. Gallant, 2016) con il seguente titolo: “Natural speech reveals the semantic maps that tile human cerebral cortex”.

È possibile guardare dei video che sinteticamente illustrano tale scoperta, quello prodotto da Nature e l’altro dalla National Science Foundation.

The Brain dictionary (l’articolo prosegue sotto il video)

 

Tour della mappa semantica

Sul sito è stata riportata la mappa semantica del cervello, un tour in 3D tratto da un modello confacente ad ogni cervello umano. I colori indicano la categoria di parole prevista per suscitare la più grande risposta in ciascun voxel. È possibile ruotare, ingrandire il modello del cervello per vederne i vari dettagli. Attraverso il comando “next” si può iniziare tale tour. Si hanno varie sezioni:

– Modelli voxel-wise
Viene qui allestito un modello di regressione separata per ciascuno di 60.000 voxel nella corteccia cerebrale. Un modo per immaginare un modello è quello di prevederne la sua risposta a 10.000 parole differenti e mostrare le 20 con la più alta risposta prevista. Questi voxel nel lobo sinistro occipito-temporale della corteccia, sembrano rispondere alle parole collegate alle informazioni sulla forma e spazio. Molte delle altre parole evidenziate in verde rispondono fortemente alle parole legate allo spazio e al tatto.

– Rappresentazione delle parole sociali
In questa sezione sono evidenziate le parole che sono collocate nel giro angolare nella parte destra. I ricercatori sostengono che lì ci possa essere una forte risposta alle parole che descrivono eventi drammatici, così come le parole che descrivono il tempo. Gli altri voxel, quelli rosso intenso e arancione, prevedono la risposta alle parole sociali o drammatiche. Il rosso scuro e il marrone invece rispondono a parole di tempo e luogo.

– Rappresentazione di parole numeriche
I voxel qui evidenziati sono localizzati nel solco destro precentrale. I ricercatori prevedono che lì ci sia una risposta selettiva ai numeri.

– Ingrandimento della superficie corticale
In questa sezione si mostra come molti dei voxel interessanti nel cervello siano nascosti alla vista, all’interno delle pieghe (circonvoluzioni) nella superficie corticale. I ricercatori sono stati in grado di “gonfiare” la corteccia in modo da rendere visibili alcuni di questi voxel, per vederlo basta premere nel menù (in alto a destra) il tasto “inflate” sotto il tasto “camera”. Per tornare alla vista originale basta premere “reset”.

– Conferma dei modelli voxel
Solo alcuni dei voxel nella corteccia celebrale rispondono selettivamente e in modo affidabile ad alcune categorie di parole. Per determinare quali sono queste categorie, i ricercatori hanno testato l’accuratezza di previsione di ogni modello di una storia a parte, che non era stata utilizzata per il modello di montaggio. Per attivare la visione di quanto detto è possibile premere il tasto “performance” a destra. Per ritornare alla visione originale premere il tasto “selectivity”.

– Atlante PrAGMATiC
Uno dei principali obiettivi della ricerca è stato creare un “atlas of semantic selectivity in the human brain” (dal sito, sezione settima, “PrAGMATiC atlas”); uno degli scopi è stato dunque quello di creare un atlante di selettività semantica nel cervello umano. A tal proposito è stato sviluppato un nuovo modello probabilistico di aree per rivestimento della corteccia per tale atlante. Il modello PrAGMATiC presuppone che ogni soggetto abbia le stesse aree funzionali, ma permette qualche variazione tra gli individui nella precisa posizione e dimensione di ogni area. L’atlante PrAGMATiC divide l’emisfero sinistro in 192 aree funzionali distinte, 77 delle quali sono semanticamente selettive. L’emisfero destro è diviso in 128 aree funzionali, di cui 63 sono semanticamente selettive. Per coloro che consultano questa visione 3D è possibile vedere i maggiori dettagli di selettività semantica (o la sua assenza) facendo un click sull’area che desiderano approfondire.

– PrAGMATiC area SPFC R10
Qui per visualizzare la selettività semantica di ogni area i ricercatori hanno calcolato una media tra i voxel-wise che costituiscono i modelli all’interno di tale area in tutti e sette i soggetti. Hanno poi previsto come quella zona risponderà a ciascuna delle 10.000 parole differenti e visualizzato le 20 parole previste per evocare la risposta più alta. L’area semanticamente selettiva evidenziata qui si trova nella corteccia prefrontale destra. I modelli prevedono una forte risposta alle parole che descrivono luoghi (spesso sedi di attività), ore e numeri.

 

Conclusioni

In conclusione, possiamo dire che l’atlante semantico fornisce, per la prima volta, una mappa dettagliata di come il significato è rappresentato nella corteccia umana. Come è stato accennato all’inizio del presente articolo, questo risultato ha dato modo di scoprire che il linguaggio impegna ampie regioni del cervello e non è limitato solo ad alcune. Questo studio ha fornito, infatti, l’importante risultato di vedere che le rappresentazioni linguistiche sono bilaterali: le risposte nell’emisfero cerebrale destro sono grandi e varie circa quanto le risposte di quello sinistro. Viene così sfidata l’ipotesi (ricavata da studi sui deficit linguistici prodotti da lesioni celebrali) corrente, secondo cui il linguaggio coinvolga esclusivamente l’emisfero sinistro. È stata una sorpresa per i ricercatori stessi il fatto che il linguaggio interessi entrambi gli emisferi.

La recente scoperta fornisce una valida conoscenza per la comprensione dei meccanismi celebrali che sottostanno al linguaggio, ma potrebbe avere anche importanti implicazioni per studiare la riabilitazione a seguito di lesioni celebrali che abbiano danneggiato i settori legati al linguaggio. Gli studi futuri potranno chiarire come tali mappe cambino in presenza di disturbi legati al linguaggio (come la dislessia) o in condizioni neurologiche legate all’elaborazione del linguaggio.

I ricercatori comunque sottolineano il bisogno di approfondire questi studi in quanto, il campione a cui è stato sottoposto l’esperimento è in numero ristretto, per giunta dello stesso gruppo sociale, fattore che potrebbe inficiare sui risultati. Pertanto i ricercatori continueranno i loro studi estendendoli a campioni maggiori, con gruppi più eterogenei al fine di migliorare la precisione delle mappe e per comprendere le differenze individuali.

Insegnare ai bambini la matematica: l’utilizzo di un abaco immaginario

I risultati hanno dimostrato che l’utilizzo di un immagine mentale di un abaco (mental abacus) favorisce un miglior apprendimento della matematica e in particolare delle abilità di calcolo e di aritmetica rispetto alle altre tecniche tradizionali, ma questi benefici non risultano presenti nello stesso modo nei bambini che presentano in partenza minori abilità cognitive di natura spaziale o della memoria di lavoro.

 

La matematica è una materia che richiede abilità cognitive spaziali e della memoria di lavoro e per questo ci si chiede se le tecniche di apprendimento tradizionali siano sufficienti per l’apprendimento della stessa o se sia necessario integrarle con lo strumento (immaginativo) dell’abaco.

Su Child Development è stato pubblicato uno studio condotto in India sugli effetti nel processo di apprendimento derivanti dall’utilizzo della visualizzazione mentale dell’abaco. Hanno partecipato allo studio 183 bambini di età compresa tra i 5 e i 7 anni.

Durante la baseline sono state testate le abilità cognitive e matematiche dei bambini ed essi sono stati assegnati in modo random ad uno dei 2 gruppi: nel primo per 3 ore alla settimana veniva utilizzato l’abaco immaginativo per insegnare la matematica, mentre nell’altro si proponevano 3 ore supplementari di matematica ma senza l’utilizzo della tecnica mental abacus. Lo studio è stato condotto per la durata di 3 anni, al termine dei quali sono state nuovamente testate le abilità matematiche e cognitive dei bambini.

I risultati hanno dimostrato che la visualizzazione mentale dell’abaco favorisce un miglior apprendimento della matematica e in particolare delle abilità di calcolo e di aritmetica rispetto alle altre tecniche tradizionali, ma questi benefici non risultano presenti nello stesso modo nei bambini che presentano in partenza minori abilità cognitive di natura spaziale o della memoria di lavoro.

Questo dimostra che l’abaco mentale è sicuramente uno strumento utile ed efficace per favorire l’apprendimento di abilità matematiche nei bambini, ma non consente di migliorare la capacità di visualizzare o manipolare gli oggetti, qualora esse risultino deficitarie.

 

Il metodo dell’abaco mentale (VIDEO)

 

 

Abstract:

Mental abacus (MA) is a technique of performing fast, accurate arithmetic using a mental image of an abacus; experts exhibit astonishing calculation abilities. Over 3 years, 204 elementary school students (age range at outset: 5–7 years old) participated in a randomized, controlled trial to test whether MA expertise (a) can be acquired in standard classroom settings, (b) improves students’ mathematical abilities (beyond standard math curricula), and (c) is related to changes in basic cognitive capacities like working memory. MA students outperformed controls on arithmetic tasks, suggesting that MA expertise can be achieved by children in standard classrooms. MA training did not alter basic cognitive abilities; instead, differences in spatial working memory at the beginning of the study mediated MA learning.

Fiocchi di grafene per calmare le sinapsi: la tecnologia al grafene apre nuovi orizzonti terapeutici

Tamponare l’attività delle sinapsi con una tecnologia innovativa basata sul grafene, questa è l’idea alla base del lavoro appena pubblicato sulla rivista ACS Nano, coordinato dalla Scuola Internazionale Superiore di Studi Avanzati (SISSA) di Trieste e dall’Università di Trieste.

SISSA, Scuola Internazionale Superiore di Studi Avanzati

 

Lo studio in particolare ha svelato l’efficacia dei fiocchi di ossido di grafene di interferire con l’attività delle sinapsi eccitatorie, un effetto che in futuro potrebbe essere sfruttato per nuovi trattamenti di patologie come l’epilessia.

Il laboratorio di Laura Ballerini alla SISSA, in collaborazione con l’Università di Trieste, l’Università di Manchester e l’Università di Castilla-la Mancha, ha scoperto un nuovo approccio per modulare l’attività delle sinapsi. Questa metodologia potrebbe essere utile nel trattamento di condizioni patologiche dove l’attività elettrica nervosa è alterata.

Ballerini e Maurizio Prato (Università di Trieste) sono i principal investigator del progetto che è inserito nella flagship europea del grafene, un’ampia collaborazione internazionale della durata prevista di dieci anni (per un miliardo di euro di finanziamento) che studia gli usi innovativi di questo materiale.

Le terapie tradizionali per le malattie neurologiche in genere si basano sull’utilizzo di farmaci mirati ad agire nel cervello o di approcci neurochirurgici . Oggi però la tecnologia del grafene sembra molto promettente in questo tipo di applicazioni, e per questo sta ricevendo molta attenzione da parte della comunità scientifica. Il metodo studiato da Ballerini e colleghi si basa sull’uso di nano-fiocchi (flake) di grafene, in grado di tamponare l’attività delle sinapsi semplicemente con la loro presenza in loco.

Abbiamo somministrato – in condizioni di esposizione “cronica”, cioè ripendo l’operazione ogni giorno per circa una settimana – delle soluzioni acquose di fiocchi di grafene a normali colture di neuroni su vetrino. Grazie all’analisi funzionale dell’attività elettrica neuronale abbiamo poi tracciato l’effetto sulle sinapsi – spiega Rossana Rauti, ricercatrice della SISSA e prima autrice della ricerca.

Negli esperimenti le dimensioni dei fiocchi potevano variare (10 micron o 80 nanometri) come anche il tipo di grafene: in una condizione si usava grafene normale in un’altra ossido di grafene.

L’effetto di ‘tamponamento’ dell’attività sinaptica si ottiene con i fiocchi più piccoli di ossido di grafene e non nelle altre condizioni – spiega Ballerini – L’effetto è sistematico e selettivo per le sinapsi eccitatorie, mentre è assente in quelle inibitorie.

Questione di dimensioni

Qual è l’origine di questa selettività?

Sappiamo che in linea di massima il grafene non interagisce chimicamente con le sinapsi, o comunque in maniera limitata, il suo effetto è probabilmente dovuto alla semplice presenza in corrispondenza delle sinapsi – spiega Denis Scaini, ricercatore della SISSA fra gli autori dello studio – Non abbiamo ancora prove dirette, ma la nostra ipotesi è che ci sia un legame con l’ampiezza dello spazio sinaptico.

Una sinapsi è un punto di contatto fra un neurone e un altro dove il segnale elettrico nervoso salta dall’unità presinaptica a quella post sinaptica.

Nel punto di contatto c’è in realtà un piccolo spazio, una discontinuità dove il segnale elettrico viene tradotto in neurotrasmettitore e rilasciato dalla terminazione presinaptica nello spazio extracellulare e riassorbito da quella postsinaptica, per essere tradotto nuovamente in segnale elettrico.

La larghezza dello spazio varia a seconda del tipo di sinapsi:

Per quelle eccitatorie del sistema studiato, è più accessibile, quindi maggiore è la probabilità che i fiocchi di grafene vi interagiscano, a differenza di quelle inibitorie, meno fisicamente accessibili in questo modello sperimentale – spiega Scaini.

Un altro indizio che porta a pensare che distanze e dimensioni potrebbero essere cruciali nel processo è dato dall’osservazione che il grafene svolge la sua funzione solo nella forma ossidata.

Il grafene normale si presenta come un foglietto disteso e abbastanza rigido, mentre l’ossido ha un aspetto più accartocciato e per questo potrebbe favorire l’interfaccia con lo spazio sinaptico – aggiunge Rauti.

La somministrazione di soluzioni di fiocchi di grafene lascia i neuroni vivi e intatti, per questo motivo il team pensa che potrebbero trovare spazio in applicazioni biomediche, per il trattamento di alcune patologie. Una fra le migliori candidate sembra essere l’epilessia, che è caratterizzata da attività elettrica nervosa alterata nel cervello.

Si potrebbe pensare ad un rilascio farmacologico mirato sfruttando la apparente selettività di interazione sinaptica (cioè a livello della unità funzionale di base dei neuroni) di questi nano materiali – conclude Ballerini.

Malattia di Alzheimer: il sintomo dell’apatia

L’apatia si manifesta solitamente nelle fasi precoci della malattia di Alzheimer, ma persiste con la progressione della stessa, e rappresenta uno tra i sintomi neuropsichiatrici più diffusi nelle persone con demenza. Nel 2008 il Consorzio Europeo della malattia di Alzheimer ha emesso le linee guida per la diagnosi dell’apatia

Giulia Cesetti, OPEN SCHOOL STUDI COGNITIVI SAN BENEDETTO DEL TRONTO

Introduzione: la diagnosi della malattia di Alzheimer

[blockquote style=”1″]Diventando più emotivi e meno cognitivi, noi ricorderemo il modo in cui ci parlate, non quello che ci dite. Conosciamo i sentimenti ma non la trama. Il vostro sorriso, la vostra risata, il vostro tocco sono le cose con cui noi possiamo entrare in relazione. L’empatia è una cura. Amateci per come siamo. Siamo ancora qui, con le nostre emozioni e con il nostro spirito, se solo riusciste a trovarci.[/blockquote]
(Christine Bryden,2005, p.138)

La demenza è una sindrome clinica caratterizzata da perdita delle funzioni cognitive di entità tale da interferire con le usuali attività sociali e lavorative del paziente. Oltre ai sintomi cognitivi sono presenti sintomi non cognitivi, che riguardano la sfera della personalità, l’affettività, l’ideazione, la percezione, le funzioni vegetative e il comportamento (Boller & Traykov, 1999).

Tra le diverse forme di demenza, la malattia di Alzheimer è quella più diffusa (Ott, Breteler, van Harskamp, Stijnen& Hofman, 1998).
La progressione della malattia è caratterizzata da stadi in cui si evidenziano specifici clusters di sintomi e segni cognitivi e funzionali (Dubois et al.,2007).
Nel grado lieve possono presentarsi disturbi di memoria di lieve entità, deficit di problem solving, episodi di disorientamento tempo-spaziale, ansia e depressione anche per la consapevolezza del deficit e anomie.
Il grado moderato è caratterizzato da deficit che interferiscono con la vita quotidiana, scarsa igiene personale, incontinenza urinaria e disturbi del comportamento.
Nel livello grave si possono presentare sintomi come la fatica nella deambulazione, mancati riconoscimenti e linguaggio ridotto.
La fase terminale è caratterizzata da catatonie e complicanze internistiche che portano alla morte.

Le caratteristiche della malattia possono variare da persona a persona, tuttavia la manifestazione iniziale è generalmente subdola e insidiosa e il decorso cronico-progressivo. I sintomi iniziali sono spesso attribuiti ad un normale invecchiamento, allo stress o alla depressione. Nella maggioranza dei casi solo a distanza di uno/due anni dall’esordio la malattia è tale da portare i familiari a richiedere un aiuto specialistico. La presenza di sintomi cognitivi e non cognitivi pone delle difficoltà in termini di diagnosi differenziale e un ritardo nell’individuazione precoce della malattia.

 

Il sintomo dell’apatia nella malattia di Alzheimer

L’apatia può essere definita come una perdita di motivazione rispetto al precedente livello di funzionamento dell’individuo; si manifesta con una diminuzione degli obiettivi di tipo cognitivo e comportamentale (Marin,1991). Tra i pazienti con diagnosi di malattia di Alzheimer (AD) la frequenza dell’apatia si colloca in un intervallo tra il 25% e il 50% (Landes, Sperry, Strauss & Geldmacher, 2001). La depressione è uno dei maggiori disturbi psichiatrici correlati all’apatia nella malattia di Alzheimer, la perdita di interessi e di motivazione sono sintomi comuni ad entrambe le sindromi (Starkstein, Petracca, Chemerinski& Kremer, 2001). Tuttavia l’apatia non deve essere interpretata come un mero sintomo di depressione, considerando il fatto che circa la metà dei pazienti con malattia di Alzheimer che manifestano apatia non presentano una depressione in concomitanza (Starkstein et al.,2001).

L’apatia si manifesta solitamente nelle fasi precoci della malattia, ma persiste con la progressione della stessa, e rappresenta uno tra i sintomi neuropsichiatrici più diffusi nelle persone con demenza (Lyketsos, Lopez, Jones, Fitzpatrick, Breitner, & DeKosky, 2002). Nel 2008 il Consorzio Europeo della malattia di Alzheimer ha emesso le linee guida per la diagnosi dell’apatia (Winblad et al., 2008). Secondo queste linee guida per una corretta diagnosi di apatia la diminuzione della motivazione deve permanere per non meno di quattro settimane e due delle seguenti tre dimensioni devono essere presenti: riduzione dei comportamenti diretti ad un scopo, diminuzione dell’attività cognitiva diretta ad uno scopo ed emotività ridotta. Inoltre, la compromissione funzionale dovrebbe essere attribuibile all’apatia (Robert et al., 2009).

Perché l’apatia possa essere diagnosticata la persona con Alzheimer deve soddisfare i seguenti criteri: A, B, C e D.
Criterio A. Perdita o diminuzione della motivazione in confronto al livello precedente di funzionamento del paziente, la stessa non è coerente con la sua età o la cultura. Questi cambiamenti nella motivazione possono essere segnalati dal paziente stesso o da osservazioni di altri.
Criterio B. Significativa presenza di almeno un sintomo in almeno 2 dei seguenti 3 domini per un periodo di almeno 4 settimane, presente per la maggior parte del tempo.
B1. Dominio del comportamento: Perdita o diminuzione del comportamento diretto ad uno scopo che si evince da uno dei seguenti comportamenti: diminuzione dell’iniziativa alla partecipazione ad attività sociali, ad iniziare o a rispondere ad una conversazione o ad impegnarsi in attività di vita quotidiana.
B2. Dominio della cognizione: la perdita dell’attività cognitiva è dimostrata da almeno uno dei seguenti sintomi: perdita di curiosità/idee spontanee per eventi nuovi e/o di routine.
B3. Dominio delle emozioni: diminuzione dell’emotività comprovata da almeno uno dei seguenti aspetti: perdita di emozione spontanea osservata o auto riferita, ad esempio sensazione soggettiva di emozioni deboli o assenti o l’osservazione da parte di altri di un appiattimento affettivo; perdita di reattività emozionale a stimoli o eventi positivi o negativi.
Criterio C. Questi sintomi (A e B) causano un disagio clinicamente significativo e una compromissione personale, sociale e occupazionale.
Criterio D. I sintomi (A e B) non sono causati esclusivamente da disabilità fisiche (ad esempio, la cecità o la perdita dell’udito), dalle disabilità motorie, dal ridotto livello di coscienza o da effetti fisiologici diretti di una sostanza (ad esempio, uso di droga o farmaci).
L’apatia potrebbe derivare dalle limitazioni funzionali causate dal deficit cognitivo (Landers et al., 2001).

Diversi studi hanno dimostrato un’associazione significativa tra l’apatia e una riduzione dell’attività metabolica nelle regioni pre frontali (Benoit, Clairet, Koulibaly, Darcourt & Robert, 2004; Craig, Cummings, Fairbanks, Itti, Miller, Li & Mena, 1996) suggerendo che i cambiamenti neuropatologici alla base dell’apatia possono in parte spiegare l’alta frequenza della stessa in pazienti con malattia di Alzheimer.

Ci sono diversi strumenti in letteratura che valutano la presenza di apatia nella persona con malattia di Alzheimer. Uno di questi è l’Apathy Scale (Robert et al.,2002), un questionario dotato di una buona validità e affidabilità composto da 14 item. Il questionario viene compilato dai familiari dei pazienti o da un caregiver e valuta 3 dimensioni che definiscono l’apatia: l’ottundimento emotivo, la mancanza di iniziativa e la mancanza di interessi.
Uno studio longitudinale (Starkstein, Jorge, Mizrahi & Robinson, 2006) ha valutato 354 persone con diagnosi di malattia di Alzheimer e ha misurato la presenza di apatia attraverso il questionario Apathy Scale (Robert et al., 2002) e mediante criteri standardizzati.

Inoltre, sono stati misurati altri aspetti tra i quali la depressione, la compromissione funzionale e il funzionamento cognitivo globale. I risultati hanno evidenziato come l’apatia rappresenti un predittore significativo di una maggiore depressione e di un declino funzionale e cognitivo più rapido.
La sindrome apatica nella malattia di Alzheimer è associata ad un maggiore rischio di mortalità. (Vilalta-Franch, Calvó-Perxas, Garre-Olmo, Turró-Garriga & López-Pousa, 2013).

L’apatia nella persona con malattia di Alzheimer spesso è anche responsabile di un aumento dello stress nei caregivers (Samus et al., 2005; Weiner, Hynan, Bret & White, 2005) e nel corso del tempo la rabbia e i conflitti conseguenti rendono l’apatia un fattore di rischio per l’istituzionalizzazione (Rea, Carotenuto, Fasanaro, Traini & Amenta, 2014).

 

Il trattamento dell’apatia nella malattia di Alzheimer

Considerando il ruolo esercitato dall’apatia nella malattia di Alzheimer, diversi studi hanno indagato la possibilità di ridurre la sindrome apatica attraverso trattamenti farmacologici e/o non farmacologici. Attualmente l’epidemiologia, la patogenesi e il trattamento dell’apatia nella malattia di Alzheimer sono poco chiari e controversi (Drijgers, Aalten, Winogrodzka, Verhey& Leentjens, 2009; Levy & Dubois, 2006; Robert, Mulin, Malléa& David, 2010). Il trattamento farmacologico nella persona con demenza non permette una restituito ad integrum, ma, al massimo consente un lieve rallentamento della malattia. Attualmente il trattamento farmacologico della demenza si basa sulla prescrizione di inibitori dell’acetilcolinesterasi (Donepezil, Rivastigmina, Galantamina) e sull’antagonista del recettore NMDA (Memantina). Questi farmaci sembrano indurre miglioramenti modesti sulle funzioni cognitive, sull’attività della vita quotidiana e sui sintomi comportamentali della demenza in pazienti con un livello di malattia da lieve a grave (Black et al.,2007; Erkinjuntti, Kurz, Gauthier, Bullock, Lilienfeld& Damaraju, 2002; Reisberg, Doody, Stöffler, Schmitt, Ferris & Möbius, 2003).

Tuttavia, secondo una recente review della letteratura (Rea et al.,2014) non vi è ancora un evidente vantaggio di una particolare terapia farmacologica nel trattamento dell’apatia. Lo stesso resta una delle principali sfide nella cura della malattia di Alzheimer.
L’uso dei farmaci in persone con malattia di Alzheimer in alcuni casi non ha mostrato un effetto superiore rispetto al placebo e può essere causa di un peggioramento del disturbo (Doody et al.,2013; McCleery Cohen, & Sharpley,2014; Schneider, Dagerman, & Insel, 2005). Per tali ragioni parte dell’attenzione è stata rivolta anche alle cosiddette terapie non farmacologiche, che hanno dimostrato una certa efficacia nella riduzione dei sintomi comportamentali, psicotici e nel miglioramento dei sintomi cognitivi, del benessere e della qualità della vita delle persone con malattia di Alzheimer (Chen, Liu, Lin, Peng, Chen, Liu, & Chen, 2014; Cooper et al., 2012; Mitchell, McCormack & McCance, 2014; Spagnolo, Aricò, Bergamelli, Mazzucco, Boldrini, Di Giorgi & Gallucci,2015).

Uno studio pilota (Spagnolo et al.,2015) ha indagato il ruolo della stimolazione cognitiva caratterizzata da un’associazione sequenziale di 3 terapie non farmacologiche: la Rot (Realty Orientation Therapy) (Spector, Davies, Woods & 2000), la terapia della Reminiscenza (Goldwasser, Auerbach, & Harkins,1987) e quella della Rimotivazione (Mazzucchi,2006).  Il programma (3R-CS) è stato applicato a 36 pazienti e ai loro caregiver. Tutti i pazienti hanno ricevuto un assessment multidimensionale che consisteva nell’individuare informazioni di carattere socio-demografico, clinico e neuropsicologico.

Al termine del trattamento è stato dimostrato un miglioramento significativo per quanto riguarda l’aspetto cognitivo e delle autonomie nelle attività della vita quotidiana. I sintomi comportamentali delle persone con malattia di Alzheimer e lo stress del caregiver hanno mostrato una significativa riduzione. Considerando la scarsità di dati presenti in letteratura sarebbe importante realizzare studi controllati e randomizzati al fine di indagare gli effetti delle terapie farmacologiche e non farmacologiche e una loro possibile associazione.

In particolare per approfondire gli effetti dei trattamenti nella riduzione dell’apatia occorrerebbe misurare il costrutto in modo adeguato considerando sia la percezione dei familiari che quella di operatori e caregiver, cercando di isolare possibili variabili confondenti e considerando le differenze già individuate in letteratura tra apatia e depressione.

Il modello di Garner e Bemis per i disturbi alimentari

Secondo il modello di Garner e Bemis i sintomi anoressici e bulimici sarebbero sostenuti da un gruppo di assunzioni cognitive non così immediatamente collegate al sintomo del controllo alimentare e del peso, ma con implicazioni più ampie che investono la definizione di sé e il rapporto con gli altri.

MAGREZZA NON E’ BELLEZZA – I DISTURBI ALIMENTARI: Il modello di Garner per i disturbi alimentari (Nr. 13)

 

Il modello di Fairburn e i suoi limiti

Il primo modello di Fairburn, benché efficace, presentava parecchi limiti. Era applicabile solo alla bulimia e funzionava soltanto su metà delle pazienti. L’altra metà sfuggiva ai benefici del trattamento. Inoltre, l’analisi cognitiva di Fairburn era eccessivamente aderente al sintomo e trascurava le strutture cognitive più complesse.

Che cosa significa ‘eccessivamente aderente al sintomo’? Come abbiamo visto, la terapia cognitiva si basa sull’analisi delle convinzioni e degli scopi che sottendono ai comportamenti, anche ai comportamenti di natura sintomatologica. In altre parole, i sintomi sarebbero anch’essi comportamenti che mettiamo in atto per ottenere qualcosa. L’ansia, sebbene sgradevole, ci serve per innalzare l’attenzione e la concentrazione  in presenza di un pericolo o davanti a una prova difficile; le compulsioni ossessive hanno una funzione di controllo o espiatoria, e così via.

Lo stesso vale per i comportamenti alimentari disturbati di anoressiche e bulimiche: anch’essi rispondono a scopi e a convinzioni o, in termini cognitivi, a credenze. Fairburn aveva saputo dare una risposta cognitiva ad alcune domande: perché la paziente bulimica vomita? Perché quella anoressica restringe la sua alimentazione? Perché fa dipendere l’autostima dal controllo del peso e dell’aspetto corporeo.

Mantenere l’autostima a un certo livello è l’obiettivo di ogni essere umano. Ma è un obiettivo non facile, perché la vita pone continuamente davanti a sconfitte e frustrazioni e occasioni che ci fanno dubitare del nostro valore.

L’ostacolo si supera a patto di saper relativizzare e contestualizzare gli inevitabili fallimenti. Ma si tratta di un’operazione complessa, che riesce probabilmente soltanto se si possiede la capacità di fissare e raggiungere obiettivi personali soddisfacenti e gratificanti che danno senso, significato e scopo alla vita (ovvero, auto-direzionalità). Le pazienti con disturbo alimentare non hanno questa capacità e  finiscono per legare la propria autostima a un parametro meccanicamente controllabile, appunto il controllo del peso e del  corpo. L’autostima, quindi, era l’unico parametro psicologico sopraordinato presente nel modello elaborato da Fairburn.

 

Prima di Fairburn: il modello di Garner e Bemis

Prima ancora di Fairburn, altri due studiosi, Garner e Bemis, avevano tentato di applicare il modello cognitivo ai disturbi alimentari. Un tentativo, persino più sofisticato di quello di Fairburn, perché secondo il modello di Garner e Bemis i sintomi anoressici e bulimici  sarebbero sostenuti da un gruppo di assunzioni cognitive non così immediatamente collegate al sintomo del controllo alimentare e del peso, ma con implicazioni più ampie che investono la definizione di sé e il rapporto con gli altri.

Intendiamoci: anche per il modello di Garner e Bemis le preoccupazioni sul peso e la forma del corpo  sono importanti, ma non in sé. Esse sono semmai descritte come indici di valore personale e di autocontrollo arbitrariamente scelti dalla paziente. Indici rozzi, certo, ma facilmente quantificabili. Il problema della paziente con disturbo alimentare è proprio l’incapacità di gestire un aspetto così ambiguo e altalenante dell’esistenza come l’amor proprio e l’autostima. È veramente possibile sapere se e quanto valiamo? È veramente possibile nutrire una buona stima di sé, priva di ombre e nonostante gli insuccessi e le delusioni che la scalfiscono? Sì, è possibile, ma non è un’impresa facile. Si tratta di imparare a tollerare stati emotivi dolorosi e sgradevoli.

Di qui la tentazione, in personalità più fragili, di rimpicciolire l’orizzonte del proprio valore personale a un parametro misero e ristretto, come il controllo del peso e dell’aspetto corporeo. Il modello di Garner e Bemis propone una visione che va oltre il modello troppo aderente ai sintomi di Fairburn e che comprende una descrizione più complessa e varia della personalità di anoressiche e bulimiche: ad esempio il loro perfezionismo patologico, stato  ansioso che le spinge a temere ogni errore in quel che fanno o dicono o sono, e che per queste pazienti equivale a un fallimento definitivo; la sfiducia profonda nelle relazioni con gli altri, che le anoressiche vivono come minacciosamente giudicanti e sprezzanti. Tutto questo si lega a una particolare difficoltà a comprendere e gestire i propri stati d’animo più negativi, con la conseguenza che per queste pazienti concentrare tutta la propria vita  sul cibo e il corpo diventa l’alternativa meno dannosa e gravosa.

Un altro parametro segnalato dal modello di Garner e Bemis è il timore della maturità (maturity fear), definito come fuga dal mondo complesso degli adulti, mondo in cui il giudizio di sé e degli altri è troppo sfuggente e cangiante e quindi frustrante, mentre l’anoressica è costantemente alla ricerca di sicurezze, certezze, controllo.

Queste credenze cognitive ampie e che investono l’intera persona vengono poi rimpicciolite nella serie dei pensieri automatici e dei comportamenti stereotipati individuati da Fairburn: cercare di dimagrire seguendo una dieta ferrea o, nel caso si verifichino delle abbuffate, utilizzando svariate condotte eliminative (vomito autoindotto, abuso di lassativi o diuretici, esercizio fisico eccessivo). Il disturbo si mantiene nel tempo grazie a rinforzi cognitivi ma anche ad alterazioni fisiologiche del ciclo fame-sazietà (Garner et al., 1997).

RUBRICA MAGREZZA NON E’ BELLEZZA – I DISTURBI ALIMENTARI

La musica come strumento di narrazione e condivisione: il caso di Gwen Stefani

Ad un anno da quella fatidica sera della cerimonia dei Grammy, Gwen Stefani, ex leader dei No Doubt e solista da ormai molti anni, racconta la sua storia sfidando gli interessi commerciali e persino i gusti del pubblico di seguaci.

 

Il partner di vita, marito da 13 anni e padre dei suoi tre figli, decide di interrompere bruscamente la relazione, portando con sé la storia del tradimento con la tata e tutti i pettegolezzi che pullulano tra i giornali.

Un anno difficilissimo per una diva dello spettacolo, sempre di più spinta a curare l’aspetto estetico e l’immagine, più dei contenuti. In occasione di un evento traumatico che scalfisce drasticamente la sua esistenza, la cantante decide di dare una svolta importante alla carriera: compone, così, un album che parla di sé.

 

La musica come strumento di narrazione e condivisione

Gwen Stefani considera il suo lavoro un misto di creatività e impegno, che coinvolge le aspettative, il sé presente e passato, l’avanzamento e il superamento dei limiti.

La sfida non è nei confronti di un’altra cantante, ma verso una Gwen che per avere successo deve spingersi oltre e migliorare e soprattutto porsi molti interrogativi sull’utilità della sua carriera.

Bellissima e famosa, si ritrova di colpo di fronte ad un divorzio da cui, però, la cantante sembra risalire con stile.

Con ‘This is what the truth feels like’, Gwen Stefani decide di seguire il bisogno artistico e psicologico di comunicare, attraverso le canzoni, la sua storia, i pensieri e i sentimenti più intimi.

Purtroppo, però, i discografici non amano questo slancio di sincerità e le critiche arrivano alla velocità della luce. Troppo personale e poco commerciale, diranno, invitandola a cambiare  stile, altrimenti le vendite caleranno vertiginosamente.

Contrariamente alle aspettative della casa discografica, il disco si aggiudica il primo posto nella classifica delle vendite americane, un’esperienza che la cantante non aveva ancora sperimentato. Il lieto fine si estende anche alla vita privata, perché la donna scopre di avere la speranza, il coraggio, la perseveranza e anche la capacità di innamorarsi di nuovo.

La storia di Gwen Stefani è un esempio di come la musica, unita ad importanti risorse psicologiche possa costituire un ottimo strumento per affrontare le avversità.

Parlare di sé attraverso le canzoni, seguendo la spontaneità e la creatività, nonché il coraggio di mettersi in gioco e di provare una strada diversa dal solito sottolineano una fenomenale capacità di affrontare il trauma con intelligenza e perseveranza.

Imboccando una strada nuova, quella dell’originalità, la cantante riesce addirittura a raggiungere una vetta importante, lasciando il dubbio che una buona parte del successo risieda proprio nel rispecchiamento dei bisogni del pubblico.

In altre parole, ritrovare una connessione tra il testo e le esperienze personali è un processo essenziale, che innesca non solo l’empatia ma anche una riflessione su di sé.

Consapevolmente o inconsapevolmente, la cantante può aver colto il bisogno non solo soggettivo, ma anche collettivo, di attribuire un significato rielaborando una storia unica ed irripetibile, ma con alcuni elementi ricorrenti e comuni riconoscibili in chi ascolta.

Il contributo della psiconeuroendocrinoimmunologia alla psicologia e alla psicoterapia

A Milano il 7 maggio, presso la Casa della Psicologia dell’OPL, si è tenuto il primo incontro del ciclo di conferenze della SIPNEI in relazione al tema della psicologia. In particolare, in questo incontro si è voluto brevemente presentare il modello PNEI e illustrarne le applicazioni in ambito psicologico e psicoterapeutico.

Dal Ciclo di Conferenze SIPNEI organizzate dalla sezione Lombardia

 

Lo stress come sistema di regolazione tra individuo e ambiente

Ad aprire i lavori è stata la dottoressa Marina Risi, specialista Ostetricia e Ginecologia nonché Vice-Presidente della SIPNEI. La dottoressa ha illustrato i principi alla base del paradigma scientifico della PNEI che studia, appunto, la relazione bidirezionale tra psiche e sistemi biologici di regolazione.

E’ stato introdotto il concetto di “stress”, che non va considerato qualcosa di per sé patologico. In realtà lo stress è l’espressione di un sistema di processi che modula, ai fini adattativi, la regolazione tra individuo e contesto. Con un’esposizione chiara e coinvolgente, la dottoressa Risi ha mostrato come l’individuo sia sempre impegnato nel mantenimento di un equilibrio e che i vari stressor (che possono essere di tipo psicologico, fisico, virale, ecc.) modificano questo equilibrio impegnando tutto l’organismo nella ricerca di una nuova stabilità. La reazione fisiologica allo stress è caratterizzata dal sistema portale ipotalamico-ipofisario che collega l’ipotalamo con l’ipofisi controllando, così,  il funzionamento neuroendocrino di tutto l’organismo e definendo delle specifiche interazioni sequenziali, chiamati assi neuroendocrini. Il numero di assi neuroendocrini corrisponde al numero di ormoni prodotti dall’ipofisi ed hanno capacità di autoregolazione.

La dottoressa, dichiarando che “Il corpo è pettegolo”, ha voluto in maniera semplice ma efficace far comprendere come l’organismo umano sia un’unità strutturata e interconnessa dove i sistemi psichici e biologici sono strettamente interdipendenti. I principali sistemi biologici coinvolti nella regolazione fisiologica sono la psiche, il sistema neurologico, quello endocrino e quello immunitario e da qui ne deriva il nome del paradigma. Tali sistemi, appunto, costituiscono un network psicocorporeo di relazione e regolazione capaci di garantire gli equilibri adattativi assimilando l’esperienza e gestendo la regolazione allostatica (ovvero la dinamica del mantenimento/cambiamento).

Il sistema dello stress, infatti, è organizzato in due assi (asse nervoso: circuito locus coeruleus-simpatico-midollare del surrene; e asse chimico: asse ipotalamo-ipofisi-corticale del surrene)  che si attivano contemporaneamente allertando fisiologicamente l’organismo. Tale attivazione comporta l’aumento del battito cardiaco e della pressione arteriosa ed, inoltre, attiva tutte le vie metaboliche le quali incrementano la produzione di energia necessaria per dare una risposta adeguata ad una qualunque minaccia per la sopravvivenza.

Dunque, il sistema dello stress è sempre attivo e, solo in particolari situazioni di eccesso o carenza, può produrre effetti che si rilevano progressivamente dannosi per l’individuo. Le attività legate allo stress producono un carico allostatico (ossia il peso biologico/energetico che il nostro organismo impiega per adattarsi alle condizioni mutevoli che affronta). In relazione a fattori soggettivi o ambientali il carico può diventare “sovraccarico” avviando una catena di conseguenti alterazioni del funzionamento corporeo.

Secondo tale approccio, dunque, lo stress cronico potrebbe concorrere all’insorgenza di patologie croniche come, ad esempio quelle cardiovascolari. In una ricerca pubblicata su Nature nel 2014, infatti, Heidt et al. hanno dimostrato, ad esempio, come il distress influenza negativamente il sistema immunitario inducendo l’aumento della produzione dei globuli bianchi. Tale incremento della produzione di globuli bianchi, a sua volta, determina l’aggravamento dell’infiammazione delle placche aterosclerotiche nelle arterie. L’aterosclerosi è associata all’infiammazione cronica e, nelle forme più avanzate, può portare a un restringimento dell’arteria e un ridotto afflusso di sangue, o produrre trombi e attacchi coronarici acuti.

 

Il ruolo della mente nei processi di regolazione corporea

All’intervento della dottoressa Risi è seguito quello del dottor David Lazzari, presidente SIPNEI – presidente dell’Ordine Psicologi Umbria e Responsabile del Servizio di Psicologia dell’Azienda Ospedaliera di Terni “Univ. S. Maria”.

Il dottor Lazzari ha sottolineato come sia importante lavorare secondo un paradigma di integrazione PNEI, soprattutto nel campo della Psicologia della Salute, focalizzando il suo intervento sul ruolo della mente nei processi di regolazione generale corporea.

All’interno del network corporeo e nel sistema dello Stress, la mente svolge un ruolo fondamentale di modulazione dove i segnali (enterocettivi o provenienti dall’ambiente) assumono significato in base alle esigenze individuali di adattamento.  L’eccessivo carico allostatico e psicologico collegati allo stress sono determinati in gran parte dall’attività mentale e, in quest’ottica, viene considerato tra i fattori di rischio principali per la salute.

Ciascun individuo può essere visto come un sistema che contratta costantemente il suo equilibrio adattativo in maniera più o meno funzionale. Tale negoziazione avviene in base alle risorse che ogni individuo possiede (ad esempio: obiettivi, legami affettivi, capacità di reazione). La mente è immersa nella fisiologia dell’organismo ma lo è anche nel contesto sociale e culturale. Per questo motivo  ha una funzione di regolazione generale rispetto ai processi adattativi e, più in generale, alla vita. In caso di malattia, non è un organo o una funzione del corpo ad ammalarsi, ma è la persona. La malattia è sempre dell’individuo ed è espressione di un malessere generale. Da tempo, infatti, la letteratura scientifica ha dimostrato come fattori soggettivi e psicosociali di persone affette, ad esempio, da patologie oncologiche influiscano in maniera importante sull’aderenza alle cure, sulla gestione e sulle complicazioni della malattia, sulla qualità di vita. Tra i fattori soggettivi, quelli che incidono maggiormente sono le modalità cognitive ed emotive con le quali l’individuo affronta la condizione di malattia, e la presenza di disagi o disturbi psicologici quali ansia e depressione (Leventhal et al, 2008).

Perciò, l’uomo costruisce attivamente la propria realtà, anche nel caso di malattia e, coerentemente con tale costruzione, attua comportamenti che a loro volta influenzeranno il suo stato di salute.

Presentando alcuni dati scientifici, pubblicati nel suo libro “PSICOTERAPIA: effetti integrati, efficacia e costi-benefici” , Lazzari ha dunque mostrato i livelli di efficacia delle psicoterapie e la sua utilità quando inserita in interventi multidisciplinari.

 

L’EMDR: intervento terapeutico del trauma

L’ultimo intervento dell’incontro è stato quello del dottor Mirko La Bella, psicologo e psicoterapeuta, EMDR Pratitioner nonché Responsabile SIPNEI della Regione Piemonte e docente presso l’Università Popolare di Torino.

Il dottor La Bella, ha parlato di regolazione emozionale e ha illustrato la tecnica EMDR come esempio di intervento integrato promosso anche dal paradigma PNEI.

L’EMDR è un approccio terapeutico impiegato per il trattamento del trauma e delle problematiche legate allo stress, sia di tipo traumatico che non.

Partendo dalle evidenze scientifiche che hanno dimostrato gli effetti della tecnica EMDR sul Sistema Nervoso Centrale, il paradigma PNEI ha avviato una riflessione sull’EMDR dal punto di vista dell’integrazione mente-corpo.

In quest’ottica tale tipologia di intervento si mostra efficace in quanto, per il lavoro terapeutico, si prende in considerazione non solo l’aspetto cognitivo ed emotivo ma la totalità dell’esperienza (aspetti fisiologici e relazionali oltre che emotivi e cognitivi). Il lavoro EMDR permette l’elaborazione dell’informazione legata ad eventi stressanti attraverso una nuova integrazione degli aspetti psicobiologici correlati all’evento. Il punto di forza dell’EMDR dunque, in un’ ottica PNEI, è la capacità di prendere in considerazione ed intervenire contestualmente sia sugli aspetti cognitivi ed emotivi che sui vissuti corporei. I dati scientifici attualmente disponibili confermano tali considerazioni. E’ noto, infatti come la tecnica EMDR modifichi i parametri fisiologici riducendo  l’attivazione da stress ed aumentando l’attivazione parasimpatica (Sack et al., 2008).

L’incontro si è concluso con l’augurio di aver suscitato interesse e di aver stimolato ogni professionista a costruire un dialogo multidisciplinare con tutte le figure coinvolte nella cura dei propri pazienti.

I gialli di Van Gogh: la pittura come ossessione che esaspera la nevrosi

La precaria salute mentale di Van Gogh, le sue stravaganze e le sue inquietudini emergono chiaramente nelle sue opere, dove si nota anche un continuo cambiamento dell’uso del colore, che riflette il modificarsi delle sue esperienze emotive. Nei dipinti di Van Gogh la luce non è mai calibrata: o è accecante o è tenebrosa, proprio come i suoi stati d’animo.

 

Se consideriamo l’arte come una rappresentazione del sé, gli ultimi dieci anni di vita di Vincent Van Gogh (1853-1890), che coincidono con la sua produzione artistica, ci permettono di affermare che il pittore olandese era un individuo profondamente depresso, ansioso e mentalmente confuso. Nel 1889 l’artista scrisse al fratello Theo:

Penso di accettare apertamente il mio mestiere di matto, come Degas ha vestito i panni del notaio. Ma ecco, non mi sento ancora tutta la forza necessaria per un simile ruolo.

La precaria salute mentale di Van Gogh, le sue stravaganze e le sue inquietudini emergono chiaramente nelle sue opere, dove si nota anche un continuo cambiamento dell’uso del colore, che riflette il modificarsi delle sue esperienze emotive. Nei dipinti di Van Gogh la luce non è mai calibrata: o è accecante o è tenebrosa, proprio come i suoi stati d’animo. La pittura è, per Vincent, un’ossessione che esaspera la sua nevrosi, tant’è vero che, in alcuni dei suoi ricoveri, gli venne proibito di dipingere. Pochi artisti sono riusciti ad esprimere i dolori e le sofferenze della propria vita con la stessa intensità di Van Gogh.

Dal 1880 il suo colore preferito divenne il giallo e dipinse una serie di ritratti di girasoli per decorare la sua casa gialla ad Arles, nel sud della Francia: i fiori sono sistemati su uno sfondo giallo burro, appoggiati su un tavolo color ocra, i petali, sempre gialli, sono spigolosi, dipinti con un’energia quasi maniacale. La predilezione di Van Gogh per il colore giallo era dovuta, molto probabilmente, all’abuso che faceva dell’assenzio: questo liquore agiva sul suo sistema nervoso, provocando delle allucinazioni e la xantopia, ovvero la visione gialla degli oggetti.

Mentre viveva ad Arles, Van Gogh invitò Paul Gauguin a trascorrere un periodo con lui: la fragilità mentale del primo e l’arroganza del secondo si rivelarono, però, una miscela esplosiva. Dopo una violenta lite tra i due, il pittore olandese si tagliò con un rasoio la parte di un orecchio che portò poi in un bordello per donarlo ad un’amica. Dopo questo episodio, al ritorno dall’ospedale, Vincent dipinse due straordinari autoritratti che mostrano la portata della ferita. Lo scopo degli autoritratti era quello di tranquillizzare il fratello Theo, al quale scrisse:

Credo che il ritratto possa dirti meglio di una lettera come sto.

Iniziò così un periodo caratterizzato da lunghi ricoveri psichiatrici e da una produzione artistica dove le pennellate di giallo diventarono sempre più violente. L’impeto delle sue creazioni è lo specchio della sua condizione psichiatrica.

In questo periodo Vincent ebbe l’aiuto di alcuni amici, tra cui il dottor Rey ed il pastore Salles; alternava periodi di lucidità a momenti di ricadute nella malattia. Nel mese di maggio 1889, Van Gogh entrò volontariamente nell’ospedale psichiatrico di Saint-Paul-de-Mausole. La diagnosi del direttore della clinica fu di epilessia: i medici gli somministrarono la digitale che accentuò il disturbo della xantopsia. I soggetti principali del lavoro di Van Gogh divennero gli ospedali ed i manicomi: nel 1889 dipinse infatti ‘Davanti al manicomio di Saint-Rémy‘, ‘I giardini di Saint-Paul‘, ‘Il dormitorio di Saint-Paul‘ ed il ‘Ritratto del dottor Rey‘.

 

I gialli di Van Gogh la pittura come ossessione che esaspera la nevrosi - immagine 1
Davanti al manicomio di Saint-Rémy (1889) – V. Van Gogh, olio su tela

 

Nella primavera del 1890 Van Gogh lasciò definitivamente Saint-Remy e si stabiliì a Auvers-sur-Oise, un villaggio non lontano da Parigi, dove viveva il dottor Gachet, che si sarebbe preso cura di lui. Van Gogh era particolarmente nervoso in questo periodo e litigò con lo stesso Gachet di cui scrisse al fratello:

Credo che non bisogna contare in alcun modo sul dottor Gachet. Mi sembra che sia più malato di me, o almeno quanto me. Ora, quando un cieco guida un altro cieco, non andranno a finire tutti e due nel fosso? Non so che dire. Certamente la mia ultima crisi, che fu terribile, fu in gran parte dovuta all’influenza di altri malati.

Ad Auvers-sur-Oise l’artista realizzò parecchi quadri, molti dei quali rappresentavano paesaggi e scene di campagna, in particolare campi di grano. Il suo ultimo capolavoro, ‘Campo di grano con corvi’ (1890), è la sintesi dell’irrequieta esperienza umana ed artistica di Vincent che scriverà, a tal proposito:

immense distese di grano sotto cieli tormentati, non ho avuto difficoltà ad esprimere la mia tristezza, l’estrema solitudine.

Qualcosa di irreparabile era nell’aria ed il sentirsi abbandonato a causa di un mancato arrivo a Auvers-sur-Oise del fratello Theo che per motivi di salute e di lavoro dovette rinunciare alle vacanze, contribuì alla decisione di compiere un drammatico gesto: nel luglio 1890, dopo essere uscito a dipingere nelle campagne che circondavano il paese, Vincent Van Gogh decise di togliersi la vita.

Le cronache hanno sempre parlato della morte per suicidio del pittore; tuttavia, nel 2011, due storici dell’arte, Steven Naifeh e Gregory Smith hanno proposto una diversa ricostruzione: ad uccidere l’artista sarebbe stato un colpo partito accidentalmente dalla pistola di un ragazzino. Durante le ore di agonia, Van Gogh avrebbe deciso di non denunciare il giovane, perché aveva accolto la morte come una liberazione dalla sua depressione.

Pochi mesi dopo anche il fratello Theo venne ricoverato in una clinica per malattie mentali, a Parigi. Dopo un apparente miglioramento si trasferì ad Utrecht, dove morì a gennaio 1891, a sei mesi di distanza dal fratello.

Fattori di rischio nello sviluppo di comportamenti aggressivi nei bambini: il ruolo dell’attaccamento

Violenza e comportamenti aggressivi nei bambini e negli adolescenti sono un fenomeno in crescente diffusione ai giorni nostri. Ma quali sono i fattori di rischio nello sviluppo di tali condotte aggressive?

Federica Di Francesco – OPEN SCHOOL Studi Cognitivi, San Benedetto del Tronto

 

Quando si parla di fattori di rischio si fa riferimento a particolari caratteristiche o processi ritenuti all’origine del problema.

Gli eventi che si verificano durante l’infanzia e l’età prescolare sembrano portare allo sviluppo di disturbi nella condotta in età scolare, violenza nell’adolescenza e disordini psichiatrici in età adulta (Loeber, 1991; Robins, 1991).

Un fattore di particolare importanza è la qualità dello sviluppo della relazione genitore-bambino. In particolare,  gravi disordini nell’attaccamento portano allo sviluppo di comportamenti aggressivi nei bambini, comportamenti controllanti e disturbi nella condotta. Già a partire dai 5-6 anni, questi bambini mostrano mancanza di responsabilità, autogratificazione a spese altrui, disonestà e disprezzo per gli standard sociali (Raine, 1993). Secondo Bowlby (1969) un attaccamento problematico nei primi 3 anni di vita può portare ad una psicopatia affettiva, ossia all’incapacità di formare relazioni affettive significative, unita allo sviluppo di una forte rabbia, scarso controllo degli impulsi e assenza di rimorso.

Prima di soffermarci sull’importanza dell’attaccamento, è bene passare brevemente in rassegna ulteriori fattori significativi che potrebbero contribuire allo sviluppo di comportamenti aggressivi nei bambini e disordini della condotta.

 

 

Comportamenti aggressivi nei bambini: i fattori di influenza

Una combinazione di fattori emotivi, sociali e biologici possono interagire tra loro e promuovere comportamenti violenti e acting-out antisociali, in particolare l’interazione tra vulnerabilità interna (es. deficit emotivi e/o cognitivi) e fattori ambientali negativi (es. abusi o trascuratezza), possono dar vita a veri e propri disturbi della condotta (Lewis, 1990).

 

Ambiente familiare

Un significativo fattore di rischio è dato dall’ambiente familiare. Numerose ricerche hanno messo in luce una forte correlazione tra particolari aspetti dell’ambiente familiare e comportamenti aggressivi nei bambini e negli adolescenti, in particolare un basso livello socio economico (Sameroff, 1987), l’essere genitori single (Webster-Stratton, 1990), alti livelli di stress e depressione materna (Campbell, 1990) e l’esposizione a violenza fisica e psicologica (Juoriles et al., 1980), contribuirebbero alla formazione di condotte distruttive. Spesso si tratta di genitori con personalità antisociali, che elargiscono al bambino dure punizioni fisiche, non forniscono un’adeguata supervisione e sono poco coinvolti e presenti nella vita del figlio.

 

Fattori ambientali

Oltre alla famiglia, il bambino viene anche a contatto con l’ambiente esterno che può fornirgli modelli ed esempi che esaltano la violenza e in molti casi la giustificano. Quando si parla di fattori ambientali si fa riferimento ad un’atmosfera altamente impoverita, caratterizzata da modelli di violenza all’interno di comunità e dall’immediato accesso alla violenza fornito dai media. I comportamenti violenti possono infatti essere in larga parte appresi. I bambini cresciuti in questi ambienti apprendono che la violenza è un modo per risolvere i problemi e già dall’età prescolare viene a formarsi un sistema di credenze che induce all’uso della violenza: ‘l’aggressività è un modo legittimo per esprimere sentimenti, risolvere problemi, aumentare la propria autostima e raggiungere il potere’ (Shure &Spivak, 1988; Slaby & Guerra, 1988).

Un’ulteriore fonte di apprendimento è la TV, infatti si è visto che bambini che guardano cartoni animati violenti sono più predisposti a picchiare i compagni di scuola, non rispettare le regole all’interno della classe e a discutere con le insegnanti; questi bambini potrebbero risultare, spesso, insensibili al dolore e alla sofferenza degli altri (Huston et al., 1992).

 

Fattori biologici

Ad arricchire il quadro dei fattori di rischio nello sviluppo di disturbi della condotta e comportamenti aggressivi nei bambini , contribuiscono anche i fattori biologici, quali l’esposizione prenatale a droghe e alcool, problemi nello sviluppo del feto, stress materno, complicazioni nel parto e nascite premature, deficit nutrizionali e background genetico.

Come ben sappiamo la violenza non è correlata all’esistenza di un singolo gene, ma a tratti che potrebbero essere ereditati, come ad esempio un temperamento disinibito ed impavido, iperattività e problemi attentivi. Molti studi indicano, inoltre, come problemi cognitivi e linguistici possono precedere lo sviluppo di comportamenti violenti, in particolare sembrerebbe che bambini con disordini della condotta mostrerebbero deficit nell’espressione verbale e nella comprensione linguistica, nonché deficit delle funzioni esecutive correlati a disfunzioni del lobo frontale sinistro (Beitchman, Nair, Clegg, Ferguson & Patel, 1986; Schonfeld, Shaffer, O’Connor & Portnoy, 1988; White, Moffin & Silva, 1989, Gorenstein, Mammato & Sandy, 1989).

 

 

Comportamenti aggressivi nei bambini: il ruolo dell’attaccamento

Oltre ai fattori familiari, ambientali e biologici, particolarmente rilevante nello sviluppo di comportamenti aggressivi nei bambini risulta essere lo stile di attaccamento.

La teoria dell’attaccamento (Bowlby, 1969, 1973, 1979, 1980, 1988) postula l’esistenza nell’uomo di una tendenza innata a ricercare per tutto l’arco di vita la vicinanza protettiva di una figura ben conosciuta (di riferimento) che accudisce e protegge, ogni volta che si costituiscono situazioni di pericolo, dolore, fatica, solitudine. Quando si raggiunge il riavvicinamento con essa, dopo una fase di lontananza, l’attivazione fisiologica e le emozioni si attenuano e l’individuo si tranquillizza.

L’attaccamento è un sistema motivazionale a base innata che insieme con quelli dell’accudimento, della cooperazione, a quello agonistico e sessuale (Liotti e Intreccialagli, 1992; Liotti, Monticelli, 2008) si attiva nelle relazioni adulte solo in momenti esistenziali e in contesti ambientali particolari e specifici.

All’interno del sistema di attaccamento vengono evocate emozioni di paura, collera, tristezza, gioia e sicurezza, attraverso cui si modula la richiesta di cura e di vicinanza e  si sollecita nel genitore il sistema motivazionale innato di accudimento.

Con il passare del tempo le modalità attraverso le quali si entra in relazione con le figure di riferimento si generalizzano, arrivando a formare gli Internal working model, ossia rappresentazioni di sé, dell’altro e di sé con l’altro, schemi cognitivi interpersonali che regolano in direzioni individualmente diverse il comportamento di attaccamento su base innata (Ainsworth et al., 1978). Queste rappresentazioni apprese costituiscono una caratteristica personale che modella le relazioni interpersonali, portando alla formazione di uno specifico stile di attaccamento: sicuro o insicuro (evitante, ansioso-ambivalente, disorganizzato).

 

Attaccamento sicuro

Un tipo di attaccamento definito sicuro prevede che il bambino abbia sicurezza e protezione dalle vulnerabilità attraverso la vicinanza con il caregiver. In questo contesto risultano fondamentali la sensibilità e la responsività materna che si esplicano in: percezione accurata dei segnali espliciti e delle comunicazioni implicite del bambino, interpretazione accurata dei segnali percepiti, sintonizzazione affettiva (condivisione empatica), risposta comportamentale, ossia prontezza e appropriatezza della risposta, completezza della risposta e costanza (prevedibilità).

Attraverso uno stile di attaccamento sicuro, il bambino apprende funzioni fondamentali per il suo sviluppo:

  • Impara le basi della fiducia e della reciprocità, che gli serviranno come modello per tutte le future relazioni affettive;
  • Esplora l’ambiente con sicurezza, fattore che lo porterà ad un buon sviluppo cognitivo e sociale;
  • Sviluppa l’abilità di autoregolazione, che gli permetterà un efficace controllo degli impulsi e delle emozioni;
  • Crea le basi per la formazione dell’identità, che includerà il senso di competenza, l’autostima e il giusto bilanciamento tra autonomia e dipendenza;
  • Da vita ad una morale prosociale, che comporterà la formazione di atteggiamenti empatici e compassionevoli;
  • Genera un sistema di credenze nucleari, che comprendono una valutazione cognitiva del sé, del caregiver, degli altri e della vita in generale;
  • Sarà protetto da stress e traumi, attraverso la ricerca attiva di risorse e la resilienza.

La creazione di una relazione di attaccamento sicuro tra madre e bambino è il principale fattore protettivo contro la formazione di comportamenti violenti e pattern cognitivi e comportamentali antisociali.

Gli specifici fattori protettivi collegati all’attaccamento che riducono il rischio di sviluppare condotte violente e comportamenti aggressivi nei bambini sono:

  • L’abilità di regolare e modulare impulsi ed emozioni: la funzione primaria dei genitori è aiutare il bambino a modulare l’arousal attraverso la sintonia e la capacità di una buona gestione del tempo nel gioco, nella nutrizione, nel conforto, nel contatto fisico, negli sguardi, nella pulizia e nel riposo; in sintesi insegnando al bambino le competenze che gradualmente lo aiuteranno a modulare il suo arousal;
  • Lo sviluppo di valori pro sociali, empatia e moralità: un attaccamento sicuro promuove valori e comportamenti prosociali che includono l’empatia, la compassione, la gentilezza e la moralità;
  • Stabilire un solido e positivo senso di sé: i bambini che hanno una basa sicura, caratterizzata da risposte appropriate da parte del caregiver e dalla sua disponibilità, hanno più probabilità di essere autonomi ed indipendenti durante l’arco dello sviluppo. Esplorano l’ambiente con poca ansia e maggiore abilità, sviluppando una maggiore autostima, abilità di mastery e differenzazione di sé. Questi bambini sviluppano credenze positive e aspettative circa sé stessi e le relazioni interpersonali (positive internal working model). Credenze positive su di sé: ‘sono buono, ricercato, competente e amabile‘; Credenze positive sui genitori: ‘loro sono responsivi ai miei bisogni, sensibili e affidabili‘; Credenze positive sulla vita: ‘il mondo è sicuro, la vita merita di essere vissuta‘;
  • L’abilità di gestire stress e avversità: numerose ricerche dimostrano come l’attaccamento sicuro costituisca una difesa nello sviluppo di psicopatologie associate a traumi ed avversità (Werner & Smith, 1992);
  • L’abilità di creare e mantenere relazioni emotivamente stabili: l’attaccamento sicuro implica una maggiore consapevolezza degli stati mentali degli altri, che non solo produce un rapido sviluppo della moralità, ma protegge il bambino dallo sviluppo di comportamenti antisociali.

Riassumendo si può affermare che i primi anni di vita costituiscono un’importantissima fase di sviluppo, nella quale il bambino apprende la fiducia, i pattern relazionali, il senso di sé e le abilità cognitive.

 

Attaccamento insicuro

Purtroppo, però, non tutti i bambini sperimentano un attaccamento sicuro, caratterizzato da amore, sicurezza e genitori che offrono protezione. I bambini con una marcata compromissione nell’attaccamento spesso diventano impulsivi, oppositivi, mancano di coscienza ed empatia, sono incapaci di dare e ricevere affetto e amore, esprimendo, quindi, rabbia, aggressività e violenza.

Le cause di disordini nell’attaccamento (attaccamento insicuro) possono essere svariate: abuso, neglect, depressione o patologie psichiatriche dei genitori (contributi genitoriali), difficoltà temperamentali, nascita prematura o problemi prenatali del feto nel bambino (contributi del bambino) e povertà, casa o comunità in cui si esperisce violenza e aggressività (contributi ambientali).

Un attaccamento insicuro può influenzare molti aspetti del funzionamento del bambino ed in particolare:

  • Il comportamento: il bambino tenderà maggiormente ad essere oppositivo, provocatorio, impulsivo, bugiardo, fino a commettere piccoli furti, aggressivo, iperattivo e autodistruttivo;
  • Le emozioni: il bambino proverà una rabbia intensa, si sentirà spesso depresso e senza speranze, sarà lunatico, avrà paura e sperimenterà l’ansia, sarà irritabile e avrà delle reazioni emotive inappropriate di fronte agli eventi esterni;
  • I pensieri: avrà credenze negative su sé stesso, sulle relazioni e sulla vita in generale, problemi attentivi e di apprendimento e mancherà del ragionamento causa-effetto;
  • Le relazioni: mancherà di fiducia verso gli altri, sarà controllante, manipolativo, avrà relazioni instabili con i pari e tenderà ad incolpare gli altri per i propri errori;
  • Il benessere fisico: il bambino potrebbe presentare enuresi ed encopresi, potrebbe essere più incline agli incidenti e avere una bassa tolleranza del dolore;
  • La morale: saranno spesso presenti mancanza di empatia, di compassione e di rimorso.

Nei bambini dai 2 ai 3 anni di età genitori non responsivi e trascuranti possono generare disperazione, eccessiva tristezza o l’esprimersi di una rabbia fuori controllo; questi bambini saranno portati a ricercare disperatamente l’attenzione dei genitori attraverso comportamenti negativi, caratterizzati da irrequietezza e irritabilità. A partire dai 5 anni tenderanno ad essere molto arrabbiati, oppositivi e a mostrare poco entusiasmo nell’apprendimento; svilupperanno inoltre una marcata incapacità di controllare gli impulsi e di gestire le emozioni.

In particolare, numerose ricerche hanno dimostrato che un attaccamento disorganizzato (questo stile si sviluppa quando i bambini percepiscono la figura d’attaccamento come fortemente scostante o addirittura minacciosa; il modello negativo che il bambino si crea della principale figura di riferimento lo porta ad evitare da un lato le richieste d’aiuto e i conflitti e dall’altro a non fidarsi degli altri; lo stato d’animo principale è la paura e la difficoltà a tenere insieme le diverse parti dell’io) è associato con perdite irrisolte, paure e traumi di uno o entrambi i genitori. Le madri di bambini con attaccamento disorganizzato hanno, spesso, storie di violenze familiari e abusi, piuttosto che trascuratezza emotiva prolungata, sono spaventate dalle memorie del trauma passato, possono presentare problemi di dissociazione e far vivere i loro figli all’interno di un dramma familiare irrisolto (Main & Goldwyn, 1984).

Queste mamme non sono assolutamente sincronizzate con le richieste dei loro bambini, rimandando ad essi messaggi confusi, come ad esempio stendere le braccia verso il bambino, mentre stanno indietreggiando, e risposte inappropriate ai segnali dei bambini, come ridere mentre il bambino piange (Lyons-Ruth, 1996; Main, 1985; Spieker & Booth, 1998). Questo dimostra come uno stile di attaccamento disorganizzato, così come ogni altro stile di attaccamento, possa avere una trasmissione intergenerazionale. Genitori cresciuti in famiglie violente e maltrattanti trasmettono le loro paure e i loro conflitti irrisolti ai figli attraverso abusi o deprivazione emotiva. In questo modo i bambini si trovano a vivere un vero e proprio paradosso, da una parte la vicinanza al genitore incrementa le paure del bambino, dall’altra lenisce le sue paure (Lyons-Ruth, 1996; Main & Hesse, 1990).

Le credenze che questi bambini sviluppano sono caratterizzate da autovalutazioni negative e disprezzo verso sé stessi. In particolare penseranno di essere cattivi, incompetenti e non amabili, che i genitori non rispondono ai loro bisogni, sono insensibili e inaffidabili e che il mondo è pericoloso e la vita non merita di essere vissuta. Questo pattern di credenze porta il bambino ad un senso di alienazione dalla famiglia e dalla società in generale; egli sentirà sempre il bisogno di controllare gli altri e di proteggere sé stesso in ogni momento attraverso l’aggressività, la violenza, la rabbia e la vendetta.

Sono proprio i casi di attaccamento disorganizzato a portare allo sviluppo di comportamenti aggressivi nei bambini e disturbi della condotta, fattori che potrebbero poi contribuire allo sviluppo di una personalità antisociale.

 

 

Conclusioni

In conclusione, l’attaccamento insicuro ed in particolare uno stile di attaccamento disorganizzato, favorisce comportamenti aggressivi nei bambini e devianza sociale a causa dell’utilizzo dell’aggressività come reazione difensiva e per l’assenza di considerazione dei bisogni e dei sentimenti degli altri. Ma questo non è sufficiente per considerare l’attaccamento insicuro/disorganizzato come sinonimo di comportamento aggressivo. La maggior parte dei bambini cresciuti in ambienti poveri e degradati manifesta un attaccamento insicuro, ma non per questo in età adulta si comporta in modo criminale o violento.

Solo nei casi estremi di persone cresciute in condizioni di grave pericolo, di abbandono e di maltrattamento emotivo o fisico, la manifestazione dell’aggressività può risultare non funzionale al mantenimento della relazione, pur svolgendo ugualmente la funzione difensiva di limitare o interrompere il legame di attaccamento per proteggere il Sé dalla pericolosità di genitori (Crittenden, 1999). In questi casi la sofferenza e la paura inducono ad utilizzare l’aggressività non per riavvicinarsi alla figura di attaccamento, ma per controllarla e distruggerla, per cui la vendetta e la punizione diventano obiettivi primari predisponendo a futuri comportamenti violenti e antisociali.

Un intervento d’elezione per prevenire lo sviluppo di comportamenti aggressivi nei bambini , sarebbe quello di favorire in età precoce l’incremento di abilità che possano ridurre la necessità di questi bambini di agire in maniera violenta nel loro ambiente. Una modalità interessante a tale riguardo potrebbe essere quella di affiancare al tempo dedicato al gioco libero, lo sviluppo di attività di gioco strutturate che promuovano in tutti i bambini empatia, abilità sociali e rafforzino l’autostima.

Il mestiere delle parole. Cura e vita tra psicoanalisi, epistemologia e fenomenologia (2016) – Recensione

Nel libro di Mauro La Forgia, la domanda sui pilastri epistemologici dell’agire clinico costituisce il vero filo rosso della riflessione dell’autore. La Forgia è un noto psicoterapeuta junghiano, didatta del Centro Italiano di Psicologia Analitica, che ha attraversato un percorso di formazione assai singolare.

 

Karl Popper racconta, in Congetture e confutazioni, di avere indirizzato una volta a un gruppo di studenti di Fisica viennesi l’invito a prendere carta e matita, registrare le proprie osservazioni e infine riferirle. Gli studenti, disorientati, chiesero di rimando a Popper che cosa dovessero osservare. Come un maestro zen, Popper rispose loro che aveva già dimostrato ciò che voleva: gli studenti dovevano rendersi conto che osservare senza intenzione e progetto è impossibile; che i fatti puri non esistono.

L’osservazione è sempre selettiva. Essa ha bisogno di un oggetto determinato, di uno scopo preciso, di un punto di vista, di un problema. E la descrizione che ne segue presuppone un linguaggio descrittivo, con termini che designano proprietà; presuppone la similarità e la classificazione, che a loro volta presuppongono interessi, punti di vista, problemi

(Popper, 1963, p. 84).

 

Questo aneddoto dovrebbe essere raccontato a tutti coloro che nutrono eccessiva fiducia nella psicoterapia evidence based, che dovrebbe partire da una presunta osservazione clinica pura, scevra da pregiudizi teorici o epistemologici. In realtà chi non fonda una pratica clinica su fondamenti solidi di teoria e di epistemologia finisce per adottare semplicemente un realismo ingenuo, una filosofia in cui i pregiudizi (inconsapevoli) o meno divengono lo sfondo imprescindibile del proprio agire. Purtroppo, però, un simile atteggiamento è assai spesso diffuso tra gli psicoterapeuti.

Sorprende in positivo, quindi, imbattersi in un libro, come quello di Mauro La Forgia, nel quale la domanda sui pilastri epistemologici dell’agire clinico costituisce il vero filo rosso della riflessione dell’autore. La Forgia è un noto psicoterapeuta junghiano (didatta del Centro Italiano di Psicologia Analitica), che ha attraversato un percorso di formazione assai singolare. La sua prima vocazione è stata quella di fisico: come tale è divenuto ricercatore nella Facoltà di Fisica della ‘Sapienza’ di Roma, è stato curatore dell’Enciclopedia delle Scienze Fisiche della Treccani e ha offerto contributi di un certo rilievo anche come storico della scienza dell’Ottocento (La Forgia 1982; 1995).

Attratto da Jung, è divenuto psicologo analista sotto la guida di Mario Trevi e infine ricercatore e docente in ambito psicologico. La Forgia è dunque arrivato alla psicoterapia da una solida preparazione nelle hard sciences. Malgrado quanto ci si sarebbe potuti aspettare, tuttavia, ha sempre guardato con estremo sospetto i tentativi di riscrittura in termini di definizioni operative delle teorie psicodinamiche e soprattutto le tecniche cosiddette empiriche di indagine sul processo psicoterapeutico. Tali indagini, basate com’erano su algoritmi che giudicava di estrema banalità, gli apparivano del tutto inutili per comprendere il reale significato della terapia analitica e questo lo ha condotto a subire una certa marginalizzazione in campo universitario.

Da scienziato, storico della scienza e terapeuta, invece, l’approccio di La Forgia si volgeva piuttosto a indagare i fondamenti storici della disciplina e il senso epistemico ultimo delle teorie nel confronto con la prassi analitica. In pratica si trattava di una terza via, distante sia dall’ottimismo ingenuo dei clinici puri (per i quali il successo è di per sé prova della teoria di riferimento), sia dalla tendenza alla quantificazione e alla statisticizzazione. In questo, peraltro, il tracciato di La Forgia non è rimasto isolato, ma si è svolto parallelamente a quello di un ampio gruppo di analisti junghiani (da Aversa a Galimberti, da Trapanese a Pieri, da Marozza a Iapoce) il cui ispiratore è stato Trevi, e il cui principale organo espressivo è stato a lungo la rivista Metaxù (il cui lascito è stato poi raccolto da Atque).

Il mestiere delle parole raccoglie un venticinquennio di ricerche storiche e teoriche di La Forgia, incorporando diversi dei saggi pubblicati dall’autore e donando loro la veste di un tracciato coerente. L’autore si è inizialmente confrontato con gli autori-cardine della tradizione psicodinamica, Freud e Jung, con un approccio certamente originale e figlio della sua formazione. La Forgia è andato infatti alla ricerca di quegli aspetti del pensiero psicoanalitico delle origini sui quali meno si è indagato nel corso del tempo: le metafore scientifiche incorporate nella psicoanalisi e nella psicologia analitica. In questo senso una particolare attenzione ricevono il rapporto tra Freud e Mach e tra Freud e Einstein, da una parte; le filiazioni di Jung da Pauli e pensatori assai meno noti (sconfinanti nella parapsicologia), dall’altra. In quest’ultimo territorio, del resto, l’autore ha già lasciato una traccia significativa in una monografia specifica (La Forgia, 1991). A questi temi è dedicata la prima sezione del libro, intitolata ‘La passione naturalista‘.

In seguito, come molti junghiani italiani, La Forgia si è incontrato, sul territorio della clinica, con autori appartenenti a tradizioni di ricerca differenti. Ciò è avvenuto in particolare nell’affrontare quelle che l’autore chiama ‘condizioni limite dell’esistenza‘ (La Forgia, 2016, p. 7). Ne è risultato un tentativo di integrazione con approcci neofreudiani, delle relazioni oggettuali, della psicologia del Sé o anche cognitivisti. L’autore racconta del resto di come paradossalmente un paziente, il signor P., sia arrivato ad utilizzare in modo spontaneo una tecnica cognitivo-comportamentale di autorassicurazione, sulla base della propria esperienza analitica (La Forgia, 2016, pp. 152-3). Questo incontro è testimoniato dalla sezione intitolata ‘Una grammatica dell’esistenza‘.

Più di recente, infine, anche seguendo con coerenza le tracce di un interesse già sviluppato per Kierkegaard e Heidegger, La Forgia si è invece avvicinato alla fenomenologia e in particolare alla psichiatria fenomenologica e ha vissuto una sorta di svolta linguistica del proprio pensiero (non scevra da tratti wittgensteiniani). Gli ultimi capitoli (‘L’arte della cura‘), infatti, oltre a utilizzare ampiamente autori come Blankenburg e Binswanger, si focalizzano sul gioco linguistico costituito dal dialogo terapeutico. Riprendono inoltre, con un taglio nuovo, attraverso l’attenzione verso l’immagine (soprattutto onirica), quegli aspetti della riflessione sul simbolo che proprio Mario Trevi aveva a suo tempo additato come chiave assai trascurata per la comprensione della psiche umana (Il simbolo è il rimosso del nostro tempo; Trevi, 1986).

Il risultato finale si concentra sul momento decisivo della terapia, quello che Stern (2004) chiamava il now moment; e tenta di illuminare lo spazio attraverso il quale la psicoterapia agisce:

Viviamo ordinariamente un’esperienza nella quale parola e immagine percorrono strade condivise, con intrecci normalizzanti: ma accade che un’occorrenza inattesa denunci il carattere automatizzato della coappartenenza, ponendo le condizioni di un’improvvisa variazione di codice linguistico o di un repentino innesto immaginativo; sperimentiamo in quell’istante che una parola che brucia suscita un’immagine che brucia – o viceversa […] – e quest’evento […] muta qualcosa dentro di noi, decompone in un attimo norme e certezze, adombrando una diversa possibilità di vita

(La Forgia, 2016, pp. 247-8).

Lo chiamavano Jeeg Robot (2016), sentirsi prigionieri della propria realtà – Recensione

Su State of Mind avevamo parlato del profilo psicologico dei personaggi del film ‘Lo chiamavano Jeeg Robot’, successivamente abbiamo approfondito la tematica dei tratti psicologici dei personaggi, giungendo a delle riflessioni cliniche sulla relazione terapeutica con pazienti caratterizzati dallo stesso profilo psicologico di uno dei protagonisti (NdR).

 

L’intreccio delle vite dei tre personaggi dà origine, infatti, ad una storia in cui per lunghi tratti, la tematica del supereroe resta paradossalmente sullo sfondo, sovrastata dalla genuinità del racconto di un mondo popolato da personaggi tanto cinici e grotteschi quanto verosimili.

 

In una Roma contemporanea, sconvolta (e forse neanche tanto) dalle bombe, tra il centro e la periferia entrano in azione i tre personaggi principali del film: Enzo Ceccotti (Claudio Santamaria), ladruncolo di professione, schivo e taciturno, non sposato, senza amici, abita in un appartamento fatiscente e vive di piccoli furti. Fabio (Luca Marinelli), detto lo Zingaro, è invece un ex concorrente di un talent show e capo di una piccola banda di malviventi dedita a rapine e spaccio di droga; nel film cerca in tutti i modi di emergere, lasciare un segno nello squallore di un’esistenza grigia e relegata ai margini dei riflettori che contano. E infine c’è Alessia (Ilenia Pastorelli), giovane psicotica, probabilmente abusata, che vive in un mondo alternativo fatto di fantasia il quale vede come protagonisti i personaggi appunto del famoso cartone giapponese.

Non deve, tuttavia, ingannare il titolo del film: sebbene la trama ruoti intorno alla nascita di un supereroe, non ci troviamo di fronte, per fortuna, ad una versione italiana, e magari un po’ casareccia, dei fortunati film di genere hollywoodiani prodotti negli ultimi tempi.

L’intreccio delle vite di questi tre personaggi dà origine, infatti, ad una storia in cui per lunghi tratti, la tematica del supereroe resta paradossalmente sullo sfondo, sovrastata dalla genuinità del racconto di un mondo popolato da personaggi tanto cinici e grotteschi quanto verosimili. Ad andare in scena è soprattutto la periferia italiana, con il suo sottobosco di esistenze in bilico tra la quotidiana lotta per la sopravvivenza e la speranza del riscatto. In tutto ciò, spicca la capacità del regista Mainetti nel riuscire a fornire alle scene un sapore pulp che trae ispirazione dai migliori film italiani di genere degli anni ’70, quelli alla Fernando Di Leo e Sergio Corbucci, per intenderci.

Ma ritorniamo ai personaggi. Enzo è un uomo dai modi grossolani, che conduce una vita solitaria lontana da interessi ed affetti: ‘Io non so’ amico de nessuno‘, ripete spesso ad Alessia. Enzo non vive nei sobborghi di New York come Peter Parker o a Gotham City come Bruce Wyane; vive a Tor Bella Monaca, periferia est di Roma. Chi si aspetta, quindi, l’abituale traiettoria seguita spesso dalle trame dei film degli eroi della Marvel, rimarrà deluso. Qui siamo lontani dai personaggi americani perfettini, pieni di valori e buoni sentimenti. Enzo non è un bruco destinato a diventare farfalla, ma un delinquente di borgata, ‘sporco e cattivo’; non c’è da attendersi nessuna metamorfosi, né una redenzione. E anche quando per uno strano scherzo del destino si trova ad avere degli incredibili superpoteri, lì userà, in modo abbastanza dissacrante, per continuare a fare l’unica cosa che sa fare nella vita: rubare.

Nella prima parte del film, emerge, quindi, il ritratto di un uomo disincantato, incapace di relazionarsi in modo funzionale agli altri e apparentemente neanche interessato a farlo, una sorta di analfabeta emotivo incapace di provare un genuino senso di appartenenza alla comunità umana.

Tuttavia nel corso del film emergerà un’altra verità: Enzo ha un triste passato segnato da tanti amici persi, inghiottiti dalla violenza della periferia. E’ chiaro allora che questa distanza che lo separa dagli altri è una sorta di corazza che lo difende dai propri vissuti più dolorosi. Sarà però Alessia a trovare una via per infrangerla: paradossalmente, infatti, ci sarà bisogno proprio di una psicotica, costantemente con la testa fra le nuvole, a rimettere Enzo in contatto con i suoi sentimenti e a trasmettergli speranza e quella fantasia necessaria a evadere dal grigiore della realtà alienante che vive giorno per giorno. E questo nonostante un inizio non proprio incoraggiante in cui Enzo faticherà a costruire anche con lei una relazione matura. Emblematica è la scena del rapporto amoroso, che ha luogo negli spogliatoi di un negozio, consumato da Enzo in modo fugace e senza riguardo per la donna, riproponendo nella realtà l’unico modello relazionale che conosce e che ha appreso attraverso il suo passatempo preferito: la visione quasi compulsiva di dvd porno.

C’è, quindi, Fabio, spiccati tratti narcisistici e antisociali, emblema di una generazione spaesata, senza maestri né punti di riferimento, figlia di una società che sembra essersi tramutata di colpo in un grande reality, o peggio ancora un talent show dove l’unica cosa che conta è emergere da un anonimato, diventato oramai sinonimo di mediocrità: ‘io vojo lasciare un segno come ‘sto cojone su youtube‘, dice a un certo punto. E per farlo ogni mezzo è lecito: partecipare ad un casting o piazzare una bomba allo stadio Olimpico durante il derby Roma-Lazio non fa differenza.

Alla fine anche lui, come Enzo riuscirà a ottenere i superpoteri che quindi diventano una sorta di metafora postmoderna, il simbolo di una possibile, forse l’unica,: in un caso, quella di Enzo, è la strada che porta il protagonista a riscoprire la propria dimensione umana; nell’altro, nel caso di Fabio, diventa l’agognata via d’uscita da una mediocrità insostenibile.

 

LO CHIAMAVANO JEEG ROBOT – IL TRAILER DEL FILM:

Abuso sessuale infantile: riconoscere i segni per intervenire efficacemente

Gli indicatori che possono essere chiamati in causa nell’avanzare un’ipotesi di abuso sessuale infantile sono di natura fisica e comportamentale, sebbene non esistano indici comportamentali ed emotivi che permettano di individuare in modo specifico un abuso sessuale.

 

Secondo la definizione del Consiglio d’Europa (Strasburgo 1978), il maltrattamento (o abuso) si concretizza in:

Atti e carenze che turbano gravemente i bambini e le bambine, attentano alla loro integrità corporea, al loro sviluppo fisico, affettivo, intellettivo e morale

(citato in Società Italiana di Neuropsichiatria dell’Infanzia e dell’Adolescenza, 2007).

 

All’interno dell’ampia categoria degli abusi all’infanzia, che comprende l’abuso fisico, quello psicologico, la patologia delle cure e l’abuso sessuale (Montecchi, 1998, citato in Caffo, Camerini, Florit, 2004), l’abuso sessuale infantile indica ‘qualsiasi atto compiuto con un soggetto di età inferiore ai diciotto anni finalizzato alla gratificazione sessuale di un adulto‘ (Di Giacomo e coll., 2013), di eccezionale gravità poiché prevede il ‘coinvolgimento di bambini e adolescenti, soggetti quindi immaturi e dipendenti, in attività sessuali che essi non comprendono ancora completamente e alle quali non sono in grado di acconsentire con totale consapevolezza’ (Kempe e coll., 1962).

Un fenomeno, che, secondo un’analisi compiuta da Finkelhor nel periodo 1970-1990, riguarderebbe il 7-36% delle donne e il 3-29% degli uomini, vittime di abuso sessuale infantile (citato in Di Giacomo e coll. 2013).

 

Indicatori dell’abuso sessuale infantile

Gli indicatori che possono essere chiamati in causa nell’avanzare un’ipotesi di abuso sessuale infantile sono di natura fisica e comportamentale.

Tra i primi, corpi estranei nella vagina o nel retto, tracce di liquido seminale, lesioni emorragiche, infezioni trasmissibili sessualmente, gravidanze in adolescenza; tra i secondi, disturbi del sonno, disturbo delle condotte alimentari, alterazioni del tono dell’umore con pianto, rabbia o mutismo, disturbi psicosomatici, tentativi di suicidio.

E’ importante sottolineare come non esistano indici comportamentali ed emotivi che permettano di individuare in modo specifico un abuso sessuale infantile allorché gli stessi indici possono essere presenti in seguito a stress familiari di natura non sessuale, per cui, in presenza di un segno comportamentale, anche perdurante, è necessario procedere con un approfondimento psicodiagnostico specifico (Società Italiana di Neuropsichiatria dell’Infanzia e dell’Adolescenza, 2007).

 

I comportamenti sessualizzati

Tra gli indicatori di cambiamento comportamentale, particolare rilevanza assumono i comportamenti sessualizzati che, se presenti, sono probabilmente tra i pochi indicatori specifici di abuso sessuale infantile in grado di orientare, più degli altri, verso una diagnosi: l’interesse eccessivo per la tematica, la provocazione, la produzione di parole e/o disegni sul registro sessuale, spiegabili come modalità per ottenere affetto e amore attraverso il sesso e preservare un senso di integrità e di autostima (Friedrich, 1990, citato in Malacrea e Lorenzini, 2002).

 

 

Fattori di vulnerabilità e di protezione

Esistono fattori di vulnerabilità e protettivi dagli abusi, incluso quello sessuale; tra i primi, una storia di abuso nei genitori, l’isolamento sociale e le condizioni abitative inadeguate per igiene e spazi, la presenza di conflitti genitoriali o di vere e proprie patologie, come gravi disturbi di personalità, nonché deficit del bambino, come disabilità psicofisiche; i fattori protettivi comprendono invece la qualità dei legami familiari, il livello di integrazione scolastica e sociale, la presenza di valori morali/religiosi o un buon patrimonio intellettivo del bambino (Cicchetti e Rizley, citato in Caffo, Camerini, Florit, 2004).

 

 

Conseguenze dell’abuso sessuale infantile

In merito alle conseguenze psicopatologiche a lungo termine derivanti da un abuso sessuale infantile esse si collocano a vari livelli (emotivo, psicologico, neurologico), benché non si possano considerare predeterminate, dipendendo da variabili quali la durata e l’invasività dell’abuso subito, l’eventuale concomitanza di più forme di maltrattamento, l’età del minore al momento dell’abuso, l’identità dell’abusante (familiare o non) e la presenza di eventuali fattori protettivi (Società Italiana di Neuropsichiatria dell’Infanzia e dell’Adolescenza, 2007).

Da un punto di vista emotivo, l’abuso sessuale infantile risulta in relazione particolarmente forte e consistente con problematiche di tipo depressivo e ansioso (Copeland e coll. 2007), con i disturbi del comportamento (Smith e coll. 2006, citato in Telefono Azzurro, 2006) e con un problematico funzionamento della vita sentimentale e sessuale (Salter, 2003, citato in Società Italiana di Neuropsichiatria dell’Infanzia e dell’Adolescenza, 2007).

Le compromissioni a lungo termine sono riscontrabili anche a livello cerebrale e consistono in una maggior attivazione dell’emisfero destro, specializzato nell’espressione delle emozioni (in particolare dell’amigdala), rispetto a quello sinistro, specializzato nell’elaborazione dell’esperienza a livello cognitivo e simbolico e nella regolazione dell’emotività. Ciò si traduce nella difficoltà a dare un significato personale agli eventi, attraverso un racconto soggettivo, che contrasta il terrore muto dell’esperienza tipico del trauma e permette di integrare le esperienze dolorose del passato nell’identità in divenire (Van der Kolk, 2004).

 

 

Terapia

Ecco che il trattamento si pone l’obiettivo ultimo di rielaborare cognitivamente e costruttivamente il vissuto traumatico, orientando le energie psicofisiche verso la costruzione di un futuro che superi le ferite del passato, attraverso l’innalzamento dell’autostima e l’autoregolazione delle emozioni.

Una tecnica ampiamente utilizzata nel trattamento dei traumi seguenti ad abuso è l’EMDR, approccio psicoterapico che, impiegando i movimenti oculari per ristabilire l’equilibrio eccitatorio/inibitorio, consente un rapido ed efficace effetto decondizionante nei confronti delle memorie traumatiche permettendo una migliore comunicazione tra gli emisferi cerebrali (Shapiro, 2000). Ciò si traduce nel cambiamento delle valutazioni negative di Sé, degli altri e degli eventi (impotenza, rabbia, disperazione) e delle reazioni fisiche di iperattivazione nei confronti di stimoli legati all’evento, percepiti come pericolosi, fino alla migliore discriminazione dei pericoli reali da quelli immaginari condizionati dall’ansia.

Il ricordo dell’esperienza traumatica diviene in tal modo una parte del passato, un ricordo lontano, in un distanziamento emotivo che riduce l’influenza paralizzante del dolore sulle possibilità di autodeterminazione, e induce un cambiamento a livello delle strutture e del funzionamento cerebrale (EMDR Italia, 2016). In casi di abuso sessuale infantile la psicoterapia (in particolare di quella cognitivo-comportamentale) è da considerarsi opzione preferenziale, riservando l’utilizzo di farmaci solo a casi selezionati (Di Giacomo e coll. 2013).

Profilo MMPI-2 in donne con depressione perinatale: uno studio preliminare

I disturbi dell’umore che possono manifestarsi in gravidanza o durante il periodo della maternità, sono caratterizzati da un’ampia variabilità clinica e si differenziano per periodo di insorgenza, gravità di malattia, e caratteristiche psicopatologiche.

 

A causa di quest’ampia variabilità clinica, molti ricercatori, nel corso degli anni, si sono chiesti se fosse possibile individuare fattori di vulnerabilità e di rischio specifici, come tratti o disturbi di personalità, in grado di predire lo sviluppo di una sintomatologia depressiva in gravidanza. Infatti, nella pratica clinica, i sintomi depressivi sembrano essere solo la manifestazione di una malattia ben più profonda, che coinvolge difficoltà di integrazione dell’identità e di modulazione dell’affettività.

Di per sé la maternità è concepita come un periodo di vulnerabilità fisica, psichica e relazionale in cui è richiesta una sorta di riorganizzazione dell’identità, che può, in presenza di una particolare struttura di personalità, innescare i sintomi affettivi.

Gli studi condotti in precedenza avevano suggerito che donne con disturbi di personalità di tipo Ossessivo-Compulsivo, Evitante, Dipendente o Borderline avevano maggiori rischi di sviluppare un Episodio Depressivo Maggiore durante la gravidanza (Akman, 2007; Newman, 2007).

Nonostante la presenza di numerosi studi correlazionali a riguardo, nessuno di questi aveva mai utilizzato l’MMPI-2 (Hathaway & McKinley, 1989) come strumento di valutazione della personalità.

Uno studio italiano del 2014 (Meuti et al.) ha cercato di colmare questo vuoto utilizzando il Minnesota per valutare un campione di 55 donne con diagnosi di depressione, reso omogeneo per fattori socio-demografici, complicazioni durante la gravidanza ed esposizione ad eventi di vita stressanti. Oltre al MMPI-2, il campione è stato valutato attraverso un colloquio clinico e l’ EPDS (Edinburgh Postnatal Depression Scale).

 

Profilo MMPI-2 in donne con depressione perinatale uno studio preliminare_ IMM. 1
FIG. 1.1 Tratto da Meuti et al (2014). Profili MMPI-2 ottenuti in donne con depressione perinatale.

 

I risultati dello studio hanno evidenziato la presenza di tre profili specifici MMPI-2 (vedi Fig.1.1) che  le donne in gravidanza con depressione ottenevano più di frequente:

  1. Profilo psicastenico (code type 2-7): descrive profili di tipo ansioso-depressivo, caratterizzati  da una notevole elevazione della scala D (vedi legenda a fine articolo articolo), e un’elevazione moderata della scala Pt con le scale di validità che risultano nella norma;
  2. Profilo disforico (code type 1-3/3-1): si caratterizza per una notevole elevazione della scala F e di quasi tutte le scale cliniche, in particolare Hs e Hy, e descrive profili caratterizzati da depressione maggiore con ansia somatizzata. La configurazione ottenuta è sovrapponibile a quella ottenuta in soggetti con Disturbo Borderline di Personalità (Nasiri et al., 2013);
  3. Profilo difeso: in questo gruppo le scale cliniche risultano nella norma, anche se l’EPDS aveva evidenziato la presenza di una sintomatologia depressiva. Tale contraddittorietà dei risultati può essere spiegata dalla configurazione a V delle scale di validità, indicativa di un atteggiamento difeso e di una tendenza ad enfatizzare gli aspetti positivi di sé e nascondere quelli negativi.

Anche se lo studio, come già altre ricerche precedenti, ha confermato l’importanza di prendere in considerazione i fattori di personalità nello sviluppo della depressione nel periodo perinatale,  presenta alcuni limiti metodologici: il numero dei soggetti del campione basso, la  mancanza di un gruppo di controllo composto da madri in gravidanza non depresse e l’eterogeneità dei risultati ottenuti non permettono di poter generalizzare i risultati ottenuti. Inoltre ricavare inferenze sulla presenza di disturbi di personalità solo attraverso MMPI-2, senza l’utilizzo di interviste psichiatriche specifiche, rischia di essere riduttivo.

Anche se indubbiamente con molte lacune, questo rappresenta uno studio preliminare importante e che necessita di approfondimenti poiché individuare disturbi o tratti di personalità che possono favorire l’esacerbazione di una patologia depressiva in gravidanza, può permettere ai clinici di attuare interventi mirati di prevenzione.

 

 

Legenda: 

  • scala D = Depressione
  • scala Pt = Psicastenia
  • scala F = Frequenza
  • scala Hs = Ipocondria
  • scala Hy = Isteria

Coordinazione motoria e performance scolastiche e cognitive dei bambini

Sono noti da tempo i benefici che l’attività motoria arreca al corpo e alla mente. Diverse ricerche hanno dimostrato le correlazioni che esistono fra il mantenimento della salute e l’attività fisica, mentre molti studi si sono occupati di stabilire le connessioni fra abilità motorie e apprendimenti scolastici nell’età evolutiva.

 

Lo studio di Garber e al. (2011), per esempio, ha messo in evidenza che il movimento migliora le condizioni cardiovascolari, incrementa la densità ossea e fa decrescere il rischio di malattie croniche degenerative. La ricerca di Lopes e al. (2012) ha rilevato che il miglioramento della coordinazione motoria, imputabile all’attività fisica, determina l’armonizzazione del sistema nervoso e del sistema muscolo scheletrico.

Molti studi si sono occupati di stabilire le connessioni fra abilità motorie e apprendimenti scolastici nell’età evolutiva. La ricerca di Grissmer e al. (2010) ha mostrato che, nei bambini in età prescolare, il possesso di abilità fino-motorie ben strutturate è un predittore di buone performance, in età scolare, nell’ambito della lettura e della scrittura. Diversi studi, fra cui quello di Miyake ed al. (2000), hanno sottolineato i benefici che l’attività fisica apporta alle funzioni cognitive, nello specifico alle funzioni esecutive (controllo inibitorio, capacità di pianificazione, memoria di lavoro, capacità di prendere decisioni, flessibilità cognitiva).

Ultimamente, uno studio svolto da ricercatori brasiliani (Scuola di Sport e di Educazione Fisica della Federal University di Rio de Janeiro, Istituto di Psichiatria della Federal University di Rio de Janeiro, Istituto di Educazione Fisica della Federal University Fluminense di Rio de Janeiro, Laboratorio di Fisiologia dell’University Estácio de Sá di Rio de Janeiro, Istituto di Scienze Cognitive della Federal University of Rio Grande do Norte di Natal e Laboratorio di Neuroscienze dell’Universidade Estaudal do Rio de Janeiro) (Fernandes e alt., 2016) ha indagato la relazione che esiste fra le abilità motorie, le funzioni cognitive e le prestazioni scolastiche, utilizzando un campione di 45 studenti, frequentanti la scuola Gonzaga di Rio de Janeiro, di età compresa fra gli 8 i 14 anni. I ragazzi esaminati, di entrambi i sessi, possedevano delle competenze scolastiche di base. Nella ricerca sono stati valutati:

  • La coordinazione motoria, utilizzando il Touch Test Disc (TTD) (stima, in particolare, la coordinazione oculomanuale);
  • L’agilità motoria, usando lo Shuttle Run Speed (valuta la capacità di cambiare la posizione del corpo o la direzione del movimento a seconda della velocità);
  • Le performance scolastiche, attraverso l’Academic Achievement Test (indaga le abilità dei minori nell’ambito della scrittura, lettura ed aritmetica);
  • Le capacità cognitive, per mezzo di sei test, facenti parte della Wechsler Intelligence Scale for Children – IV [Block Design (misura le abilità individuali riguardo alla visualizzazione dello spazio e alla coordinazione oculomanuale); Similarities (indaga la conoscenza delle differenze di significato fra due parole simili); Digit Forward, Digit Backward e Letter – Number Sequencing  (testano l’attenzione e la memoria a breve termine); Cancelation (quantifica l’attenzione visiva selettiva e la velocità di elaborazione)].

L’indagine ha stabilito che un’idonea coordinazione motoria è un ottimo predittore di buone performance scolastiche. Nello specifico, la coordinazione oculomanuale e l’attenzione visiva selettiva possono influenzare positivamente gli apprendimenti scolastici e le funzioni cognitive.

 

Abstract

The relationship between exercise and cognition is an important topic of research that only recently began to unravel. Here, we set out to investigate the relation between motor skills, cognitive function, and school performance in 45 students from 8 to 14 years of age. We used a cross-sectional design to evaluate motor coordination (Touch Test Disc), agility (Shuttle Run Speed—running back and forth), school performance (Academic Achievement Test), the Stroop test, and six sub-tests of the Wechsler Intelligence Scale for Children-IV (WISC-IV). We found, that the Touch Test Disc was the best predictor of school performance (R2 = 0.20). Significant correlations were also observed between motor coordination and several indices of cognitive function, such as the total score of the Academic Achievement Test (AAT; Spearman’s rho = 0.536; p ≤ 0.001), as well as two WISC-IV sub-tests: block design (R = −0.438; p = 0.003) and cancelation (rho = −0.471; p = 0.001). All the other cognitive variables pointed in the same direction, and even correlated with agility, but did not reach statistical significance. Altogether, the data indicate that visual motor coordination and visual selective attention, but not agility, may influence academic achievement and cognitive function. The results highlight the importance of investigating the correlation between physical skills and different aspects of cognition.

Keywords: motor skills, child, educational status, physical exercise, executive functions

Il diavolo veste Prada (2006) e l’ossessione per la carriera – Recensione

Il diavolo veste Prada pone una riflessione importante sull’attuale rappresentazione sociale degli elementi psicologici centrali nel contesto lavorativo, tra cui la motivazione e il coinvolgimento, spesso confusi con il perseguimento ossessivo ed estenuante degli obiettivi.

 

 

Tratto dall’omonimo romanzo di Lauren Weisberger, Il diavolo veste Prada è una storia verosimile che riprende alcuni dettagli ricorrenti nel mondo del lavoro e trasversali ad altre professioni, e ritrae, altresì, la relazione tra determinate variabili essenziali per l’individuo e la realtà organizzativa, come la cultura dell’organizzazione, il desiderio di potere e gli aspetti del sé. Il racconto pone una riflessione importante sull’attuale rappresentazione sociale degli elementi psicologici centrali nel contesto lavorativo, tra cui la motivazione e il coinvolgimento, spesso confusi con il perseguimento ossessivo ed estenuante degli obiettivi.

Guardando questo Il diavolo veste Prada, quindi, sorge spontaneo domandarsi se alcuni fenomeni psicopatologici, nella fattispecie la dipendenza da lavoro, vengano sempre riconosciuti come tali o confusi, il più delle volte, come il giusto modo di considerare la propria occupazione, a prescindere dal riconoscimento e dalla approvazione ricevuta.

 

 

Trama

Andrea è una giovane aspirante giornalista che finisce per ricoprire l’incarico di prima assistente di Miranda Priestly, la direttrice di Runaway, il giornale di moda più celebre d’America, famosa per le innumerevoli conoscenze nel campo del giornalismo. La ragazza dovrà affrontare un lavoro sempre più estenuante ed esigente sopportando umiliazioni e fatiche esagerate pur di fare curriculum e avanzare in carriera.

 

 

La cultura organizzativa e il cambiamento soggettivo

Andrea entra negli uffici di Runaway con la ‘gonna della nonna’, come le fa notare gentilmente la collega Emily, ed esce con le scarpe di Jimmy Choo e gli occhiali di Chanel.

Un bel cambiamento, considerando che la protagonista pensava che ‘l’alta moda fossero i grandi magazzini’, espressione utilizzata dalla sua migliore amica esterrefatta di fronte al cambiamento radicale e repentino.

L’estetica, però, non è l’unica novità. Da quando lavora per Miranda, Andrea non ha più una vita privata. Arriva in ritardo anziché in anticipo come il suo solito, rimanda gli appuntamenti all’ultimo momento, va via improvvisamente ed esclusivamente per motivi di lavoro, passa le ore al telefono con il capo davanti agli amici e al padre, sempre più basiti e delusi dal suo distacco giustificato.

Andrea ‘non ha altra scelta‘, come ripeterà ad oltranza, ignara che ci sono altre possibilità che non prende in considerazione, forse perché si illude che la carriera possa dipendere da quell’esperienza, o magari perché, banalmente, l’esperienza comincia a piacerle.

Non a caso, nell’arco di poco tempo dall’assunzione, la ragazza diventa attenta allo stile e alla dieta, una trasformazione che non riguarda un semplice adattamento alla cultura organizzativa, finalizzato a ricevere apprezzamenti, dimostrare impegno e passione o, banalmente, ad evitare il licenziamento, ma si estende anche alle parti identitarie più sotterranee. In altre parole, verrebbe spontaneo domandarsi il motivo della perseveranza in questa occupazione ben lontana dal giornalismo a cui aspira, e della sua improvvisa mutazione da ragazza con la gonna della nonna, a fashion victim con il completo di Narciso Rodriguez.

Probabilmente la risposta non riguarda solo le prospettive future, o perlomeno le aspettative di carriera, ma si estende anche allo stesso iter lavorativo che gradualmente cambia e quindi anche a quegli aspetti di sé non riconosciuti: piano piano Andrea comincia a trasformarsi, ad entrare nell’ottica della moda e a raggiungere più visibilità e apprezzamenti, un dato interessante che potrebbe sottolineare un principio di coinvolgimento lavorativo, e quindi anche di interesse e motivazione. Che sia sana o patologica, questo è ancora da discutere.

 

IL DIAVOLO VESTE PRADA – OFFICIAL TRAILER:

https://www.youtube.com/watch?v=XTDSwAxlNhc

 

Tuttavia, sembrerebbe che la protagonista faccia una gran fatica a riconoscere l’idea che questa nuova vita possa in qualche modo risultare interessante e non più così estenuante, e quindi a vedersi diversa da prima, o semplicemente sempre di più simile alle colleghe, seguaci accanite del capo, che un tempo definiva le ‘tacchettine‘ indicando con ironia e amarezza l’ossessione per la forma fisica e l’aspetto estetico.

In altri termini, si assiste a due versioni temporali e talvolta intercambiabili di Andrea: la ragazza acqua e sapone, altruista, umile e generosa, e la ragazza chic, egoista, ostinata, e poco attenta ai bisogni degli altri e qualche volta anche ai suoi stessi bisogni. ‘Intercambiabili‘ perché Andrea ritorna nei suoi passi quando si accorge di aver superato il limite, dimostrando tatto e dispiacere, per poi proseguire comunque nelle sue scelte, ‘andando avanti‘, come affermerà Miranda.

L’ultima versione di sé sembra difficile da accettare e affrontare, tant’è che la protagonista non si accorge del motivo delle sue decisioni, prese per raggiungere gli scopi imposti dal capo e dall’azienda e quindi per avanzare in carriera senza pensare ai mezzi e alle persone circostanti. Andrea sembra proteggersi dietro l’incapacità di valutare altre decisioni, senza considerare che questo è un suo personalissimo punto di vista, perché, nella realtà dei fatti esiste un ventaglio ampio di possibilità, come quella di lasciare il posto di Parigi ad Emily, o di evitare di frequentare lo scrittore ambito per recuperare il rapporto precario con il fidanzato, o, infine, di cambiare occupazione, se la considera eccessiva, svilente ed estenuante.

È proprio il confronto diretto con la personalità del capo a mettere la protagonista di fronte all’inevitabile riflessione su di sé: come affermerà serafica Miranda, entrambe condividono l’egoismo di scegliere senza farsi inondare dall’impatto empatico, senza preoccuparsi, così, dei sentimenti degli altri, anche se questo atteggiamento causerà con il tempo notevoli conseguenze sul piano dei rapporti interpersonali.

Probabilmente è la presa di coscienza di questa somiglianza a far scattare nella protagonista un passo indietro e un ritorno alle origini: Miranda sarà disposta ad accettare un ennesimo divorzio e a continuare ad essere se stessa, ma Andrea, probabilmente non è disposta a diventare come lei, pur rispettandola e ammirandola in un certo senso. Così si ribalta l’influenza: ora è una parte di sé, quella più acqua e sapone e altruistica a decidere di interrompere la corsa alla carriera ad ogni costo e placare l’altra parte egoistica e ostinata emersa in seconda istanza e gradualmente.

Questo però, avviene solo con la presa di coscienza delle componenti identitarie che l’hanno portata a perseverare nella condotta lavorativa e che si rivelano, pertanto, preziose per quel tipo di carriera, ma dannose per l’immagine percepita di sé e il rapporto con gli altri.

 

 

La dipendenza da lavoro

Un altro aspetto interessante è l’incapacità della protagonista di porre un limite alle esigenze del capo. Andrea è e dev’essere sempre presente se vuole mantenere il posto. Dalle telefonate durante i momenti di pausa, ai compiti per le gemelle e le commissioni per gli stilisti, quando chiama Miranda, lei risponde e obbedisce senza battere ciglio, anche se effettivamente l’orario di lavoro è terminato e le spetterebbe il meritato riposo.

Andrea sembra dipendere dal suo lavoro per la costante paura di perdere il posto, l’incapacità di svagarsi in altre attività, il distacco dalle relazioni significative, l’abuso lavorativo e la difficoltà ad assentarsi dal posto, elementi piuttosto ricorrenti nella sindrome da work addiction.

Non trascurabile è la mancanza di consapevolezza dell’esagerazione, che purtroppo non viene riconosciuta come tale nemmeno dall’organizzazione tesa a promuovere, al contrario, una fedeltà al lavoro attraverso una spinta ad innalzare vertiginosamente gli standard prestazionali. In altre parole, il problema non sussiste per Miranda e il suo staff e lo dice chiaramente Nigel mentre rimprovera Andrea di non aver eseguito correttamente il suo dovere, normalizzando i fallimenti interpersonali dovuti alla dedizione lavorativa, appunto perché se si vogliono raggiungere certi risultati, bisogna fare dei sacrifici e mettere il lavoro al primo posto della classifica dell’importanza dei contesti.

 

 

Le lezioni

Da un lato il film trasmette l’importanza della cultura organizzativa, dell’impegno e del coinvolgimento lavorativo nell’identità e di come alcune parti non riconosciute di sé entrino in gioco nel lavoro secondo manifestazioni differenti.

Dall’altra parte, la storia pone una riflessione essenziale sulla dipendenza da lavoro, talvolta erroneamente confusa con un sano coinvolgimento.

La mole eccessiva di tempo trascorso, il distacco dalle figure di attaccamento, il pensiero ossessivo sui compiti e doveri, lo stress psicofisico, le giustificazioni sono alcuni campanelli d’allarme preoccupanti nel singolo caso, ma anche, e soprattutto, nella collettività, in particolare quando questi elementi diventano parte integrante di una cultura organizzativa condivisa e accettata.

In altri termini, quando la dipendenza da lavoro viene bypassata per una naturale e doverosa motivazione e perseveranza negli obiettivi si ottengono fenomeni molto pericolosi per il benessere psicofisico, ma soprattutto diventa decisamente arduo il compito di demarcare e riconoscere a livello individuale e collettivo una gestione sana da una patologica del carico lavorativo.

Dilution effect: quando prendiamo delle decisioni consideriamo anche le informazioni che dovrebbero essere ignorate?

Quanto è importante valutare correttamente le informazioni che riceviamo? Davvero molto, ed è facile intuire quanto sia importante studiare i processi di stima di probabilità che le persone fanno, affinché si arrivi a riconoscere gli errori di ragionamento che gli individui compiono inconsciamente, tra cui il dilution effect.

Giulia Rodighiero – OPEN SCHOOL, Studi Cognitivi Bolzano

 

 

Quanto è importante valutare correttamente le informazioni che riceviamo? Davvero molto, più di quanto possiamo immaginare. Si pensi ad esempio quanto è importante che un medico dia il giusto peso alle informazioni che gli diamo riguardo la nostra sintomatologia, o quanto è fondamentale che un giudice pesi correttamente le prove portate a processo. Se pensiamo a queste situazioni possiamo facilmente intuire quanto sia importante studiare i processi di stima di probabilità che le persone fanno, affinché si arrivi a riconoscere gli errori di ragionamento che  gli individui compiono inconsciamente. Di questo si occupa la psicologia del ragionamento.

Nonostante nel linguaggio comune il termine probabile assuma il significato di ‘avvenimento che, in base a seri motivi (i quali però non costituiscono vere prove e non danno quindi certezza), si è propensi a credere che accada‘, nel linguaggio matematico e scientifico, questo temine, indica un valore (grado di verosimiglianza) che può oscillare in un continuum tra impossibile (zero) e certo (uno).

 

 

Psicologia del ragionamento e statistica

Nella vita di tutti i giorni, la maggior parte delle volte che inferiamo qualcosa, lo facciamo basandoci su informazioni che condizionano i nostri ragionamenti. Si pensi, ad esempio, a quando ci viene domandato se siamo dell’opinione che nel pomeriggio possa piovere. Il nostro ragionamento si baserà sulle evidenze che abbiamo a disposizione: se nel cielo splende il sole e non c’è traccia di una nuvola saremo propensi a concludere che nel pomeriggio non pioverà, mentre, se il cielo è coperto da nuvole minacciose allora saremo più propensi ad affermare il contrario.

Dalla formula statistica della probabilità condizionata è stato tratto un principio matematico noto con il nome di teorema di Bayes che permette di calcolare la probabilità a posteriori, cioè la probabilità che un’ipotesi si verifichi alla luce di evidenze in nostro possesso.

Le evidenze di cui disponiamo quando dobbiamo calcolare la probabilità a posteriori di un’ipotesi non hanno sempre valore diagnostico, cioè, non sempre aumentano la probabilità che l’ipotesi si verifichi. In statistica, infatti, le evidenze, possono essere di tre tipi:

  1. Evidenza diagnostica con impatto positivo: accresce la probabilità che si verifichi l’ipotesi.
  2. Evidenza diagnostica con impatto negativo: fa diminuire la probabilità che si verifichi l’ipotesi.
  3. Evidenza non-diagnostica (o neutrale): non fa né aumentare né diminuire la probabilità dell’ipotesi.

La ricerca scientifica ha mostrato ripetutamente come le persone, se chiamate a compiere delle stime di probabilità, siano soggette a errori, rispetto al riferimento normativo, indipendentemente dal grado di esperienza di cui dispongono (Kahneman, Tversky 1973; Dawes, Corrigan 1974). Questi studi si sono concentrati su come gli individui valutano le informazioni che ricevono, ma si sono sempre limitati a fornire informazioni diagnostiche. In realtà, nella vita di tutti i giorni, le persone sono chiamate a compiere predizioni e a trarre delle conclusioni avendo a disposizione non solo informazioni diagnostiche, ma anche evidenze non-diagnostiche.

 

 

Evidenza diagnostica

Come già spiegato precedentemente con il termine ‘evidenza diagnostica‘ s’intende un’informazione che ha un certo peso rispetto all’ipotesi. Essa può avere un impatto positivo e negativo sull’ipotesi. Facciamo un esempio utilizzando uno scenario di tipo rich, ossia uno scenario di vita reale: se chiediamo a dei soggetti che probabilità c’è che lo studente X sia femmina, loro risponderanno che c’è il 50% delle possibilità. Questo ragionamento è corretto perché non sapendo nulla sullo studente X, si assume che ci sia la stessa probabilità che sia di sesso maschile o di sesso femminile. Se però aggiungiamo un’evidenza diagnostica, il valore probabilistico della conclusione cresce: che probabilità c’è che lo studente X sia femmina dato che ha i capelli lunghi? Ora, la probabilità che lo studente X sia femmina aumenta poiché avere i capelli lunghi è una caratteristica più tipica delle ragazze piuttosto che dei ragazzi.

Adesso analizziamo meglio cosa sono, invece, le evidenze non-diagnostiche. Come si è visto precedentemente, un’evidenza è detta non-diagnostica quando non ha alcun legame con l’ipotesi e che quindi non rafforza né indebolisce la probabilità che essa si verifichi. Vediamo un esempio: riconsideriamo l’esempio fornito sopra dello studente X, ma questa volta invece che dire ai soggetti che ha i capelli lunghi, forniamo loro un’altra informazione, cioè che ha i capelli castani. Ora, poiché non esiste nessuna correlazione tra il colore dei capelli e il sesso di una persona, possiamo affermare che la probabilità che lo studente X sia femmina rimane del 50%.

Adesso che è ben chiaro cosa sono le evidenze diagnostiche e quelle non-diagnostiche, è facile capire che se presentassimo a dei soggetti due evidenze, una diagnostica e l’altra non-diagnostica allora, a rigor di logica, dovrebbero considerare soltanto la prima poiché la seconda non ha alcun impatto sulla conclusione. Prendiamo nuovamente in considerazione l’esempio citato sopra. Nello scenario di tipo rich: chiedendo ai partecipanti che probabilità c’è che lo studente X sia femmina dato che ha i capelli lunghi e castani, essa dovrebbe coincidere alla probabilità che i soggetti forniscono quando viene detto loro soltanto lo studente X ha i capelli lunghi.

Alcuni autori (Nisbett, Zukier, Lemley 1981; Tetlock, Lerner, Boettger 1996) hanno studiato l’effetto delle informazioni non-diagnostiche. Essi hanno voluto indagare se i soggetti, a cui vennero presentate evidenze diagnostiche insieme a evidenze non-diagnostiche, rispettavano la regola normativa sopraccitata. I ricercatori si sono accorti che i partecipanti non rispettavano questa semplice e intuitiva regola statistica, ma anzi, che tendevano ad abbassare la stima di probabilità quando un’evidenza diagnostica veniva loro presentata assieme a un’evidenza non-diagnostica.

 

 

Psicologia del ragionamento e bias di giudizio: il dilution effect

Questo bias di giudizio, in accordo con il quale i soggetti tenderebbero a sottostimare il valore delle evidenze diagnostiche se presentate assieme alle evidenze non-diagnostiche, venne definito dilution effect (DE).

Riconsiderando per l’ultima volta l’esempio citato sopra, il dilution effect avrebbe il seguente effetto: la probabilità che lo studente X sia femmina dato che ha i capelli lunghi è stimata come più alta della probabilità che lo studente X sia femmina dato che ha i capelli lunghi e castani.

Si potrebbe pensare che questo errore sia dovuto a qualche errore di somministrazione del test. Ciò sarebbe credibile se non fosse per il fatto che questo effetto è stato replicato più volte e da più autori (Tetlock et al 1996; Igou & Bless 2005).

 

 

Studi sul dilution effect

Sulla scia di uno studio di Troutman & Shanteau (1977), che indagava le interferenze delle informazioni non-diagnostiche, altri autori (Nisbett, Zukier & Lemley, 1981) indagarono come le informazioni non-diagnostiche influenzassero la stima di probabilità di un’ipotesi se presentate assieme a delle evidenze diagnostiche. In questo studio sulla psicologia del ragionamento i ricercatori chiesero ai partecipanti di fare tre tipi di predizioni: una riguardante un gruppo di persone che condividono una determinata etichetta (stereotipo); una riguardante un singolo individuo descritto soltanto da stereotipi e un’altra riguardante un singolo individuo descritto da stereotipi e da informazioni addizionali.

Nei primi tre studi di Nisbett et al. (1981), quando i soggetti dovevano compiere delle predizioni riguardo un gruppo, lo scenario che veniva loro presentato consisteva in delle informazioni diagnostiche riguardo la tolleranza allo shock elettrico delle persone e, successivamente, in informazioni riguardanti la partecipazione media degli studenti agli eventi culturali. Le predizioni che erano invitati a compiere riguardavano, nel primo caso, la tolleranza allo shock di un gruppo di ingegneri e un gruppo di musicisti; nel secondo caso erano invitati a predire la presenza, come pubblico di un film, di un gruppo di laureati in inglese e di un gruppo di studenti frequentanti un corso propedeutico allo studio della medicina.

I risultati di questi tre studi di psicologia del ragionamento evidenziarono che i soggetti facevano predizioni differenti tra le diverse specializzazioni dei gruppi target: le informazioni non-diagnostiche riguardanti la specializzazione (scientifica o umanistica) influenzavano le predizioni dei partecipanti. I ricercatori decisero allora di approfondire i risultati ottenuti per assicurarsi che l’effetto non fosse dovuto al fatto che le informazioni riguardassero degli stereotipi o che l’effetto potesse essere dovuto al tipo di soggetti testati (studenti universitari).

Negli studi successivi (studio 4 e studio 5) le informazioni diagnostiche fornite non riguardavano più un’etichetta di categorie sociali determinate, ma servivano a suggerire una determinata risposta; inoltre, i partecipanti a questi due studi erano laureati in servizio sociale che venivano invitati a compiere predizioni simili a quelle che dovevano compiere quotidianamente per lavoro: i soggetti dovevano stimare la probabilità che un individuo di sesso maschile, appartenente alla classe media e seguito dai servizi sociali fosse un pedofilo. I risultati di questi due studi replicarono gli effetti trovati nei tre studi precedenti quando le informazioni non-diagnostiche venivano presentate assieme alle informazioni diagnostiche.

Questo bias di giudizio per cui le persone sottostimano il peso delle informazioni diagnostiche quando presentate assieme a delle evidenze non-diagnostiche, venne denominato dagli autori dilution effect (DE). Visti i risultati ottenuti nello studio condotto assieme a Nisbett & Lemley (1981), Zukier (1982) condusse un altro esperimento di psicologia del ragionamento atto a indagare l’effetto della correlazione delle evidenze nell’uso delle informazioni non-diagnostiche. Il livello di correlazione e di dispersione di cui parlava Zukier in questo suo studio può essere inteso un po’ come il livello di tipicità.

Zukier, infatti considerava le informazioni non-diagnostiche ad alta correlazione come evidenze neutre (quindi non-diagnostiche ai fini di una predizione) tipiche di una determinata categoria. In questo studio i partecipanti leggevano delle descrizioni di alcuni studenti dei quali dovevano poi predire il GPA (media dei voti). Il gruppo di controllo ricevette scenari contenenti soltanto informazioni diagnostiche predittive di un alto valore di GPA. Il gruppo sperimentale, invece, ricevette, oltre alle informazioni diagnostiche ricevute dal gruppo di controllo, anche informazioni riguardanti altre caratteristiche (che in uno studio pilota erano state valutate non-diagnostiche riguardo il GPA, valore compreso tra 0 e 0.5). In questo studio, Zukier replicò il dilution effect ottenuto nello studio condotto l’anno prima e inoltre notò come non ci fosse alcun effetto dovuto alla correlazione: i soggetti diluivano le loro predizioni sia quando le informazioni addizionali non avevano alcun valore predittivo (dimensione: assenza di correlazione) sia quando ne erano dotate (dimensione: alta correlazione). A distanza di qualche anno dagli studi sopra riportati, sono stati condotti altri studi sulla psicologia del ragionamento atti a spiegare le cause del dilution effect che hanno sostanzialmente replicato i risultati già presentati.

La caratteristica principale che accomuna tutti gli studi presenti in letteratura sul dilution effect è il tipo di scenario che viene utilizzato. Quasi tutte le ricerche sperimentali in questione si sono avvalse di uno scenario di tipo rich, ossia uno scenario di vita reale. Questo, da una parte ha un buon valore ecologico e il pregio di fornire ai partecipanti materiali e rappresentazioni con le quali sono abituati a lavorare, dall’altra ha un basso controllo delle variabili coinvolte e lascia spazio a molti errori di valutazione e interpretazione.

L’unica ricerca sul dilution effect che si è avvalsa di uno scenario di tipo lean è il risultato del lavoro condotto da LaBella e Koehler (2004). Essi utilizzarono, come stimoli, urne e biglie con lo scopo principale di rendere evidente il valore non-diagnostico degli stimoli neutri. Il loro studio tuttavia ha replicato solo in parte i risultati degli altri studi, e questo potrebbe far supporre che il dilution effect si manifesta soprattutto negli scenari di vita reale.

 

 

La spiegazione alla base del Dilution Effect

Gli autori che condussero il primo specifico studio sul dilution effect (Nisbett et al., 1981) affermarono che si trattava di un inappropriato uso delle informazioni nel fare predizioni. Gli autori, asserirono che i risultati evidenziavano che fosse del tutto inverosimile che i soggetti pensassero che le informazioni non-diagnostiche diventassero diagnostiche quando presentate assieme ad altre informazioni non-diagnostiche. Nisbett et al. (1981) ipotizzarono allora che questo errore di giudizio fosse dovuto al fatto che i soggetti tendevano a fare una media di tutte le informazioni ricevute, non valutando in maniera esatta il peso delle informazioni non-diagnostiche (che, per definizione, è zero).

Considerando le ricerche di Kahneman e Tversky (1972; 1974), gli autori conclusero che l’errore di giudizio commesso dai partecipanti potesse essere dovuto a un’euristica, chiamata euristica della rappresentatività. Interpretando, dunque, i risultati ottenuti secondo l’euristica della rappresentatività, l’errore dei soggetti sarebbe dovuto al fatto che le informazioni non-diagnostiche verrebbero utilizzate per creare una rappresentazione mentale della categoria target. In questo modo le informazioni neutre assumerebbero un valore diverso da zero e contribuirebbero (erroneamente) alla stima probabilistica finale. L’euristica della rappresentatività non può tuttavia spiegare i risultati ottenuti da LaBella et al. (2004), che sfruttando l’oggettività degli stimoli utilizzati (urne e biglie) salvaguardavano il giudizio dei partecipanti al loro studio da questo bias.

I risultati e le conclusioni di LaBella et al. (2004), se da una parte hanno il vantaggio di non essere soggetti a bias e fraintendimenti, hanno basso valore ecologico, indi per cui, dicono poco su come le persone ragionano nella vita di tutti i giorni.

Qualche anno dopo questi due studi, Tetlock e Boettger (1989) ipotizzarono che il dilution effect potesse essere dovuto al basso grado di responsabilità percepita da parte dei partecipanti. I due autori avevano tenuto presente le ricerche di Tetlock e Kim (1987) le quali avevano dimostrato che un maggiore grado di responsabilità aumentava l’accuratezza dei giudizi delle persone. Il meccanismo sottostante l’impatto della responsabilità è, ipotizzarono gli autori, il risultato di una tendenza dei soggetti che si sentono responsabili delle loro stime, a processare in maniera integrata e complessa le evidenze che vengono loro fornite, valutando così anche quelle che dovrebbero essere ignorate. Tetlock e Boettger conclusero la loro pubblicazione affermando che il dilution effect potrebbe anche non essere considerato un bias o un errore, ma potrebbe consistere in una risposta razionale ai dati forniti: se vengono date ai soggetti delle informazioni è perché devono tenerle in considerazione. Questa teoria getta le basi per la spiegazione del dilution effect che verrà sostenuta da altri studi (Kemmelmeier, 2004, 2007) negli anni successivi.

La base conversazionale del dilution effect è un argomento che ha caratterizzato per anni la disputa tra alcuni scienziati del ragionamento (Igou & Bless, 2003, 2005; Igou, 2007). L’assunzione principale di questa teoria è che i soggetti ai quali vengono presentate le informazioni diagnostiche assieme a quelle non-diagnostiche commetterebbero dilution effect perché la presentazione che viene loro fatta non rispetta le massime conversazionali (Grice, 1975).

 

 

Dilution effect e massime conversazionali

Secondo alcuni autori (Igou et al., 2003), quindi, il dilution effect sarebbe causato da una violazione delle massime conversazionali, e quindi sarebbe dovuto a un fraintendimento. Analizziamo la questione più nel dettaglio. In una conversazione normale e che rispetta le massime conversazionali, il parlante non fornisce informazioni che non sono pertinenti all’argomento (massima della relazione), tuttavia, durante i vari esperimenti, ai soggetti sono state, ovviamente, presentate delle informazioni che non riguardavano l’ipotesi.

Le persone, essendo abituate a ricevere soltanto informazioni riguardanti l’argomento di conversazione, quando si trovano a dover compiere dei giudizi sulla base di alcune evidenze, tenderebbero a dare valore anche alle informazioni non-diagnostiche perché si aspettano che queste, per il semplice fatto che sono state loro fornite, debbano essere tenute in considerazione. Questa logica generale è stata applicata in diversi studi in cui veniva indagato l’impatto delle norme conversazionali nell’uso delle informazioni (Schwarz, Strack, Hilton, & Naderer, 1991; Bless, Strack, & Schwarz, 1993; Igou e Bless, 2003).

I risultati mostravano sostanzialmente che discreditando le massime conversazionali si poteva influenzare l’uso delle informazioni da parte dei partecipanti. Tetlock, Lerner e Boettger (1996) hanno investigato la base conversazionale del dilution effect in combinazione con l’impatto della responsabilità. Nella loro ricerca gli autori hanno osservato che, screditando la massima conversazionale della relazione (ossia avvertendo i soggetti che questa massima non sarebbe stata rispettata), l’effetto dilution effect era ridotto. Questo effetto si otteneva, tuttavia, soltanto quando questa condizione era associata alla situazione in cui vi era un alto livello di responsabilità. Quando, invece, i partecipanti si trovavano nella condizione di bassa responsabilità, i risultati mostravano dilution effect indipendentemente dal fatto che le norme conversazionali venissero o no disattivate.

Da questi risultati hanno dunque concluso che i giudizi dei partecipanti, nella condizione di bassa responsabilità, erano influenzati dall’euristica della rappresentatività. In accordo con questa conclusione, le massime conversazionali non erano in grado di spiegare la differenza di risultati ottenuti se non considerando il contributo dell’effetto della responsabilità.

 

 

Il  dilution effect secondo Kemmelmeier

Se Igou e Bless sono i più accaniti sostenitori del contributo conversazionale nel dilution effect, Kemmelmeier (2004; 2007b) lo è del contrario. Nei suoi vari studi ha, infatti, più volte dimostrato come il dilution effect non sia influenzato dal linguaggio ma da altri fattori, quali ad esempio il grado di responsabilità (Kemmelmeier, 2007a) o la percezione (Kemmelmeier, 2004). In uno dei suoi studi, egli ha voluto rianalizzare i risultati ottenuti da Igou et al. (2005) e ha scoperto che, analizzando i dati utilizzando la metodologia diversa otteneva osservazioni differenti rispetto a quelle ottenute dai suoi colleghi.

Kemmelmeier ipotizzò che il problema si trovasse nelle informazioni diagnostiche positive che i due ricercatori avevano presentato ai partecipanti; esse potrebbero essere percepite come quasi-diagnostiche e avere un valore diagnostico diverso da zero. Poiché i due studiosi non hanno fornito nessuna informazione riguardante la selezione delle evidenze non-diagnostiche utilizzate nel test, Kemmelmeier non ha potuto approfondire questa sua supposizione. Inoltre l’autore critica le conclusioni alle quali Igou e Bless sono giunti poiché, sostiene, che se il dilution effect fosse realmente dovuto a un fraintendimento dialettico, allora non si spiegherebbe il fatto che esso era presente quando i soggetti ricevevano evidenze diagnostiche negative indipendentemente dall’attivazione o meno delle norme conversazionali.

Le ricerche di Kemmelmeier non hanno solo fornito prove in disaccordo con il contributo conversazionale, ma hanno anche cercato di trovare una spiegazione al dilution effect. In un suo studio (Kemmelmeier, 2004) ha ipotizzato che le basi del dilution effect andassero cercate nella percezione. Egli infatti ipotizzò che l’errore di giudizio fosse dovuto al fatto che le persone, nonostante si rendessero conto dell’irrilevanza delle informazioni non-diagnostiche, non fossero poi comunque in grado di non considerarle. Nel suo esperimento egli presentò a dei soggetti una lista di evidenze e chiese loro di barrare con un pennarello nero quelle che i partecipanti consideravano irrilevanti per predire la probabilità di una data ipotesi. L’idea è che eliminando fisicamente le informazioni non-diagnostiche esse non sarebbero più state attive a livello percettivo e quindi non vi sarebbe stato alcun dilution effect.

I risultati ottenuti diedero credito alle sue ipotesi iniziali mostrando che quando le informazioni non-diagnostiche venivano eliminate, allora non vi era alcun effetto dilution effect.

 

 

Dilution effect e enhancement

Un’altra spiegazione è stata avanzata da Peters & Rothbart (1999), i quali si distaccano dal modello classico, che spiega il dilution effect come un abbassamento della stima di probabilità di un’ipotesi data un’evidenza, quando essa viene presentata assieme a un’evidenza non-diagnostica. I due ricercatori hanno ipotizzato che modificando il grado di tipicità delle informazioni non-diagnostiche sarebbero stati in grado di alterare le stime dei soggetti. Più nello specifico, essi hanno ipotizzato che utilizzando informazioni non-diagnostiche tipiche, allora avrebbero osservato un effetto contrario al dilution effect che definirono con il termine enhancement. I risultati mostrarono chiaramente che quando le evidenze non-diagnostiche fornite erano tipiche, si osservava un enhancement; non si riscontrava alcun effetto quando le evidenze non-diagnostiche erano neutre e, infine, si rilevava un dilution effect quando le informazioni non-diagnostiche erano atipiche.

Anche Fein e Hilton (1992) avevano ipotizzato che le informazioni non-diagnostiche non avessero tutte lo stesso impatto, e fecero una distinzione tra le informazioni non-diagnostiche che venivano percepite come pseudo rilevanti (utilizzando il linguaggio di Peters e Rothbart, tipiche) da quelle non rilevanti (atipiche) per la maggior parte dei giudizi. I due studiosi trovarono evidenze di un forte dilution effect quando i membri della categoria target erano associati a evidenze tipiche piuttosto che a evidenze atipiche. I risultati di Fein e Hilton, non solo non vengono replicati da Peters e Rothbart (1999), ma vengono addirittura invertiti.

Peters e Rothbart (1999) interpretarono i risultati dei due studiosi affermando che fossero dovuti al fatto che intendevano in maniere diverse il termine tipicità: mentre loro utilizzavano item tipici o atipici rispetto alla categoria target, Fein e Hilton (1992) utilizzavano item tipici e atipici in generale, ossia informazioni che erano tipiche, o atipiche, per la maggioranza delle categorie. Ciò avrebbe potuto generare un errore di fondo, per cui le evidenze, che in generale sono ritenute tipiche (quindi tipiche per qualsiasi gruppo categoriale), avrebbero potuto risultare atipiche nell’esperimento.

Proprio per non intercorrere in tale rischio, Peters et al. (1999), hanno condotto uno studio pilota atto a individuare il grado di tipicità degli item rispetto alla categoria target. Peters e Rothbart (1999) sostennero che dai risultati del loro studio derivavano alcune importanti implicazioni. Per prima cosa, i risultati delle ricerche precedenti sul dilution effect potrebbero essere spiegati dall’involontario uso di informazioni non-diagnostiche atipiche. Se si analizzano gli stimoli utilizzati da Nisbett et al. (1981) ad esempio, si nota che le evidenze non-diagnostiche fornite ai soggetti non avevano alcuna relazione con l’ipotesi indagata: alcune delle loro informazioni potrebbero essere ritenute neutre, altre invece, decisamente atipiche.

Una seconda implicazione derivante dai risultati dello studio concerne la natura delle etichette delle categorie sociali, le quali possono rendere più facile diluire, piuttosto che aumentare, le predizioni di un membro target. Peters e Rothbart partirono dal presupposto che, bensì non sia vero che le informazioni non-diagnostiche abbassano sempre la stima di probabilità di un’ipotesi, è vero che, in generale, è presumibilmente più facile indebolire piuttosto che rafforzare l’immagine di un membro di una categoria sociale.

 

 

Conclusioni

Se affiancare a informazioni diagnostiche delle informazioni non-diagnostiche bastasse a ridurre il valore delle prime, allora questo sarebbe un problema soprattutto in campo giuridico ed in campo clinico. Uno studio di Smith, Stasson e Hawkes (1998) ha mostrato che l’effetto dilution effect si manifesta anche nelle scelte riguardanti l’ambito giuridico-legale.

Ma è davvero possibile che le persone non siano in grado di escludere le informazioni non-diagnostiche quando devono esprimere un giudizio? Eppure nella vita di tutti i giorni, siamo chiamati spesso a considerare il peso di alcune informazioni al fine di predire la probabilità che un determinato evento si verifichi. È possibile che nonostante siamo così allenati a farlo compiamo comunque tali errori?

Quello che sappiamo riguardo il fenomeno del dilution effect ha ancora molti margini di sviluppo, dato che nessuna delle spiegazioni fornite sembra essere esauriente.

Se, infatti, il dilution effect fosse dovuto soltanto all’euristica della rappresentatività (Kahneman & Tversky, 1972) non si spiegherebbe come sia possibile che tale fenomeno sia stato riscontrato anche negli studi di LaBella e Koehler (2004), che hanno utilizzato uno scenario di tipo lean.

Se questo fenomeno avesse una base conversazionale allora non si spiegherebbe come sia possibile che Kemmelmeier (2007) sia riuscito a ottenere l’effetto anche disattivando le massime conversazionali.

La spiegazione di Kemmelmeier che identifica il dilution effect come un’incapacità dei soggetti di non considerare le informazioni percettivamente attive, è criticabile. Eliminare fisicamente le evidenze non-diagnostiche, è come escluderle dalla valutazione, in altre parole, è come se non fossero mai state presentate. Ciò non è l’obiettivo degli studi sul dilution effect finalizzati a comprendere perché le persone non sono in grado di non considerare le informazioni non-diagnostiche nonostante si rendano conto della loro inutilità, e non tanto a evitarlo attraverso quelli che potrebbero sembrare meri trucchetti. Anche perché, nella vita di tutti i giorni, le informazioni non-diagnostiche non possono essere eliminate con un pennarello nero.

Le evidenze fornite da Peters e Rothbart (1999) sono interessanti, ma si limitano ad approfondire il fenomeno, non a spiegarlo.

Nonostante le diverse correnti di pensiero riguardanti le spiegazioni avanzate dagli esperti riguardo il dilution effect, fino ad ora non esiste una spiegazione univoca e sembra che siamo ancora molto lontani dal trovare una spiegazione esauriente e completa.

Unbroken (2015) di Angelina Jolie: un esempio di resilienza – Recensione

Uscito nelle sale italiane a fine gennaio 2015, Unbroken è un film diretto da Angelina Jolie, tratto dai fatti realmente accaduti della vita di Louis Zamperini, famoso atleta olimpico negli anni ’30.

 

Trama

Di origini italiane, Louis Zamperini, detto ‘Louie‘, trascorre l’infanzia e l’adolescenza nella California del Sud insieme alla famiglia composta dai genitori e dal fratello maggiore.

Bersagliato dai compagni a causa delle origini straniere e della difficoltà ad apprendere l’inglese, Louie diventa una vittima di episodi di bullismo, ma anche un colpevole agli occhi della polizia che non vuole avere grane con un italiano.

Supportato dal fratello, fermamente fiducioso nelle sue potenzialità, Louie si avvicina all’atletica nel giro di pochi anni, diventa un famoso e rispettabile campione olimpico in tutto il mondo, apprezzato persino da Hitler che desidera incontrarlo e porgere personalmente i complimenti per la tenacia dimostrata nello sport.

Allo scoppio della guerra, però, l’atleta è costretto ad abbandonare la sua passione per salire a bordo di un cacciabombardiere americano che finisce per precipitare improvvisamente nell’Oceano Pacifico.

Da qui inizia un calvario di avvenimenti avversi che mettono a dura prova la vita e l’equilibrio mentale dell’atleta.

 

UNBROKEN (2015) TRAILER:

 

La resilienza

Resistere‘ è la parola d’ordine, il minimo comune denominatore, nella vita di Louis Zamperini. Infatti, nell’arco delle varie fasi evolutive, l’atleta non fa altro che resistere.

Resiste agli attacchi dei bulli, alle ramanzine della polizia e dei genitori indifferenti ai suoi bisogni, resiste alla fatica dell’allenamento e infine ai pericoli esterni: dal naufragio a bordo di un canotto, alla prigionia nei campi di concentramento, alle umiliazioni e alle fatiche imposte dal malvagio sergente Watanabe, responsabile di entrambi i lager dove viene inevitabilmente deportato.

In tutto questo panorama di scherni, vessazioni e umiliazioni continue, Louis ha allenato la forza mentale e l’autostima non solo grazie all’atletica e ai riconoscimenti, che senz’altro hanno facilitato la perseveranza negli obiettivi e la fiducia in sé, ma anche ad un importante figura di attaccamento che lo stesso campione ricorderà diverse volte nei giorni di prigionia: il fratello maggiore. È Pete Zamperini che da atleta dilettantistico diventa il suo allenatore personale, rinunciando così alla passione per cederla al fratello minore, per aiutarlo a trovare un senso e un riscatto nello sport.

La presenza di una figura di attaccamento sufficientemente buona è quindi un elemento essenziale per sviluppare la forza, la tenacia e la perseveranza, competenze centrali nella personalità di Louis.

Il film termina con una nota biografica sull’atleta che pone un’altra importante riflessione sul tema della resilienza.

Anni dopo la prigionia nei campi di concentramento, Louis troverà la forza di incontrare e perdonare i suoi carcerieri, lasciando andare la rabbia e il dolore lancinante. Impossibile? Non sempre, dal momento che essere resilienti, a mio avviso, non significa solo saper resistere, ma anche saper lasciar andare il dolore, la rabbia e i torti subiti. E diventa un’impresa ardua senza l’elaborazione e l’accettazione dell’esperienza, e soprattutto il perdono verso chi non è stato in grado di esercitare altro che violenza e aggressività.

Ed è in questo che Louie Zamperini si contraddistingue non solo come un grande atleta olimpico nella storia, ma anche come un uomo maturo, dotato di una forza e una bontà d’animo sbalorditiva e, quindi, sufficientemente sano.

 

 

Le lezioni

Da questa storia si possono dedurre alcune importanti lezioni. Prima di tutto, lo sport può diventare un elemento prezioso per sviluppare e rafforzare determinate risorse mentali spendibili in vari contesti, come appunto la resilienza, ma è necessaria almeno una figura di riferimento significativa in grado di trasmettere non solo il valore di questa attività, ma anche una presenza attenta ed empatica.

Oltre a ciò, non bisogna dimenticare la modalità sana di elaborazione dell’esperienza che non si riduce soltanto all’espressione emotiva o alla narrazione degli avvenimenti, ma coinvolge anche l’importante attribuzione di senso. E in questo il perdono può rivelarsi un ottimo strumento per conferire un significato all’esistenza soggettiva.

Dalla vita di Louis si deduce, inoltre, l’importanza della speranza nelle avversità, ben diversa dalla fantasticheria usata per sfuggire alla realtà. La speranza in Louis presuppone l’accettazione della realtà, che per il momento risulta avversa, e contemporaneamente la fiducia nel cambiamento futuro.

In altre parole, fantasticare implicherebbe un atteggiamento evitante e sfuggente dalla realtà dei fatti che risulta intollerabile, mentre la speranza potrebbe includere una disposizione ad ammettere le connotazioni negative degli eventi, che non si possono cambiare, e a modificare, così, l’atteggiamento attraverso un sentimento di fiducia nel tempo.

Proprio perché, in determinati casi, se non si possono cambiare gli eventi, si può cambiare l’atteggiamento verso gli eventi.

cancel