expand_lessAPRI WIDGET

Coordinazione motoria e performance scolastiche e cognitive dei bambini

Sono noti da tempo i benefici che l’attività motoria arreca al corpo e alla mente. Diverse ricerche hanno dimostrato le correlazioni che esistono fra il mantenimento della salute e l’attività fisica, mentre molti studi si sono occupati di stabilire le connessioni fra abilità motorie e apprendimenti scolastici nell’età evolutiva.

 

Lo studio di Garber e al. (2011), per esempio, ha messo in evidenza che il movimento migliora le condizioni cardiovascolari, incrementa la densità ossea e fa decrescere il rischio di malattie croniche degenerative. La ricerca di Lopes e al. (2012) ha rilevato che il miglioramento della coordinazione motoria, imputabile all’attività fisica, determina l’armonizzazione del sistema nervoso e del sistema muscolo scheletrico.

Molti studi si sono occupati di stabilire le connessioni fra abilità motorie e apprendimenti scolastici nell’età evolutiva. La ricerca di Grissmer e al. (2010) ha mostrato che, nei bambini in età prescolare, il possesso di abilità fino-motorie ben strutturate è un predittore di buone performance, in età scolare, nell’ambito della lettura e della scrittura. Diversi studi, fra cui quello di Miyake ed al. (2000), hanno sottolineato i benefici che l’attività fisica apporta alle funzioni cognitive, nello specifico alle funzioni esecutive (controllo inibitorio, capacità di pianificazione, memoria di lavoro, capacità di prendere decisioni, flessibilità cognitiva).

Ultimamente, uno studio svolto da ricercatori brasiliani (Scuola di Sport e di Educazione Fisica della Federal University di Rio de Janeiro, Istituto di Psichiatria della Federal University di Rio de Janeiro, Istituto di Educazione Fisica della Federal University Fluminense di Rio de Janeiro, Laboratorio di Fisiologia dell’University Estácio de Sá di Rio de Janeiro, Istituto di Scienze Cognitive della Federal University of Rio Grande do Norte di Natal e Laboratorio di Neuroscienze dell’Universidade Estaudal do Rio de Janeiro) (Fernandes e alt., 2016) ha indagato la relazione che esiste fra le abilità motorie, le funzioni cognitive e le prestazioni scolastiche, utilizzando un campione di 45 studenti, frequentanti la scuola Gonzaga di Rio de Janeiro, di età compresa fra gli 8 i 14 anni. I ragazzi esaminati, di entrambi i sessi, possedevano delle competenze scolastiche di base. Nella ricerca sono stati valutati:

  • La coordinazione motoria, utilizzando il Touch Test Disc (TTD) (stima, in particolare, la coordinazione oculomanuale);
  • L’agilità motoria, usando lo Shuttle Run Speed (valuta la capacità di cambiare la posizione del corpo o la direzione del movimento a seconda della velocità);
  • Le performance scolastiche, attraverso l’Academic Achievement Test (indaga le abilità dei minori nell’ambito della scrittura, lettura ed aritmetica);
  • Le capacità cognitive, per mezzo di sei test, facenti parte della Wechsler Intelligence Scale for Children – IV [Block Design (misura le abilità individuali riguardo alla visualizzazione dello spazio e alla coordinazione oculomanuale); Similarities (indaga la conoscenza delle differenze di significato fra due parole simili); Digit Forward, Digit Backward e Letter – Number Sequencing  (testano l’attenzione e la memoria a breve termine); Cancelation (quantifica l’attenzione visiva selettiva e la velocità di elaborazione)].

L’indagine ha stabilito che un’idonea coordinazione motoria è un ottimo predittore di buone performance scolastiche. Nello specifico, la coordinazione oculomanuale e l’attenzione visiva selettiva possono influenzare positivamente gli apprendimenti scolastici e le funzioni cognitive.

 

Abstract

The relationship between exercise and cognition is an important topic of research that only recently began to unravel. Here, we set out to investigate the relation between motor skills, cognitive function, and school performance in 45 students from 8 to 14 years of age. We used a cross-sectional design to evaluate motor coordination (Touch Test Disc), agility (Shuttle Run Speed—running back and forth), school performance (Academic Achievement Test), the Stroop test, and six sub-tests of the Wechsler Intelligence Scale for Children-IV (WISC-IV). We found, that the Touch Test Disc was the best predictor of school performance (R2 = 0.20). Significant correlations were also observed between motor coordination and several indices of cognitive function, such as the total score of the Academic Achievement Test (AAT; Spearman’s rho = 0.536; p ≤ 0.001), as well as two WISC-IV sub-tests: block design (R = −0.438; p = 0.003) and cancelation (rho = −0.471; p = 0.001). All the other cognitive variables pointed in the same direction, and even correlated with agility, but did not reach statistical significance. Altogether, the data indicate that visual motor coordination and visual selective attention, but not agility, may influence academic achievement and cognitive function. The results highlight the importance of investigating the correlation between physical skills and different aspects of cognition.

Keywords: motor skills, child, educational status, physical exercise, executive functions

Il diavolo veste Prada (2006) e l’ossessione per la carriera – Recensione

Il diavolo veste Prada pone una riflessione importante sull’attuale rappresentazione sociale degli elementi psicologici centrali nel contesto lavorativo, tra cui la motivazione e il coinvolgimento, spesso confusi con il perseguimento ossessivo ed estenuante degli obiettivi.

 

 

Tratto dall’omonimo romanzo di Lauren Weisberger, Il diavolo veste Prada è una storia verosimile che riprende alcuni dettagli ricorrenti nel mondo del lavoro e trasversali ad altre professioni, e ritrae, altresì, la relazione tra determinate variabili essenziali per l’individuo e la realtà organizzativa, come la cultura dell’organizzazione, il desiderio di potere e gli aspetti del sé. Il racconto pone una riflessione importante sull’attuale rappresentazione sociale degli elementi psicologici centrali nel contesto lavorativo, tra cui la motivazione e il coinvolgimento, spesso confusi con il perseguimento ossessivo ed estenuante degli obiettivi.

Guardando questo Il diavolo veste Prada, quindi, sorge spontaneo domandarsi se alcuni fenomeni psicopatologici, nella fattispecie la dipendenza da lavoro, vengano sempre riconosciuti come tali o confusi, il più delle volte, come il giusto modo di considerare la propria occupazione, a prescindere dal riconoscimento e dalla approvazione ricevuta.

 

 

Trama

Andrea è una giovane aspirante giornalista che finisce per ricoprire l’incarico di prima assistente di Miranda Priestly, la direttrice di Runaway, il giornale di moda più celebre d’America, famosa per le innumerevoli conoscenze nel campo del giornalismo. La ragazza dovrà affrontare un lavoro sempre più estenuante ed esigente sopportando umiliazioni e fatiche esagerate pur di fare curriculum e avanzare in carriera.

 

 

La cultura organizzativa e il cambiamento soggettivo

Andrea entra negli uffici di Runaway con la ‘gonna della nonna’, come le fa notare gentilmente la collega Emily, ed esce con le scarpe di Jimmy Choo e gli occhiali di Chanel.

Un bel cambiamento, considerando che la protagonista pensava che ‘l’alta moda fossero i grandi magazzini’, espressione utilizzata dalla sua migliore amica esterrefatta di fronte al cambiamento radicale e repentino.

L’estetica, però, non è l’unica novità. Da quando lavora per Miranda, Andrea non ha più una vita privata. Arriva in ritardo anziché in anticipo come il suo solito, rimanda gli appuntamenti all’ultimo momento, va via improvvisamente ed esclusivamente per motivi di lavoro, passa le ore al telefono con il capo davanti agli amici e al padre, sempre più basiti e delusi dal suo distacco giustificato.

Andrea ‘non ha altra scelta‘, come ripeterà ad oltranza, ignara che ci sono altre possibilità che non prende in considerazione, forse perché si illude che la carriera possa dipendere da quell’esperienza, o magari perché, banalmente, l’esperienza comincia a piacerle.

Non a caso, nell’arco di poco tempo dall’assunzione, la ragazza diventa attenta allo stile e alla dieta, una trasformazione che non riguarda un semplice adattamento alla cultura organizzativa, finalizzato a ricevere apprezzamenti, dimostrare impegno e passione o, banalmente, ad evitare il licenziamento, ma si estende anche alle parti identitarie più sotterranee. In altre parole, verrebbe spontaneo domandarsi il motivo della perseveranza in questa occupazione ben lontana dal giornalismo a cui aspira, e della sua improvvisa mutazione da ragazza con la gonna della nonna, a fashion victim con il completo di Narciso Rodriguez.

Probabilmente la risposta non riguarda solo le prospettive future, o perlomeno le aspettative di carriera, ma si estende anche allo stesso iter lavorativo che gradualmente cambia e quindi anche a quegli aspetti di sé non riconosciuti: piano piano Andrea comincia a trasformarsi, ad entrare nell’ottica della moda e a raggiungere più visibilità e apprezzamenti, un dato interessante che potrebbe sottolineare un principio di coinvolgimento lavorativo, e quindi anche di interesse e motivazione. Che sia sana o patologica, questo è ancora da discutere.

 

IL DIAVOLO VESTE PRADA – OFFICIAL TRAILER:

https://www.youtube.com/watch?v=XTDSwAxlNhc

 

Tuttavia, sembrerebbe che la protagonista faccia una gran fatica a riconoscere l’idea che questa nuova vita possa in qualche modo risultare interessante e non più così estenuante, e quindi a vedersi diversa da prima, o semplicemente sempre di più simile alle colleghe, seguaci accanite del capo, che un tempo definiva le ‘tacchettine‘ indicando con ironia e amarezza l’ossessione per la forma fisica e l’aspetto estetico.

In altri termini, si assiste a due versioni temporali e talvolta intercambiabili di Andrea: la ragazza acqua e sapone, altruista, umile e generosa, e la ragazza chic, egoista, ostinata, e poco attenta ai bisogni degli altri e qualche volta anche ai suoi stessi bisogni. ‘Intercambiabili‘ perché Andrea ritorna nei suoi passi quando si accorge di aver superato il limite, dimostrando tatto e dispiacere, per poi proseguire comunque nelle sue scelte, ‘andando avanti‘, come affermerà Miranda.

L’ultima versione di sé sembra difficile da accettare e affrontare, tant’è che la protagonista non si accorge del motivo delle sue decisioni, prese per raggiungere gli scopi imposti dal capo e dall’azienda e quindi per avanzare in carriera senza pensare ai mezzi e alle persone circostanti. Andrea sembra proteggersi dietro l’incapacità di valutare altre decisioni, senza considerare che questo è un suo personalissimo punto di vista, perché, nella realtà dei fatti esiste un ventaglio ampio di possibilità, come quella di lasciare il posto di Parigi ad Emily, o di evitare di frequentare lo scrittore ambito per recuperare il rapporto precario con il fidanzato, o, infine, di cambiare occupazione, se la considera eccessiva, svilente ed estenuante.

È proprio il confronto diretto con la personalità del capo a mettere la protagonista di fronte all’inevitabile riflessione su di sé: come affermerà serafica Miranda, entrambe condividono l’egoismo di scegliere senza farsi inondare dall’impatto empatico, senza preoccuparsi, così, dei sentimenti degli altri, anche se questo atteggiamento causerà con il tempo notevoli conseguenze sul piano dei rapporti interpersonali.

Probabilmente è la presa di coscienza di questa somiglianza a far scattare nella protagonista un passo indietro e un ritorno alle origini: Miranda sarà disposta ad accettare un ennesimo divorzio e a continuare ad essere se stessa, ma Andrea, probabilmente non è disposta a diventare come lei, pur rispettandola e ammirandola in un certo senso. Così si ribalta l’influenza: ora è una parte di sé, quella più acqua e sapone e altruistica a decidere di interrompere la corsa alla carriera ad ogni costo e placare l’altra parte egoistica e ostinata emersa in seconda istanza e gradualmente.

Questo però, avviene solo con la presa di coscienza delle componenti identitarie che l’hanno portata a perseverare nella condotta lavorativa e che si rivelano, pertanto, preziose per quel tipo di carriera, ma dannose per l’immagine percepita di sé e il rapporto con gli altri.

 

 

La dipendenza da lavoro

Un altro aspetto interessante è l’incapacità della protagonista di porre un limite alle esigenze del capo. Andrea è e dev’essere sempre presente se vuole mantenere il posto. Dalle telefonate durante i momenti di pausa, ai compiti per le gemelle e le commissioni per gli stilisti, quando chiama Miranda, lei risponde e obbedisce senza battere ciglio, anche se effettivamente l’orario di lavoro è terminato e le spetterebbe il meritato riposo.

Andrea sembra dipendere dal suo lavoro per la costante paura di perdere il posto, l’incapacità di svagarsi in altre attività, il distacco dalle relazioni significative, l’abuso lavorativo e la difficoltà ad assentarsi dal posto, elementi piuttosto ricorrenti nella sindrome da work addiction.

Non trascurabile è la mancanza di consapevolezza dell’esagerazione, che purtroppo non viene riconosciuta come tale nemmeno dall’organizzazione tesa a promuovere, al contrario, una fedeltà al lavoro attraverso una spinta ad innalzare vertiginosamente gli standard prestazionali. In altre parole, il problema non sussiste per Miranda e il suo staff e lo dice chiaramente Nigel mentre rimprovera Andrea di non aver eseguito correttamente il suo dovere, normalizzando i fallimenti interpersonali dovuti alla dedizione lavorativa, appunto perché se si vogliono raggiungere certi risultati, bisogna fare dei sacrifici e mettere il lavoro al primo posto della classifica dell’importanza dei contesti.

 

 

Le lezioni

Da un lato il film trasmette l’importanza della cultura organizzativa, dell’impegno e del coinvolgimento lavorativo nell’identità e di come alcune parti non riconosciute di sé entrino in gioco nel lavoro secondo manifestazioni differenti.

Dall’altra parte, la storia pone una riflessione essenziale sulla dipendenza da lavoro, talvolta erroneamente confusa con un sano coinvolgimento.

La mole eccessiva di tempo trascorso, il distacco dalle figure di attaccamento, il pensiero ossessivo sui compiti e doveri, lo stress psicofisico, le giustificazioni sono alcuni campanelli d’allarme preoccupanti nel singolo caso, ma anche, e soprattutto, nella collettività, in particolare quando questi elementi diventano parte integrante di una cultura organizzativa condivisa e accettata.

In altri termini, quando la dipendenza da lavoro viene bypassata per una naturale e doverosa motivazione e perseveranza negli obiettivi si ottengono fenomeni molto pericolosi per il benessere psicofisico, ma soprattutto diventa decisamente arduo il compito di demarcare e riconoscere a livello individuale e collettivo una gestione sana da una patologica del carico lavorativo.

Dilution effect: quando prendiamo delle decisioni consideriamo anche le informazioni che dovrebbero essere ignorate?

Quanto è importante valutare correttamente le informazioni che riceviamo? Davvero molto, ed è facile intuire quanto sia importante studiare i processi di stima di probabilità che le persone fanno, affinché si arrivi a riconoscere gli errori di ragionamento che gli individui compiono inconsciamente, tra cui il dilution effect.

Giulia Rodighiero – OPEN SCHOOL, Studi Cognitivi Bolzano

 

 

Quanto è importante valutare correttamente le informazioni che riceviamo? Davvero molto, più di quanto possiamo immaginare. Si pensi ad esempio quanto è importante che un medico dia il giusto peso alle informazioni che gli diamo riguardo la nostra sintomatologia, o quanto è fondamentale che un giudice pesi correttamente le prove portate a processo. Se pensiamo a queste situazioni possiamo facilmente intuire quanto sia importante studiare i processi di stima di probabilità che le persone fanno, affinché si arrivi a riconoscere gli errori di ragionamento che  gli individui compiono inconsciamente. Di questo si occupa la psicologia del ragionamento.

Nonostante nel linguaggio comune il termine probabile assuma il significato di ‘avvenimento che, in base a seri motivi (i quali però non costituiscono vere prove e non danno quindi certezza), si è propensi a credere che accada‘, nel linguaggio matematico e scientifico, questo temine, indica un valore (grado di verosimiglianza) che può oscillare in un continuum tra impossibile (zero) e certo (uno).

 

 

Psicologia del ragionamento e statistica

Nella vita di tutti i giorni, la maggior parte delle volte che inferiamo qualcosa, lo facciamo basandoci su informazioni che condizionano i nostri ragionamenti. Si pensi, ad esempio, a quando ci viene domandato se siamo dell’opinione che nel pomeriggio possa piovere. Il nostro ragionamento si baserà sulle evidenze che abbiamo a disposizione: se nel cielo splende il sole e non c’è traccia di una nuvola saremo propensi a concludere che nel pomeriggio non pioverà, mentre, se il cielo è coperto da nuvole minacciose allora saremo più propensi ad affermare il contrario.

Dalla formula statistica della probabilità condizionata è stato tratto un principio matematico noto con il nome di teorema di Bayes che permette di calcolare la probabilità a posteriori, cioè la probabilità che un’ipotesi si verifichi alla luce di evidenze in nostro possesso.

Le evidenze di cui disponiamo quando dobbiamo calcolare la probabilità a posteriori di un’ipotesi non hanno sempre valore diagnostico, cioè, non sempre aumentano la probabilità che l’ipotesi si verifichi. In statistica, infatti, le evidenze, possono essere di tre tipi:

  1. Evidenza diagnostica con impatto positivo: accresce la probabilità che si verifichi l’ipotesi.
  2. Evidenza diagnostica con impatto negativo: fa diminuire la probabilità che si verifichi l’ipotesi.
  3. Evidenza non-diagnostica (o neutrale): non fa né aumentare né diminuire la probabilità dell’ipotesi.

La ricerca scientifica ha mostrato ripetutamente come le persone, se chiamate a compiere delle stime di probabilità, siano soggette a errori, rispetto al riferimento normativo, indipendentemente dal grado di esperienza di cui dispongono (Kahneman, Tversky 1973; Dawes, Corrigan 1974). Questi studi si sono concentrati su come gli individui valutano le informazioni che ricevono, ma si sono sempre limitati a fornire informazioni diagnostiche. In realtà, nella vita di tutti i giorni, le persone sono chiamate a compiere predizioni e a trarre delle conclusioni avendo a disposizione non solo informazioni diagnostiche, ma anche evidenze non-diagnostiche.

 

 

Evidenza diagnostica

Come già spiegato precedentemente con il termine ‘evidenza diagnostica‘ s’intende un’informazione che ha un certo peso rispetto all’ipotesi. Essa può avere un impatto positivo e negativo sull’ipotesi. Facciamo un esempio utilizzando uno scenario di tipo rich, ossia uno scenario di vita reale: se chiediamo a dei soggetti che probabilità c’è che lo studente X sia femmina, loro risponderanno che c’è il 50% delle possibilità. Questo ragionamento è corretto perché non sapendo nulla sullo studente X, si assume che ci sia la stessa probabilità che sia di sesso maschile o di sesso femminile. Se però aggiungiamo un’evidenza diagnostica, il valore probabilistico della conclusione cresce: che probabilità c’è che lo studente X sia femmina dato che ha i capelli lunghi? Ora, la probabilità che lo studente X sia femmina aumenta poiché avere i capelli lunghi è una caratteristica più tipica delle ragazze piuttosto che dei ragazzi.

Adesso analizziamo meglio cosa sono, invece, le evidenze non-diagnostiche. Come si è visto precedentemente, un’evidenza è detta non-diagnostica quando non ha alcun legame con l’ipotesi e che quindi non rafforza né indebolisce la probabilità che essa si verifichi. Vediamo un esempio: riconsideriamo l’esempio fornito sopra dello studente X, ma questa volta invece che dire ai soggetti che ha i capelli lunghi, forniamo loro un’altra informazione, cioè che ha i capelli castani. Ora, poiché non esiste nessuna correlazione tra il colore dei capelli e il sesso di una persona, possiamo affermare che la probabilità che lo studente X sia femmina rimane del 50%.

Adesso che è ben chiaro cosa sono le evidenze diagnostiche e quelle non-diagnostiche, è facile capire che se presentassimo a dei soggetti due evidenze, una diagnostica e l’altra non-diagnostica allora, a rigor di logica, dovrebbero considerare soltanto la prima poiché la seconda non ha alcun impatto sulla conclusione. Prendiamo nuovamente in considerazione l’esempio citato sopra. Nello scenario di tipo rich: chiedendo ai partecipanti che probabilità c’è che lo studente X sia femmina dato che ha i capelli lunghi e castani, essa dovrebbe coincidere alla probabilità che i soggetti forniscono quando viene detto loro soltanto lo studente X ha i capelli lunghi.

Alcuni autori (Nisbett, Zukier, Lemley 1981; Tetlock, Lerner, Boettger 1996) hanno studiato l’effetto delle informazioni non-diagnostiche. Essi hanno voluto indagare se i soggetti, a cui vennero presentate evidenze diagnostiche insieme a evidenze non-diagnostiche, rispettavano la regola normativa sopraccitata. I ricercatori si sono accorti che i partecipanti non rispettavano questa semplice e intuitiva regola statistica, ma anzi, che tendevano ad abbassare la stima di probabilità quando un’evidenza diagnostica veniva loro presentata assieme a un’evidenza non-diagnostica.

 

 

Psicologia del ragionamento e bias di giudizio: il dilution effect

Questo bias di giudizio, in accordo con il quale i soggetti tenderebbero a sottostimare il valore delle evidenze diagnostiche se presentate assieme alle evidenze non-diagnostiche, venne definito dilution effect (DE).

Riconsiderando per l’ultima volta l’esempio citato sopra, il dilution effect avrebbe il seguente effetto: la probabilità che lo studente X sia femmina dato che ha i capelli lunghi è stimata come più alta della probabilità che lo studente X sia femmina dato che ha i capelli lunghi e castani.

Si potrebbe pensare che questo errore sia dovuto a qualche errore di somministrazione del test. Ciò sarebbe credibile se non fosse per il fatto che questo effetto è stato replicato più volte e da più autori (Tetlock et al 1996; Igou & Bless 2005).

 

 

Studi sul dilution effect

Sulla scia di uno studio di Troutman & Shanteau (1977), che indagava le interferenze delle informazioni non-diagnostiche, altri autori (Nisbett, Zukier & Lemley, 1981) indagarono come le informazioni non-diagnostiche influenzassero la stima di probabilità di un’ipotesi se presentate assieme a delle evidenze diagnostiche. In questo studio sulla psicologia del ragionamento i ricercatori chiesero ai partecipanti di fare tre tipi di predizioni: una riguardante un gruppo di persone che condividono una determinata etichetta (stereotipo); una riguardante un singolo individuo descritto soltanto da stereotipi e un’altra riguardante un singolo individuo descritto da stereotipi e da informazioni addizionali.

Nei primi tre studi di Nisbett et al. (1981), quando i soggetti dovevano compiere delle predizioni riguardo un gruppo, lo scenario che veniva loro presentato consisteva in delle informazioni diagnostiche riguardo la tolleranza allo shock elettrico delle persone e, successivamente, in informazioni riguardanti la partecipazione media degli studenti agli eventi culturali. Le predizioni che erano invitati a compiere riguardavano, nel primo caso, la tolleranza allo shock di un gruppo di ingegneri e un gruppo di musicisti; nel secondo caso erano invitati a predire la presenza, come pubblico di un film, di un gruppo di laureati in inglese e di un gruppo di studenti frequentanti un corso propedeutico allo studio della medicina.

I risultati di questi tre studi di psicologia del ragionamento evidenziarono che i soggetti facevano predizioni differenti tra le diverse specializzazioni dei gruppi target: le informazioni non-diagnostiche riguardanti la specializzazione (scientifica o umanistica) influenzavano le predizioni dei partecipanti. I ricercatori decisero allora di approfondire i risultati ottenuti per assicurarsi che l’effetto non fosse dovuto al fatto che le informazioni riguardassero degli stereotipi o che l’effetto potesse essere dovuto al tipo di soggetti testati (studenti universitari).

Negli studi successivi (studio 4 e studio 5) le informazioni diagnostiche fornite non riguardavano più un’etichetta di categorie sociali determinate, ma servivano a suggerire una determinata risposta; inoltre, i partecipanti a questi due studi erano laureati in servizio sociale che venivano invitati a compiere predizioni simili a quelle che dovevano compiere quotidianamente per lavoro: i soggetti dovevano stimare la probabilità che un individuo di sesso maschile, appartenente alla classe media e seguito dai servizi sociali fosse un pedofilo. I risultati di questi due studi replicarono gli effetti trovati nei tre studi precedenti quando le informazioni non-diagnostiche venivano presentate assieme alle informazioni diagnostiche.

Questo bias di giudizio per cui le persone sottostimano il peso delle informazioni diagnostiche quando presentate assieme a delle evidenze non-diagnostiche, venne denominato dagli autori dilution effect (DE). Visti i risultati ottenuti nello studio condotto assieme a Nisbett & Lemley (1981), Zukier (1982) condusse un altro esperimento di psicologia del ragionamento atto a indagare l’effetto della correlazione delle evidenze nell’uso delle informazioni non-diagnostiche. Il livello di correlazione e di dispersione di cui parlava Zukier in questo suo studio può essere inteso un po’ come il livello di tipicità.

Zukier, infatti considerava le informazioni non-diagnostiche ad alta correlazione come evidenze neutre (quindi non-diagnostiche ai fini di una predizione) tipiche di una determinata categoria. In questo studio i partecipanti leggevano delle descrizioni di alcuni studenti dei quali dovevano poi predire il GPA (media dei voti). Il gruppo di controllo ricevette scenari contenenti soltanto informazioni diagnostiche predittive di un alto valore di GPA. Il gruppo sperimentale, invece, ricevette, oltre alle informazioni diagnostiche ricevute dal gruppo di controllo, anche informazioni riguardanti altre caratteristiche (che in uno studio pilota erano state valutate non-diagnostiche riguardo il GPA, valore compreso tra 0 e 0.5). In questo studio, Zukier replicò il dilution effect ottenuto nello studio condotto l’anno prima e inoltre notò come non ci fosse alcun effetto dovuto alla correlazione: i soggetti diluivano le loro predizioni sia quando le informazioni addizionali non avevano alcun valore predittivo (dimensione: assenza di correlazione) sia quando ne erano dotate (dimensione: alta correlazione). A distanza di qualche anno dagli studi sopra riportati, sono stati condotti altri studi sulla psicologia del ragionamento atti a spiegare le cause del dilution effect che hanno sostanzialmente replicato i risultati già presentati.

La caratteristica principale che accomuna tutti gli studi presenti in letteratura sul dilution effect è il tipo di scenario che viene utilizzato. Quasi tutte le ricerche sperimentali in questione si sono avvalse di uno scenario di tipo rich, ossia uno scenario di vita reale. Questo, da una parte ha un buon valore ecologico e il pregio di fornire ai partecipanti materiali e rappresentazioni con le quali sono abituati a lavorare, dall’altra ha un basso controllo delle variabili coinvolte e lascia spazio a molti errori di valutazione e interpretazione.

L’unica ricerca sul dilution effect che si è avvalsa di uno scenario di tipo lean è il risultato del lavoro condotto da LaBella e Koehler (2004). Essi utilizzarono, come stimoli, urne e biglie con lo scopo principale di rendere evidente il valore non-diagnostico degli stimoli neutri. Il loro studio tuttavia ha replicato solo in parte i risultati degli altri studi, e questo potrebbe far supporre che il dilution effect si manifesta soprattutto negli scenari di vita reale.

 

 

La spiegazione alla base del Dilution Effect

Gli autori che condussero il primo specifico studio sul dilution effect (Nisbett et al., 1981) affermarono che si trattava di un inappropriato uso delle informazioni nel fare predizioni. Gli autori, asserirono che i risultati evidenziavano che fosse del tutto inverosimile che i soggetti pensassero che le informazioni non-diagnostiche diventassero diagnostiche quando presentate assieme ad altre informazioni non-diagnostiche. Nisbett et al. (1981) ipotizzarono allora che questo errore di giudizio fosse dovuto al fatto che i soggetti tendevano a fare una media di tutte le informazioni ricevute, non valutando in maniera esatta il peso delle informazioni non-diagnostiche (che, per definizione, è zero).

Considerando le ricerche di Kahneman e Tversky (1972; 1974), gli autori conclusero che l’errore di giudizio commesso dai partecipanti potesse essere dovuto a un’euristica, chiamata euristica della rappresentatività. Interpretando, dunque, i risultati ottenuti secondo l’euristica della rappresentatività, l’errore dei soggetti sarebbe dovuto al fatto che le informazioni non-diagnostiche verrebbero utilizzate per creare una rappresentazione mentale della categoria target. In questo modo le informazioni neutre assumerebbero un valore diverso da zero e contribuirebbero (erroneamente) alla stima probabilistica finale. L’euristica della rappresentatività non può tuttavia spiegare i risultati ottenuti da LaBella et al. (2004), che sfruttando l’oggettività degli stimoli utilizzati (urne e biglie) salvaguardavano il giudizio dei partecipanti al loro studio da questo bias.

I risultati e le conclusioni di LaBella et al. (2004), se da una parte hanno il vantaggio di non essere soggetti a bias e fraintendimenti, hanno basso valore ecologico, indi per cui, dicono poco su come le persone ragionano nella vita di tutti i giorni.

Qualche anno dopo questi due studi, Tetlock e Boettger (1989) ipotizzarono che il dilution effect potesse essere dovuto al basso grado di responsabilità percepita da parte dei partecipanti. I due autori avevano tenuto presente le ricerche di Tetlock e Kim (1987) le quali avevano dimostrato che un maggiore grado di responsabilità aumentava l’accuratezza dei giudizi delle persone. Il meccanismo sottostante l’impatto della responsabilità è, ipotizzarono gli autori, il risultato di una tendenza dei soggetti che si sentono responsabili delle loro stime, a processare in maniera integrata e complessa le evidenze che vengono loro fornite, valutando così anche quelle che dovrebbero essere ignorate. Tetlock e Boettger conclusero la loro pubblicazione affermando che il dilution effect potrebbe anche non essere considerato un bias o un errore, ma potrebbe consistere in una risposta razionale ai dati forniti: se vengono date ai soggetti delle informazioni è perché devono tenerle in considerazione. Questa teoria getta le basi per la spiegazione del dilution effect che verrà sostenuta da altri studi (Kemmelmeier, 2004, 2007) negli anni successivi.

La base conversazionale del dilution effect è un argomento che ha caratterizzato per anni la disputa tra alcuni scienziati del ragionamento (Igou & Bless, 2003, 2005; Igou, 2007). L’assunzione principale di questa teoria è che i soggetti ai quali vengono presentate le informazioni diagnostiche assieme a quelle non-diagnostiche commetterebbero dilution effect perché la presentazione che viene loro fatta non rispetta le massime conversazionali (Grice, 1975).

 

 

Dilution effect e massime conversazionali

Secondo alcuni autori (Igou et al., 2003), quindi, il dilution effect sarebbe causato da una violazione delle massime conversazionali, e quindi sarebbe dovuto a un fraintendimento. Analizziamo la questione più nel dettaglio. In una conversazione normale e che rispetta le massime conversazionali, il parlante non fornisce informazioni che non sono pertinenti all’argomento (massima della relazione), tuttavia, durante i vari esperimenti, ai soggetti sono state, ovviamente, presentate delle informazioni che non riguardavano l’ipotesi.

Le persone, essendo abituate a ricevere soltanto informazioni riguardanti l’argomento di conversazione, quando si trovano a dover compiere dei giudizi sulla base di alcune evidenze, tenderebbero a dare valore anche alle informazioni non-diagnostiche perché si aspettano che queste, per il semplice fatto che sono state loro fornite, debbano essere tenute in considerazione. Questa logica generale è stata applicata in diversi studi in cui veniva indagato l’impatto delle norme conversazionali nell’uso delle informazioni (Schwarz, Strack, Hilton, & Naderer, 1991; Bless, Strack, & Schwarz, 1993; Igou e Bless, 2003).

I risultati mostravano sostanzialmente che discreditando le massime conversazionali si poteva influenzare l’uso delle informazioni da parte dei partecipanti. Tetlock, Lerner e Boettger (1996) hanno investigato la base conversazionale del dilution effect in combinazione con l’impatto della responsabilità. Nella loro ricerca gli autori hanno osservato che, screditando la massima conversazionale della relazione (ossia avvertendo i soggetti che questa massima non sarebbe stata rispettata), l’effetto dilution effect era ridotto. Questo effetto si otteneva, tuttavia, soltanto quando questa condizione era associata alla situazione in cui vi era un alto livello di responsabilità. Quando, invece, i partecipanti si trovavano nella condizione di bassa responsabilità, i risultati mostravano dilution effect indipendentemente dal fatto che le norme conversazionali venissero o no disattivate.

Da questi risultati hanno dunque concluso che i giudizi dei partecipanti, nella condizione di bassa responsabilità, erano influenzati dall’euristica della rappresentatività. In accordo con questa conclusione, le massime conversazionali non erano in grado di spiegare la differenza di risultati ottenuti se non considerando il contributo dell’effetto della responsabilità.

 

 

Il  dilution effect secondo Kemmelmeier

Se Igou e Bless sono i più accaniti sostenitori del contributo conversazionale nel dilution effect, Kemmelmeier (2004; 2007b) lo è del contrario. Nei suoi vari studi ha, infatti, più volte dimostrato come il dilution effect non sia influenzato dal linguaggio ma da altri fattori, quali ad esempio il grado di responsabilità (Kemmelmeier, 2007a) o la percezione (Kemmelmeier, 2004). In uno dei suoi studi, egli ha voluto rianalizzare i risultati ottenuti da Igou et al. (2005) e ha scoperto che, analizzando i dati utilizzando la metodologia diversa otteneva osservazioni differenti rispetto a quelle ottenute dai suoi colleghi.

Kemmelmeier ipotizzò che il problema si trovasse nelle informazioni diagnostiche positive che i due ricercatori avevano presentato ai partecipanti; esse potrebbero essere percepite come quasi-diagnostiche e avere un valore diagnostico diverso da zero. Poiché i due studiosi non hanno fornito nessuna informazione riguardante la selezione delle evidenze non-diagnostiche utilizzate nel test, Kemmelmeier non ha potuto approfondire questa sua supposizione. Inoltre l’autore critica le conclusioni alle quali Igou e Bless sono giunti poiché, sostiene, che se il dilution effect fosse realmente dovuto a un fraintendimento dialettico, allora non si spiegherebbe il fatto che esso era presente quando i soggetti ricevevano evidenze diagnostiche negative indipendentemente dall’attivazione o meno delle norme conversazionali.

Le ricerche di Kemmelmeier non hanno solo fornito prove in disaccordo con il contributo conversazionale, ma hanno anche cercato di trovare una spiegazione al dilution effect. In un suo studio (Kemmelmeier, 2004) ha ipotizzato che le basi del dilution effect andassero cercate nella percezione. Egli infatti ipotizzò che l’errore di giudizio fosse dovuto al fatto che le persone, nonostante si rendessero conto dell’irrilevanza delle informazioni non-diagnostiche, non fossero poi comunque in grado di non considerarle. Nel suo esperimento egli presentò a dei soggetti una lista di evidenze e chiese loro di barrare con un pennarello nero quelle che i partecipanti consideravano irrilevanti per predire la probabilità di una data ipotesi. L’idea è che eliminando fisicamente le informazioni non-diagnostiche esse non sarebbero più state attive a livello percettivo e quindi non vi sarebbe stato alcun dilution effect.

I risultati ottenuti diedero credito alle sue ipotesi iniziali mostrando che quando le informazioni non-diagnostiche venivano eliminate, allora non vi era alcun effetto dilution effect.

 

 

Dilution effect e enhancement

Un’altra spiegazione è stata avanzata da Peters & Rothbart (1999), i quali si distaccano dal modello classico, che spiega il dilution effect come un abbassamento della stima di probabilità di un’ipotesi data un’evidenza, quando essa viene presentata assieme a un’evidenza non-diagnostica. I due ricercatori hanno ipotizzato che modificando il grado di tipicità delle informazioni non-diagnostiche sarebbero stati in grado di alterare le stime dei soggetti. Più nello specifico, essi hanno ipotizzato che utilizzando informazioni non-diagnostiche tipiche, allora avrebbero osservato un effetto contrario al dilution effect che definirono con il termine enhancement. I risultati mostrarono chiaramente che quando le evidenze non-diagnostiche fornite erano tipiche, si osservava un enhancement; non si riscontrava alcun effetto quando le evidenze non-diagnostiche erano neutre e, infine, si rilevava un dilution effect quando le informazioni non-diagnostiche erano atipiche.

Anche Fein e Hilton (1992) avevano ipotizzato che le informazioni non-diagnostiche non avessero tutte lo stesso impatto, e fecero una distinzione tra le informazioni non-diagnostiche che venivano percepite come pseudo rilevanti (utilizzando il linguaggio di Peters e Rothbart, tipiche) da quelle non rilevanti (atipiche) per la maggior parte dei giudizi. I due studiosi trovarono evidenze di un forte dilution effect quando i membri della categoria target erano associati a evidenze tipiche piuttosto che a evidenze atipiche. I risultati di Fein e Hilton, non solo non vengono replicati da Peters e Rothbart (1999), ma vengono addirittura invertiti.

Peters e Rothbart (1999) interpretarono i risultati dei due studiosi affermando che fossero dovuti al fatto che intendevano in maniere diverse il termine tipicità: mentre loro utilizzavano item tipici o atipici rispetto alla categoria target, Fein e Hilton (1992) utilizzavano item tipici e atipici in generale, ossia informazioni che erano tipiche, o atipiche, per la maggioranza delle categorie. Ciò avrebbe potuto generare un errore di fondo, per cui le evidenze, che in generale sono ritenute tipiche (quindi tipiche per qualsiasi gruppo categoriale), avrebbero potuto risultare atipiche nell’esperimento.

Proprio per non intercorrere in tale rischio, Peters et al. (1999), hanno condotto uno studio pilota atto a individuare il grado di tipicità degli item rispetto alla categoria target. Peters e Rothbart (1999) sostennero che dai risultati del loro studio derivavano alcune importanti implicazioni. Per prima cosa, i risultati delle ricerche precedenti sul dilution effect potrebbero essere spiegati dall’involontario uso di informazioni non-diagnostiche atipiche. Se si analizzano gli stimoli utilizzati da Nisbett et al. (1981) ad esempio, si nota che le evidenze non-diagnostiche fornite ai soggetti non avevano alcuna relazione con l’ipotesi indagata: alcune delle loro informazioni potrebbero essere ritenute neutre, altre invece, decisamente atipiche.

Una seconda implicazione derivante dai risultati dello studio concerne la natura delle etichette delle categorie sociali, le quali possono rendere più facile diluire, piuttosto che aumentare, le predizioni di un membro target. Peters e Rothbart partirono dal presupposto che, bensì non sia vero che le informazioni non-diagnostiche abbassano sempre la stima di probabilità di un’ipotesi, è vero che, in generale, è presumibilmente più facile indebolire piuttosto che rafforzare l’immagine di un membro di una categoria sociale.

 

 

Conclusioni

Se affiancare a informazioni diagnostiche delle informazioni non-diagnostiche bastasse a ridurre il valore delle prime, allora questo sarebbe un problema soprattutto in campo giuridico ed in campo clinico. Uno studio di Smith, Stasson e Hawkes (1998) ha mostrato che l’effetto dilution effect si manifesta anche nelle scelte riguardanti l’ambito giuridico-legale.

Ma è davvero possibile che le persone non siano in grado di escludere le informazioni non-diagnostiche quando devono esprimere un giudizio? Eppure nella vita di tutti i giorni, siamo chiamati spesso a considerare il peso di alcune informazioni al fine di predire la probabilità che un determinato evento si verifichi. È possibile che nonostante siamo così allenati a farlo compiamo comunque tali errori?

Quello che sappiamo riguardo il fenomeno del dilution effect ha ancora molti margini di sviluppo, dato che nessuna delle spiegazioni fornite sembra essere esauriente.

Se, infatti, il dilution effect fosse dovuto soltanto all’euristica della rappresentatività (Kahneman & Tversky, 1972) non si spiegherebbe come sia possibile che tale fenomeno sia stato riscontrato anche negli studi di LaBella e Koehler (2004), che hanno utilizzato uno scenario di tipo lean.

Se questo fenomeno avesse una base conversazionale allora non si spiegherebbe come sia possibile che Kemmelmeier (2007) sia riuscito a ottenere l’effetto anche disattivando le massime conversazionali.

La spiegazione di Kemmelmeier che identifica il dilution effect come un’incapacità dei soggetti di non considerare le informazioni percettivamente attive, è criticabile. Eliminare fisicamente le evidenze non-diagnostiche, è come escluderle dalla valutazione, in altre parole, è come se non fossero mai state presentate. Ciò non è l’obiettivo degli studi sul dilution effect finalizzati a comprendere perché le persone non sono in grado di non considerare le informazioni non-diagnostiche nonostante si rendano conto della loro inutilità, e non tanto a evitarlo attraverso quelli che potrebbero sembrare meri trucchetti. Anche perché, nella vita di tutti i giorni, le informazioni non-diagnostiche non possono essere eliminate con un pennarello nero.

Le evidenze fornite da Peters e Rothbart (1999) sono interessanti, ma si limitano ad approfondire il fenomeno, non a spiegarlo.

Nonostante le diverse correnti di pensiero riguardanti le spiegazioni avanzate dagli esperti riguardo il dilution effect, fino ad ora non esiste una spiegazione univoca e sembra che siamo ancora molto lontani dal trovare una spiegazione esauriente e completa.

Unbroken (2015) di Angelina Jolie: un esempio di resilienza – Recensione

Uscito nelle sale italiane a fine gennaio 2015, Unbroken è un film diretto da Angelina Jolie, tratto dai fatti realmente accaduti della vita di Louis Zamperini, famoso atleta olimpico negli anni ’30.

 

Trama

Di origini italiane, Louis Zamperini, detto ‘Louie‘, trascorre l’infanzia e l’adolescenza nella California del Sud insieme alla famiglia composta dai genitori e dal fratello maggiore.

Bersagliato dai compagni a causa delle origini straniere e della difficoltà ad apprendere l’inglese, Louie diventa una vittima di episodi di bullismo, ma anche un colpevole agli occhi della polizia che non vuole avere grane con un italiano.

Supportato dal fratello, fermamente fiducioso nelle sue potenzialità, Louie si avvicina all’atletica nel giro di pochi anni, diventa un famoso e rispettabile campione olimpico in tutto il mondo, apprezzato persino da Hitler che desidera incontrarlo e porgere personalmente i complimenti per la tenacia dimostrata nello sport.

Allo scoppio della guerra, però, l’atleta è costretto ad abbandonare la sua passione per salire a bordo di un cacciabombardiere americano che finisce per precipitare improvvisamente nell’Oceano Pacifico.

Da qui inizia un calvario di avvenimenti avversi che mettono a dura prova la vita e l’equilibrio mentale dell’atleta.

 

UNBROKEN (2015) TRAILER:

 

La resilienza

Resistere‘ è la parola d’ordine, il minimo comune denominatore, nella vita di Louis Zamperini. Infatti, nell’arco delle varie fasi evolutive, l’atleta non fa altro che resistere.

Resiste agli attacchi dei bulli, alle ramanzine della polizia e dei genitori indifferenti ai suoi bisogni, resiste alla fatica dell’allenamento e infine ai pericoli esterni: dal naufragio a bordo di un canotto, alla prigionia nei campi di concentramento, alle umiliazioni e alle fatiche imposte dal malvagio sergente Watanabe, responsabile di entrambi i lager dove viene inevitabilmente deportato.

In tutto questo panorama di scherni, vessazioni e umiliazioni continue, Louis ha allenato la forza mentale e l’autostima non solo grazie all’atletica e ai riconoscimenti, che senz’altro hanno facilitato la perseveranza negli obiettivi e la fiducia in sé, ma anche ad un importante figura di attaccamento che lo stesso campione ricorderà diverse volte nei giorni di prigionia: il fratello maggiore. È Pete Zamperini che da atleta dilettantistico diventa il suo allenatore personale, rinunciando così alla passione per cederla al fratello minore, per aiutarlo a trovare un senso e un riscatto nello sport.

La presenza di una figura di attaccamento sufficientemente buona è quindi un elemento essenziale per sviluppare la forza, la tenacia e la perseveranza, competenze centrali nella personalità di Louis.

Il film termina con una nota biografica sull’atleta che pone un’altra importante riflessione sul tema della resilienza.

Anni dopo la prigionia nei campi di concentramento, Louis troverà la forza di incontrare e perdonare i suoi carcerieri, lasciando andare la rabbia e il dolore lancinante. Impossibile? Non sempre, dal momento che essere resilienti, a mio avviso, non significa solo saper resistere, ma anche saper lasciar andare il dolore, la rabbia e i torti subiti. E diventa un’impresa ardua senza l’elaborazione e l’accettazione dell’esperienza, e soprattutto il perdono verso chi non è stato in grado di esercitare altro che violenza e aggressività.

Ed è in questo che Louie Zamperini si contraddistingue non solo come un grande atleta olimpico nella storia, ma anche come un uomo maturo, dotato di una forza e una bontà d’animo sbalorditiva e, quindi, sufficientemente sano.

 

 

Le lezioni

Da questa storia si possono dedurre alcune importanti lezioni. Prima di tutto, lo sport può diventare un elemento prezioso per sviluppare e rafforzare determinate risorse mentali spendibili in vari contesti, come appunto la resilienza, ma è necessaria almeno una figura di riferimento significativa in grado di trasmettere non solo il valore di questa attività, ma anche una presenza attenta ed empatica.

Oltre a ciò, non bisogna dimenticare la modalità sana di elaborazione dell’esperienza che non si riduce soltanto all’espressione emotiva o alla narrazione degli avvenimenti, ma coinvolge anche l’importante attribuzione di senso. E in questo il perdono può rivelarsi un ottimo strumento per conferire un significato all’esistenza soggettiva.

Dalla vita di Louis si deduce, inoltre, l’importanza della speranza nelle avversità, ben diversa dalla fantasticheria usata per sfuggire alla realtà. La speranza in Louis presuppone l’accettazione della realtà, che per il momento risulta avversa, e contemporaneamente la fiducia nel cambiamento futuro.

In altre parole, fantasticare implicherebbe un atteggiamento evitante e sfuggente dalla realtà dei fatti che risulta intollerabile, mentre la speranza potrebbe includere una disposizione ad ammettere le connotazioni negative degli eventi, che non si possono cambiare, e a modificare, così, l’atteggiamento attraverso un sentimento di fiducia nel tempo.

Proprio perché, in determinati casi, se non si possono cambiare gli eventi, si può cambiare l’atteggiamento verso gli eventi.

Io e l’altro come specchio di me: l’amore nella coppia e la nostra identità

Cosa è che ci fa persistere nello scegliere un soggetto che se incontrassimo adesso non sceglieremmo assolutamente e che non ha più gran parte di quei predicati che ce lo avevano fatto preferire? Per certi versi entra in gioco il bias dei costi sommersi per cui il valore di un certo oggetto è la somma del suo valore reale aumentato delle risorse che vi abbiamo investito, ma è piu che altro una questione che riguarda la nostra identità.

CIOTTOLI DI PSICOPATOLOGIA GENERALE (RUBRICA) – LEGGI L’INTRODUZIONE

 

Premessa: pensiero normale e pensiero schizofrenico

Questo ciottolo parte da una riflessione teorica di molti anni fa nata per formulare un modello del pensiero schizofrenico e paranoico e mettere a frutto la mia insana passione per Ignacio Matte Blanco, psicoanalista e matematico originalissimo.

Non riassumo in questa sede la questione e mi limito agli aspetti che  riguardano il tema  della vita quotidiana che voglio affrontare. Von Domarus, ripreso da Arieti nella sua monumentale opera sulla schizofrenia, sostiene che i “normali”, stabilita  l’identità di due o più soggetti, inferiscono l’identità anche dei loro predicati: due auto identiche hanno tutte le caratteristiche identiche e conoscendo quelle dell’una posso prevedere con certezza quelle dell’altra.

Al contrario, secondo il pensiero paleologico che Von Domarus ritiene peculiare degli schizofrenici, si passa dall’identità dei predicati ad inferire l’identità dei soggetti. Esempio. Una schizofrenica dice ‘La madonna è vergine, io sono vergine dunque io sono la madonna‘. Un altro dice ‘I morti sono freddi, io sono freddo, dunque io sono morto‘.  La mia obiezione a questa ghettizzazione di tale modalità al solo pensiero schizofrenico è che, in verità, sia ciò che avviene continuamente in ambito scientifico, ad esempio nel processo diagnostico quando dalla presenza di alcuni segni, sintomi o dati di analisi inferiamo la presenza di una certa malattia e dunque di un più ampio corredo di altri segni e sintomi.

Nella vita di tutti i giorni, per cui quando rispondo al telefono il solo riconoscimento della voce mi fa ipotizzare che si tratti di mio padre che ha molte altre caratteristiche oltre a quel tono di voce e da cui so cosa posso aspettarmi, mi basta la voce per inferire che sia mio padre.

Nella vita quotidiana addirittura facciamo qualcosa di molto più azzardato: dalla presenza di alcuni predicati inferiamo direttamente la presenza di altri  passando attraverso un soggetto prototipico che sta solo nella nostra mente. Per cui se uno è elegante, gentile ed educato mi aspetto anche che sia onesto. Se uno è ricercato nel linguaggio mi aspetto che sia anche intelligente. In parole povere si tratta del meccanismo del pregiudizio.

Secondo me, argomentai allora con esempi e tesi che qui lo spazio e il focus non consentono, la vera differenza tra il pensiero normale e quello schizofrenico è che il primo rifiuta l’identità dei soggetti, indipendentemente se la ipotizzi sulla base dell’identità di uno solo o moltissimi predicati, sulla base della differenza anche di un solo predicato sostanziale mentre lo schizofrenico no. Potremmo affermare che lo schizofrenico non ha appreso la lezione di Popper per cui solo la negazione può passare dal particolare al generale, è rimasto un induttivista ingenuo e commette errori che però facciamo tutti.

 

Identità e Amore

Ma arriviamo adesso all’argomento che mi interessa e che riguarda i due grandi temi dell’identità personale e delle relazioni. Primo: quando dico che resto me stesso nonostante il mio corpo e il mio modo di vedere il mondo (dunque la mia mente) cambino, cosa significa effettivamente? e da cosa viene la sensazione di essere ancora e sempre ‘io’ ancorché irriconoscibile per i miei compagni di liceo? Secondo: quando diciamo alla persona amata che continueremo ad amarla qualsiasi cambiamento avvenga in lei, vogliamo semplicemente essere galanti ma sappiamo di ingannarla o ci crediamo davvero? e, in questo secondo caso, abbiamo ragione o ci stiamo sbagliando?

Mi rendo conto che l’argomento è di pertinenza prevalentemente filosofica ma il possibile danno è piuttosto modesto e poi non abbiamo forse subito di recente un invasione di campo da parte loro con la consulenza filosofica che peraltro trovo utilissima  su certi rodimenti che più che psicopatologici sono squisitamente esistenziali.

Insomma il tema di questo ciottolo è appunto la stabilità dell’identità dei soggetti (che sia l’io o il tu) nonostante il modificarsi dei predicati. Inizio da questo secondo problema. E’ evidente che  quando scegliamo una persona come possibile nostro partner lo facciamo sulla base di una serie di caratteristiche che ci piacciono in quanto presumiamo soddisfino i nostri scopi.

Sono esattamente i suoi predicati che ci spingono ad avvicinarci a lei piuttosto che a qualcun altro. L’altro è esattamente la sommatoria dei suoi predicati e null’altro, non c’è un tu sostanziale che li trascende. Anzi succede in genere che molte persone che incontriamo abbiano un pacchetto di predicati estremamente interessante creando i conflitti, a tutti noti sulla scelta del partner. Purtroppo non è possibile montarsi un puzzle perfetto prendendo un po’ di qua e un po’ di là. Comunque sia passata questa fase di scelta, inizia la relazione che si dipana nel tempo. Durante questo periodo si scoprono in genere nuovi predicati del soggetto che abbiamo scelto, alcuni graditi ed altri sgraditi.

Contemporaneamente alcuni dei predicati originali che avevano determinato la scelta vengono perduti. Il costituire una novità e l’essere imprevedibile cessano e l’altro diventa più scontato e consueto, la bellezza e la prestanza fisica sono tutte caratteristiche che tendono ad attenuarsi col tempo per non considerare cambiamenti bruschi derivanti da malattie,  incidenti e contingenze negative d’ogni sorta. Eppure almeno parzialmente in buona fede affermiamo che l’altro è il nostro Tu (la T maiuscola non è casuale) e non lo cambieremmo anche se lui è vistosamente cambiato. Che i fatti spesso smentiscano questa credenza non ci riguarda in questa sede.

Cosa è, dunque, che ci fa persistere nello scegliere un soggetto che se incontrassimo adesso non sceglieremmo assolutamente e che non ha più gran parte di quei predicati che ce lo avevano fatto preferire?  Per certi versi entra in gioco il bias dei costi sommersi per cui il valore di un certo oggetto è la somma del suo valore reale aumentato delle risorse che vi abbiamo investito per cui è difficile abbandonare imprese su cui si è speso molto anche quando si mostrano chiaramente perdenti.

Ma c’è qualcosa, credo, di più. L’altro è diventato il testimone di noi stessi, di chi siamo, è lo specchio fedele che ci rimanda la nostra identità. Non c’entra molto etimologicamente con il termine ‘riconoscenza’ ma è attraverso lui che riconosciamo noi stessi. E’ questo che ce lo rende prezioso normalmente e, al contrario, odiosissimo quando viviamo una conversione radicale o una rivoluzione kunhiana della nostra identità. Questa funzione dell’altro rimanda al primo problema che avevo posto e cioè come faccio a riconoscermi e ad affermare che sono lo stesso di 40 anni fa nonostante il mio fisico e la mia mente siano radicalmente cambiati.

L’unico invariante è che io resto il protagonista di quella storia che mi narro continuamente come la ‘mia storia’, non importa quanto effettivamente corrispondente alla realtà. E’ il sé mnemonico ad essere il sostegno dell’identità e suoi indispensabili complici sono quegli interlocutori che scegliamo come privilegiati testimoni  che proprio per questo sono tanto importanti e  non vogliamo perdere. Ci reggono il gioco nel credere di essere quello che crediamo di essere.

Questo val bene la promessa di non lasciarli mai, qualsiasi cosa accada nella buona e nella cattiva sorte e siamo pronti a ricambiarli con la stessa moneta. Se pensate che stante così le cose e data l’importanza della posta in palio sia meglio munirsi di più testimoni, non me ne attribuite la responsabilità e soprattutto attenti a non rimanere senza nessuno.

RUBRICA CIOTTOLI DI PSICOPATOLOGIA GENERALE

Impotenza finanziaria: un vergognoso segreto

Impotenza finanziaria: Neal Gabler, nell’articolo del The Atlantic Magazine in cui racconta la propria esperienza di fragilità economica, definisce l’insicurezza finanziaria come impotenza finanziaria perché assimilabile per molti versi all’impotenza sessuale, dato il disperato bisogno di tenerla nascosta, di fingere che vada tutto bene, e il sentimento di vergogna che l’accompagna.

 

Quante persone oggi appartenenti al ceto medio, se domani si trovassero a dover affrontare un imprevisto, potrebbero sborsare 500 euro senza problemi? Stando a quanto riportato da un articolo del The Atlantic Magazine, quasi la metà degli Americani avrebbe difficoltà a recuperare 400 dollari per pagare un’emergenza. Com’è possibile?

I fattori che incidono sulla possibilità di mettere da parte qualche risparmio sono molteplici. Sicuramente gioca un ruolo importante la crisi economica che stiamo attraversando, ma questo non è l’unico fattore.

Uno studio di Lusardi (2011) ha mostrato come il 65% degli Americani tra i 25 e i 65 anni sia un “illetterato finanziario”, cioè non sia in grado di processare le informazioni economiche per prendere decisioni informate riguardo a pianificazioni finanziarie, risparmi, debiti e pensioni. Noi italiani non siamo messi meglio, con il 63% di illetterati finanziari, quasi alla pari con il Brasile e peggio del Sud Africa. In un mondo in cui i prodotti finanziari diventano sempre più sofisticati offrendo maggiori opportunità di investimento, le persone non riescono a mantenersi aggiornate o addirittura non conoscono i principi base della finanza (anatocismo, diversificazione del rischio, effetti dell’inflazione…): l’“ignoranza finanziaria” dilaga e le conseguenze di pianificazioni o decisioni finanziarie errate, come non differenziare gli investimenti o investire in prodotti ad alto rischio per avere alti rendimenti, possono essere drammatiche (Banca Etruria docet).

Un altro fattore è rappresentato dalle scelte di vita “azzardate”, fatte senza prima ponderare accuratamente le conseguenze finanziarie – sia perché non conosciute sia perché (troppo) confidenti di poter riuscire ad affrontare eventuali avversità – come scegliere una professione con un basso tasso di occupazione o lasciare il proprio lavoro per dedicarsi all’accudimento dei figli, forti dello stipendio del partner.

Ci sono poi gli imprevisti della vita, come una malattia, un licenziamento in età avanzata e la difficoltà a reinserirsi nel mondo del lavoro, o la perdita del coniuge, che possono influenzare negativamente le entrate finanziarie.
Questi sono solo alcuni dei fattori che possono determinare un’instabilità o precarietà finanziaria con conseguenze potenzialmente devastanti, non solo economiche, ma anche psicologiche.

Neal Gabler, nell’articolo del The Atlantic Magazine in cui racconta la propria esperienza di fragilità economica, definisce l’insicurezza finanziaria come “impotenza finanziaria” perché assimilabile per molti versi all’impotenza sessuale, dato il disperato bisogno di tenerla nascosta, di fingere che vada tutto bene, e il sentimento di vergogna che l’accompagna.

 

Ma come mai una persona che naviga in cattive acque dovrebbe provare vergogna per la propria situazione?

Uno dei fattori che influenzano la reazione emotiva delle persone di fronte alle difficoltà finanziarie è sicuramente l’attribuzione di colpa.
Se si tende ad attribuire la responsabilità a fattori esterni (“Piove! Governo ladro!”, già esclamavano i nostri avi mazziniani e, si sa, buon sangue non mente), l’emozione predominante sarà verosimilmente la rabbia, suscitata dalla percezione di essere stati danneggiati da chi ritenevamo responsabile per nostro conto.

Ma in un Paese come l’America, la cui mentalità riflette l’idea che tutti hanno le stesse opportunità e raggiungere o meno i propri obiettivi dipende dal singolo individuo, un Paese che distingue tra vincitori e perdenti, avere difficoltà finanziarie è vissuto come una colpa di cui si è personalmente responsabili e quindi fonte di vergogna e umiliazione, se non addirittura una forma di suicidio sociale. L’unica protezione, come afferma Gabler, è il silenzio.

Avere difficoltà finanziarie può essere, infatti, vissuto come uno stigma, aggravato dalla credenza che gli altri possano pensare che valiamo meno, e proprio per evitare lo stigma sociale si tende a nascondere i propri problemi economici e a isolarsi. La stigmatizzazione, gli sforzi per tenere nascosti agli occhi del mondo le proprie difficoltà e l’isolamento sociale, sembrano contribuire allo sviluppo di depressione, ansia e sofferenza emotiva (Keene et al., 2015). Riuscire a ridurre lo stigma aiuterebbe, pertanto, le persone ad aprirsi di più e a scoprire di non essere sole in questa condizione, oltre a ottenere un maggior supporto sociale; tutti fattori che potrebbero aiutare ad attenuare le conseguenze negative che un fattore di vita stressante come l’impotenza finanziaria ha sulla salute mentale.

Da Homer e Marge a Leonard e Penny… perché in alcune coppie un partner è più attraente dell’altro?

Vi è mai capitato di passeggiare per strada e soffermare l’attenzione su di una coppia che, a vostro avviso, non è proprio “ben composta”? Trattasi magari di una giunonica fanciulla accompagnata da un ‘simpaticissimo‘ ragazzo o di un adone accompagnato da una ‘chissà, forse sarà tanto dolce‘ ragazza.

 

Sebbene siamo consapevoli che ciò che lega due persone va spesso oltre l’aspetto fisico (fortunatamente aggiungerei), capita che in alcune coppie la differenza di avvenenza fisica tra i due partner sia assolutamente evidente (basti pensare a Leonard e Penny di The Big Bang Theory!).

Nonostante da alcuni dati emerga che una bella presenza fisica è una delle caratteristiche più ricercate in un partner, numerosi altri studi hanno sottolineato come una persona tenda a scegliere un compagno di vita con caratteristiche simili alle proprie, siano esse culturali, fisiche o economiche. Gli studiosi hanno chiamato questo fenomeno ‘Assortative Mating‘. Come spiegare dunque la scelta di un partner molto più attraente di noi alla luce dell’assortative mating?

In uno studio pubblicato un anno fa su Psychological Science, i ricercatori hanno indagato cosa porta due persone, fisicamente molto diverse tra loro, a scegliersi come partner. In particolare, hanno indagato da quanto tempo le due persone si conoscevano prima di iniziare una relazione stabile. Gli autori della ricerca hanno scelto come cornice teorica di riferimento le teorie market-based, in particolare la teoria della competizione. Secondo tale teoria in realtà, gli individui sarebbero attratti da persone fisicamente molto attraenti ma desisterebbero nel corteggiarle per la probabile presenza di rivali caratterizzati dallo stesso livello di avvenenza della persona tanto desiderata. In questo modo si crea dunque un ‘Consenso‘ su chi possiede qualità per noi desiderabili e chi no. Ovviamente il consenso agisce come filtro fin dai primi momenti di conoscenza tra persone.

Ecco spiegato lo studio: le coppie che hanno sin da subito iniziato una conoscenza finalizzata a una relazione stabile, nelle quali il ‘consenso‘ ha un maggiore impatto, sono le stesse in cui i partner sono fisicamente simili? La ricerca sembra dare una risposta positiva alla questione, sottolineando come, al contrario, nelle coppie formatesi dopo un periodo di amicizia o conoscenza, sia più probabile trovare un partner più avvenente dell’altro.

I ricercatori, però, lasciano in sospeso alcune domande: ciò accade in coppie di tutte le età? E, soprattutto, il partner più attraente nelle coppie “fisicamente diverse” è più di frequente l’uomo o la donna? Nel lasciarvi con questi interrogativi in sospeso, vi rimando alla lettura dell’articolo originale.

 

Abstract

Clear empirical demonstrations of the theoretical principles underlying assortative mating remain elusive. This article examines a moderator of assortative mating–how well couple members knew each other before dating–suggested by recent findings related to market-based (i.e., competition) theories. Specifically, competition is pervasive to the extent that people achieve consensus about who possesses desirable qualities (e.g., attractiveness) and who does not. Because consensus is stronger earlier in the acquaintance process, assortative mating based on attractiveness should be stronger among couples who formed a relationship after a short period rather than a long period of acquaintance. A study of 167 couples included measures of how long partners had known each other before dating and whether they had been friends before dating, as well as coders’ ratings of physical attractiveness. As predicted, couples revealed stronger evidence of assortative mating to the extent that they knew each other for a short time and were not friends before initiating a romantic relationship.

 

 

Amenorrea ipotalamica: la rigidità della mente e il blocco del corpo

Il controllo sembra essere una caratteristica peculiare dell’amenorrea ed è indice di una scarsa flessibilità che si esprime sia in termini comportamentali che emotivi. Anche gli studi neurobiologici confermano questo dato.

 

Amenorrea: che cos’è

L’Amenorrea è una condizione in cui si può dire che il corpo perde una caratteristica propria dell’essere femmina, ovvero la capacità riproduttiva.
L’amenorrea è caratterizzata dalla scomparsa del ciclo mestruale per almeno 6 mesi. Può essere classificata come primaria o secondaria a seconda della presenza/assenza del menarca. Circa la metà delle amenorree è di origine ipotalamico, cioè di origine non organica, quindi funzionale e reversibile. L’amenorrea ipotalamica (AI) è una sindrome riconducibile a una scarsa produzione delle gonadotropine a livello ipotalamico e rappresenta una risposta adattiva dell’organismo femminile allo stress.

Capire l’amenorrea significa prendere in considerazione non solo i fattori endocrini e ginecologici ma anche psicologici, perché molto spesso è l’adozione di modalità disadattive in risposta a uno stress a portare a una condizione di amenorrea, al punto che l’amenorrea può essere definita come un fallimento del corpo femminile nella risposta allo stress (Nappi et al, 1995). Si verifica in questi casi uno squilibrio endocrino associato a uno sbilanciamento energetico, per cui è come se il corpo cominciasse a risparmiare su quelle funzioni non indispensabili alla sopravvivenza, tra cui appunto quella riproduttiva.

 

L’evoluzione nella storia del criterio dell’amenorrea

Per molto tempo l’amenorrea è stata vista solo come un sintomo associato al disturbo del comportamento alimentare (DCA), nonostante alcune situazioni di amenorrea permanessero o non fossero associate a disturbi alimentari conclamati. Nell’ultima versione del DSM-5 questo criterio è stato tolto, quindi l’amenorrea non figura più tra i criteri diagnostici necessari per un DCA.

Cercando la narrazione dell’amenorrea nella storia si scopre che già ne parlava Ippocrate nel V secolo a.c a proposito dell’infertilità riscontrata in alcune tribù nomadi degli sciiti. Scriveva riguardo le donne:”… il loro ciclo mestruale non ha i caratteri che dovrebbe avere, è scarso e caratterizzato da intervalli troppo lunghi… a causa del freddo e della stanchezza dimenticano il loro desiderio sessuale e la loro propensione a unirsi con l’altro sesso..”.

Una prima review sull’amenorrea risale al 1954 in cui vengono ripresi alcuni lavori precedenti molto significativi (Kelly et al, 1954). Durante la prima guerra mondiale si registra un incremento dell’incidenza dell’amenorrea. Essa viene ricondotta non solo a condizioni di carenza alimentare, ma più in generale alle condizioni sociali e all’assenza di uomini. Là dove non sono garantite le condizioni per sopravvivere (tantomeno per riprodursi), il corpo risparmia energie dove può. Dalla seconda guerra mondiale in avanti l’amenorrea comincia a essere letta come una risposta del corpo allo shock emotivo o come “sindrome che risulta dalla combinazione di fattori nutrizionali e psichici” (Copelman, 1948). Matthews e O’Brien notano che le pazienti con amenorrea hanno genitori con alti standard e pattern alimentari non corretti, ma soprattutto è presente un senso di iper-responsabilizzazione e vissuti di colpa ingiustificati verso i genitori.

 

Quali sono le caratteristiche associate all’amenorrea ipotalamica?

In sostanza oltre a studiarne l’eziologia da un punto di vista fisico, si identificano delle caratteristiche tipiche: difficoltà a gestire le emozioni, rigidità nel funzionamento cognitivo e controllo alimentare/corporeo.
Fin qui sembrerebbe tutto molto simile al disturbo alimentare, quindi cosa c’è di diverso nell’amenorrea ipotalamica?
Qualcosa di diverso c’è. La prima cosa è che spesso sono pazienti ginecologiche e difficilmente si riconoscono in un disturbo alimentare.
La seconda cosa è che effettivamente non tutte le pazienti con DCA hanno l’amenorrea.
Le pazienti con amenorrea non sono consapevoli della loro scarsa flessibilità cognitiva e della difficoltà di gestione delle emozioni. Inoltre il loro controllo sul cibo e sul corpo viene visto come una “sana abitudine” e non come la manifestazione di una certa rigidità.
Lo studio delle caratteristiche delle pazienti amenorroiche negli ultimi vent’anni ha permesso di ampliare le possibilità di cura e di trovare strade alternative non necessariamente farmacologiche.
Così si è scoperto che alcune caratteristiche di personalità rendono più vulnerabili all’ amenorrea ipotalamica: perfezionismo, bisogno di controllo, senso di inadeguatezza e bisogno di riconoscimento. (Marcus et al, 2001).
Donne con una struttura di questo tipo sono chiaramente maggiormente vulnerabili agli eventi stressanti e tendono a reagire in modo disfunzionale.

Il controllo sembra essere una caratteristica peculiare ed è indice di una scarsa flessibilità che si esprime sia in termini comportamentali che emotivi. Anche gli studi neurobiologici confermano questo dato. Sono stati misurati i livelli del fattore neurotrofico cerebrale (BDNF), un mediatore di plasticità neurale che influenza l’apprendimento, la memoria e il funzionamento cognitivo (Genazzani et al, 2007), nelle donne in età fertile con amenorrea confrontate con donne in post menopausa, e si è notato come questo fattore sia correlato alla presenza di ormoni gonadici. Le donne in amenorrea presentano un deficit di questo fattore che si traduce a livello cognitivo in una scarsa flessibilità. Il fatto inoltre che l’amenorrea permanga anche dopo aver ripristinato un peso adeguato, conferma l’ipotesi che ci siano altri fattori che rinforzino e mantengano l’amenorrea aldilà del disturbo alimentare. (Brambilla et al, 2003).

Inoltre le donne con amenorrea ipotalamica hanno una scarsa spinta esplorativa e tendono all’evitamento. Possono avere comportamenti ossessivi e si accompagnano a disturbi dell’umore e sessuali. Il corpo delle amenorroiche è un corpo silente in cui si ha una staticità dell’organismo che va contro la normale ciclicità del corpo femminile in età fertile. Tanto la mente è rigida, tanto il corpo è bloccato.

 

Un possibile trattamento dell’amenorrea ipotalamica

Nel 2003 negli Stati Uniti è stato messo a punto un protocollo di terapia cognitiva che si proponeva come alternativa al trattamento farmacologico (Berga, 2003).
Il punto di partenza è che se modalità disadattive e caratteristiche psicologiche possono portare all’insorgenza e al mantenimento dell’amenorrea ipotalamica, allora un intervento cognitivo comportamentale potrebbe ristabilirne la funzionalità ovarica.

Questo protocollo prevedeva 16 sessioni suddivise in tre fasi:
1- Psicoeducativo
2- Intervento cognitivo sulle abitudini disadattive
3- Preparazione per la fine del trattamento.

Al termine del trattamento vi è stata una risoluzione del disturbo nell’87,5% dei casi contro il 25% del gruppo di controllo. L’intervento ha agito sulla strategia di deprivazione energetica e la correzione di comportamenti disfunzionali vs l’adozione di strategie di gestione dello stress più adeguate.
Da un punto di vista neuroendocrino si è notato una riduzione dei livelli di cortisolo e un incremento della leptina e del TSH, due fattori che sono risultati mediatori nel ripristino della funzionalità ovarica. ((Michopoulus et al, 2013).

L’amenorrea ipotalamica dunque si presenta come una sindrome trasversale che può essere studiata e deve essere trattata sotto più punti di vista. Molto spesso è il punto di partenza per poter affrontare problematiche psichiche dove l’amenorrea è quasi il minore dei mali.
Tuttavia il riconoscimento del disturbo e della sofferenza emotiva che questo comporta, è la chiave d’accesso per poter instaurare una buona alleanza con questo tipo di pazienti.

Le paure nei bambini: quali sono le più frequenti e come gestirle

Le paure nei bambini possono essere divise in tre categorie: le paure innate, presenti dalla nascita; le paure legate alla crescita, che appaiono a diverse età; le paure apprese in seguito ad eventi traumatici o indotte dall’ambiente di vita.

Che cos’ è la paura?

La paura, come altre emozioni primarie è iscritta nel nostro patrimonio genetico. La paura è un campanello d’allarme interno che ci segnala la presenza di un pericolo o di una minaccia nel mondo esterno. Ha il pregio di segnalare i pericoli e di attivare l’organismo dicendoci <<Attenzione qualcosa o qualcuno sta per farti del male>> pertanto il suo scopo è quello di attivare comportamenti di protezione come la fuga o l’attacco. La paura fornisce la motivazione necessaria alla mobilitazione delle energie, soltanto quando è eccessiva porta a compiere azioni avventate e controproducenti. Una persona senza paura non potrebbe sopravvivere a lungo ad esempio attraversando la strada con il rosso.

Sotto l’effetto della paura i battiti del cuore aumentano, la pressione del sangue accelera, gli occhi sono sbarrati oppure serrati, le pupille dilatate, le orecchie tese a cogliere ogni rumore sospetto oppure tappate con le mani, la pelle d’oca, intensa sudorazione, sensazione di caldo alla testa, pulsazioni accelerate. In questo stato di allerta, anche gli organi interni, come intestino e reni, lavorano ad un ritmo vorticoso, tanto da produrre diarrea e disturbi di digestione, gli zuccheri si riversano nel sangue, aumentano le secrezioni da parte dell’ipofisi e della midollare del surrene. Aumentano l’attenzione e la velocità delle reazioni. Più estesa è la situazione che provoca paura, più sembrerà minacciosa al soggetto e più violente saranno le emozioni provate.

Questo sistema psico-fisico migliora la capacità di lottare, oppure di fuggire e di immobilizzarsi, il cosiddetto freezing (in cui si attiva il sistema nervoso simpatico, e i muscoli sono tonici), oppure immobilizzazione/morte apparente (in cui si attiva il sistema nervoso parasimpatico dorsale e vi è afflosciamento muscolare) tipico atteggiamento protettivo assunto dagli animali.

 

Le paure nei bambini

Sono stati individuati tre principali stili educativi favorenti l’acquisizione delle più comuni paure nei bambini. I bambini, infatti, manifestano comportamenti disturbati solo nel contesto di situazioni disturbate. Si tratta di situazioni che, oltre ad offrire contingenze di rinforzo inadeguate, favoriscono l’apprendimento nel bambino di convinzioni, inferenze e valutazioni elicitanti manifestazioni emotive disturbate.

– Stile ipercritico: è caratterizzato da un’elevata frequenza di critiche rivolte al bambino sotto forma di rimproveri oppure manifestando biasimo nei suoi confronti, svalutandolo e mettendolo in ridicolo. Gli adulti che adottano questo stile educativo, difficilmente notano i comportamenti adeguati del bambino, mentre sono sempre pronti ad evidenziare i suoi errori. Ciò determina nel bambino paura di sbagliare, di essere disapprovato, bassa stima di sé.
– Stile perfezionistico: è uno stile educativo sostenuto dalla convinzione che il bambino deve riuscire bene in tutto ciò che fa e che il suo valore (e quello dei suoi genitori) è determinato dal successo che ottiene in varie attività. Nel bambino viene cosi modellato un atteggiamento perfezionistico, che lo porta a temere in modo eccessivo la disapprovazione e la critica qualora non riesca bene in ciò che fa. I bambini educati con questo stile, diventano molto ansiosi quando si cimentano in qualcosa di impegnativo (compiti in classe, esami, gare ecc.) e ritengono di valere qualcosa, solo se riescono bene ed ottengono l’approvazione altrui. Le manifestazioni più frequenti di paura sono, in questo caso, l’ansia scolastica e l’ansia sociale.
– Stile iperansioso-iperprotettivo: tale stile educativo è contraddistinto da un’eccessiva preoccupazione dell’incolumità fisica del bambino e tendono a proteggere in continuazione il figlio da ogni minima frustrazione. Nel bambino vengono quindi modellate timidezza e paura trasmettendogli soprattutto queste idee sul fatto che i pericoli sono dappertutto e bisogna stare continuamente attenti; se qualcosa è spiacevole o frustrante bisogna evitarlo ad ogni costo; se accadesse qualcosa di brutto sarebbe terribile; per sopravvivere bisogna assolutamente avere la certezza che le cose vadano bene.

 

Le manifestazioni più frequenti delle paure nei bambini

Le paure nei bambini possono essere divise in tre categorie: le paure innate, presenti dalla nascita; le paure legate alla crescita, che appaiono a diverse età; le paure apprese in seguito ad eventi traumatici o indotte dall’ambiente di vita.

La forma primaria di paura nei bambini è la perdita del contatto fisico con la mamma. A 8/9 mesi si ha paura dell’estraneo. A 12/18 mesi paura della separazione, che raggiunge il suo apice intorno al 2°/3° anno di vita. A 3/5 anni arriva la paura del temporale, del buio, dei mostri, delle streghe, di Babbo Natale e della Befana, elementi che affascinano ed al tempo stesso spaventano; paura dei pericoli fisici, di ferirsi, ammalarsi. In età prescolare la paura maggiore è quella del distacco dal genitore e dell’abbandono legata all’inizio della vita scolastica in comunità. Altra paura tipica di questa età è quella dei personaggi di fiabe e racconti come l’uomo nero o il lupo cattivo.

Durante la fanciullezza e cioè tra i 6/12 anni alcune paure degli anni precedenti possono essere padroneggiate perché ora il bambino ha maggiori competenze, ma proprio perché ora capisce di più, può cogliere altre minacce come quella dei ladri e dei rapitori, dei danni fisici, delle malattie, del sangue, delle iniezioni, della morte e dell’abbandono. Fanno la loro comparsa i timori legati al proprio stato sociale, come scolaro per esempio, e alle interazioni con gli altri: esami, litigi, sopraffazioni, nonché la paura di essere rifiutato dai compagni. Può diminuire la paura degli animali domestici ma può comparire quella degli insetti. La paura degli insetti così come quella degli animali esotici, è spesso associata alla paura dell’ignoto, di ciò che non si conosce e non si padroneggia. Un modo per superare questa paura consiste nel familiarizzare con gli insetti apprezzandone caratteristiche e qualità.

Molte delle paure legate a periodi precedenti possono ripresentarsi come regressioni a stadi precedenti dello sviluppo, ciò si spiega con la condizione di instabilità che contraddistingue tutta l’età evolutiva. Dopo un forte spavento, infatti, o di fronte a situazioni angoscianti che si protraggono nel tempo è normale che i bambini regrediscano temporaneamente a comportamenti tipici di uno stadio precedente del loro sviluppo e se ciò avviene è perché in quello stadio si sentivano più protetti e sicuri.

Gli adolescenti superano generalmente le paure degli anni precedenti grazie ad una diversa e più complessa visione del mondo. Ciò però non significa che non abbiano delle paure. Tipiche di questo periodo sono le vertigini, varie paure legate al corpo come quella di arrossire, di avere qualche anomalia fisica e vari timori legati alla sfera sociale e sessuale come: brutte figure, critiche, insuccessi, esami, essere ignorati o rifiutati. Paure per il dolore, la morte, i danni fisici, le deformità e la bruttezza, sono presenti così come la paura di perdere il controllo delle proprie azioni e di parlare in pubblico.

Riprendendo gli stili educativi presentati prima, molte altre paure nei bambini sono dovute alle raccomandazioni insistenti dei genitori: “Non toccare le forbici”, “Attento ai cani grandi”, “Non arrampicarti sugli alberi”; esse derivano anche dalle continue lamentele circa lo stato di salute, che fanno temere al bambino la malattia del padre o della madre; oppure nascono dalla iperprotezione dei genitori e dalla conseguente perdita di fiducia in sè. I bambini, insomma, oltre a temere ogni cosa, a non rischiare mai, a non intraprendere un compito nuovo, si convincono di non essere in grado di fare, di azzardare, di tentare: le paure, a questo punto, si moltiplicano, vengono accuratamente nascoste o, magari, si manifesteranno più tardi attraverso sintomi disturbanti.

L’atteggiamento dei genitori, può influire positivamente o negativamente sulle paure nei bambini:
– è bene insegnare al bambino alcune conseguenze dannose dei suoi atti, è però altrettanto opportuno non intimorirlo oltre misura, alle sue paure naturali non vanno aggiunte anche le nostre preoccupazioni, nè le nostre angosce;
– le punizioni vanno somministrate con coerenza, affinché egli non tema le conseguenze di ogni suo atto;
– la fiducia in sè va costantemente valorizzata, cosicché il bambino si senta ” capace”;
– non si devono pretendere prestazioni inadeguate alle sue reali capacità.

Infine, come regola generale, le paure nei bambini vanno rispettate e non certo adoperate come “arma” per farlo crescere o ridicolizzarlo. Spronarlo al coraggio o, a volte, tentare una spiegazione razionale può avere un effetto nullo; le sue paure passeranno certamente ma la medicina adatta alla cura è rappresentata dal nostro rispetto verso di lui, dalla pazienza e dall’opportunità che gli daremo di superare attivamente le sue paure.

 

Che cos’è la paura per un bambino?

Quella che per noi è una paura ridicola o incomprensibile può essere per un bambino fonte di grande turbamento. La maggior parte delle paure nei bambini sono irrazionali ma pur sempre legate a oggetti, persone e situazioni specifiche anche se non sempre riconoscibili.
Con il passare del tempo le paure tendono a scomparire da sole, l’aumento della consapevolezza di sé e del mondo da parte del bambino è sufficiente per superare la paura in maniera autonoma.
I problemi maggiori nascono quando la semplice paura diventa fobia.

La FOBIA è un tipo particolare di paura, sproporzionata rispetto alla situazione:
– non può essere contenuta con argomenti razionali;
– va al di là del controllo volontario;
– porta il soggetto all’evitamento della situazione temuta;
– è molto più duratura della paura;
– non va incontro ad adattamento ed abituazione;
– non è specifica di un’età o di uno stadio di sviluppo particolare;
– ostacola la vita quotidiana del bambino e gli impedisce una normale vita domestica e sociale.

L’evoluzione di una paura in fobia è fortemente segnato dalle risposte di genitori ed educatori (scuola, società sportiva etc.) e da eventuali eventi traumatici esterni.

 

Cosa fare per gestire le paure nei bambini?

Facciamo esprimere i bambini, chiediamo loro di raccontarci le emozioni e le fantasie che li inquietano, con dolcezza e senza forzarli. Riuscire a parlarne e sentirsi accolti riduce la tensione e aiuta ad affrontare il problema. Accogliamo le paure senza offrire soluzioni, offriamo tenerezza per dargli la fiducia necessaria per affrontare da solo le sue paure. Mostriamo soprattutto empatia, vicinanza emotiva: è tutto ciò di cui ha veramente bisogno il bambino. Dobbiamo soprattutto ascoltare con comprensione emotiva, così aiuteremo il bambino a scoprire qual è il suo modo unico e speciale di affrontare le paure.

Evitare di costringere i bambini a tenere le paure per se stessi. Spesso i bambini imparano a reprimere le proprie paure, imparano a viverle in silenzio per compiacere le figure di riferimento, per non preoccuparli o inquietarli.
– Mostriamo vicinanza e affetto nel momento in cui si manifestano le paure nei bambini. Una presenza calma e affettuosa ha un immediato effetto tranquillizzante.
– Rispettare sempre le emozioni dei bambini. Tutte le paure nei bambini sono legittime e piene di valore, è fondamentale che il mondo adulto attribuisca loro credito.
Questa è la condizione principale perché un bambino si fidi di noi, rispettarle sempre anche se la sua emozione ci pare assurda e irrazionale.
– Educhiamo i bambini a comportamenti positivi: meglio proporre sempre degli eroi positivi attraverso favole e fiabe che sconfiggono i cattivi grazie alle loro doti di bontà e gentilezza.
– Evitiamo i confronti: ogni bambino ha i suoi tempi, che devono essere rispettati.
– Non diciamo mai: “Affronta la paura, devi essere forte”: spingere un bambino a viso aperto contro una paura è sbagliato, perché può trasformare la paura in terrore e ingigantire il problema. Non costringiamo il bambino ad affrontare le sue paure in modo troppo diretto e brutale. Per superare una paura spesso ci vuole tempo e pazienza. Bisogna rispettare i tempi e le modalità del bambino. Ricordiamoci che potrà superare i suoi timori solo se sceglie personalmente di farlo: il quando e il come affrontare le paure lo sceglierà lui stesso. E’ fondamentale che non ci sia mai nessuna pressione ansiogena da parte nostra per il superamento delle paure, altrimenti si sentirà costretto più dal nostro desiderio che dal suo, e la costrizione genera molta paura.
– Comunicare ai propri bambini la consapevolezza che la paura fa parte della vita. E’ fondamentale trasmettere ai propri bambini la certezza che la paura fa parte della vita di tutti i giorni, “che anche noi quando eravamo bambini abbiamo provato paura e continuiamo ad averla anche da adulti”, ma che può essere affrontata e talvolta anche superata con serenità.
– Non facciamo sentire i bambini dei fifoni: proveranno un forte senso di colpa e si sentiranno inadeguati. Quindi l’umorismo va evitato.
– Evitare di rassicurarlo in maniera eccessiva, potreste convincerlo che c’è veramente qualcosa da temere. L’iperprotezione non favorisce la formazione del coraggio.
– Evitare di parlare spesso davanti a lui di paure o fobie potreste aggravarle. I bambini vivono la realtà attraverso i significati del mondo reale che noi adulti gli trasmettiamo.
I bambini leggono la realtà con i nostri occhi, con gli occhiali che i genitori, i nonni e gli adulti di riferimento gli forniscono. Quindi, alcune paure dei bambini sono apprese per imitazione: molte madri, infatti, pur senza rendersene conto, trasmettono le loro ansie e proiettano i propri allarmi ai figli. Essi, così, incominceranno a temere i temporali, l’aereo, il dentista, i ladri, le ferite, gli aghi allo stesso modo della madre e a imitazione del suo comportamento.
– Se è di un oggetto, di un animale o di uno spazio che il bambino ha paura, avvicinatelo insieme lentamente, in tappe e in tempi successivi. Ogni tappa deve essere abbastanza facile da poter essere superata, tale tappa deve suscitare solo una leggera ansietà.

La nocività delle paure nei bambini non è direttamente proporzionale all’intensità della situazione di pericolo temuta, quanto piuttosto all’intensità del vissuto di solitudine con cui queste paure nei bambini vengono affrontate. I bambini, quando sono assaliti dalla paura sono preoccupati più che delle minacce provenienti dall’oggetto fonte di paura, dalla possibile lontananza dei genitori. Spesso, infatti, si domandano: dov’è mia madre? cosa sta facendo mio padre? posso correre da loro? possono venirmi in aiuto? I bambini possono esprimere la paura attraverso varie modalità comportamentali: con scoppi d’ira, con l’irrigidimento del corpo, con l’aggrapparsi in modo esasperato alla figura di riferimento, con l’evitamento della situazione minacciosa.

Da non sottovalutare il passaggio dalla veglia al sonno è un momento molto delicato per il bambino perché per lui addormentarsi significa perdere il senso dell’orientamento e quindi entrare in confusione con se stesso, significa distaccarsi dalla rassicurante realtà esterna e soprattutto separarsi dai genitori e affrontare tutto solo il mistero della notte. E’ quindi di fondamentale importanza la vicinanza fisica, il sostegno della mamma, del genitore prima che il bambino si addormenti.

Raccontare ai bambini delle fiabe prima che si addormentino li aiuta molto a vincere le loro paure del buio e della notte, le loro ansie di separarsi dai genitori. Il bambino nelle fiabe trova svariati esempi di come le paure possono essere superate e di come le difficoltà, i pericoli possono essere risolti. D’altra parte le fiabe insegnano al bambino che i problemi e le paure fanno parte di qualsiasi cammino di crescita. Quando un padre o una madre raccontano una fiaba al proprio figlio, il bambino si sente capito nei suoi desideri più intimi e nelle sue peggiori paure, comprende che diventare grande significa dover affrontare compiti difficili ma anche vivere avventure meravigliose.

Le fiabe, le filastrocche, le favole, i disegni, affidati alla sensibilità, creatività, all’intelligenza emotiva del genitore o dell’insegnante possono rappresentare degli ottimi strumenti per aiutare il bambino a proiettare, rappresentare, elaborare tutte le sue paure, determinando delle vere e proprie iniezioni di fiducia.

L’interazione tra madre e bambino nella depressione postnatale: l’importanza dell’Infant Direct Speech

Ogni anno nascono nel mondo 133 milioni di bambini (United Nations, 2007). Tra il 15 e il 20% delle neo-mamme sono colpite da depressione postnatale clinica. La depressione postnatale comporta conseguenze sia per la mamma sia per l’intero nucleo famigliare (Screening for Depression in the Postpartum using the Beck Depression Inventory-II, 2010). Tale disturbo può avere conseguenze a lungo termine sulla vita cognitiva, emozionale e relazionale del figlio. 

Alice Santoni, OPEN SCHOOL STUDI COGNITIVI BOLZANO

Abstract

Numerose ricerche dimostrano come le madri con depressione postnatale siano meno responsive agli stimoli dei propri figli, oppure eccessivamente intrusive se non addirittura aggressive (Tiffany Field, 1998) rispetto alle madri che non sviluppano questo disturbo. Tali comportamenti possono portare allo sviluppo di difficoltà nei figli, come problematiche relative alla nutrizione e al sonno, oltre allo sviluppo di una scarsa comunicazione, sia vocale sia visiva, con le loro madri.

E’ fondamentale comprendere come la depressione postnatale influisca sull’interazione madre-bambino. In particolare il focus d’interesse di questo articolo è l’utilizzo del linguaggio nella depressione postnatale. L’apprendimento linguistico nel primo anno di vita del bambino è una delle mete più importanti da raggiungere ed un “ruolo facilitatore” è svolto dai primi scambi comunicativi con la madre. Le madri depresse utilizzano in maniera differente l’Infant direct speech (IDS). La salute mentale della madre va infatti a compromettere il modo in cui essa comunica con il proprio figlio e conseguentemente tale utilizzo atipico può influenzare lo sviluppo globale del bambino.

 

L’interazione madre bambino in situazioni tipiche e atipiche

I differenti modi d’interagire fra mamma e bambino nei primi mesi di vita consentono di stabilire una prossimità psicologica che funge da rampa di lancio per il futuro sviluppo del piccolo. La figura di accudimento, in questo caso ci concentriamo sulla madre (ma non per questo il ruolo del padre dev’essere valutato come secondario), diviene indispensabile per garantire un equilibrato sviluppo affettivo, cognitivo e relazionale. Lo sviluppo del piccolo dipenderà dunque dal legame di attaccamento che sarà venuto a crearsi. Per attaccamento intendiamo quella particolare forma di comportamento il cui risultato sia quello di ottenere o mantenere la vicinanza, comunicare con figure preferenziali che possano fornire sostegno (John Bowlby, 1989).

Nel caso sia presente all’interno della diade madre-bambino una condizione patologica, si tratti di una condizione riguardante la madre o il bambino, questa andrà ad interferire sullo sviluppo della relazione. L’interazione madre-bambino è necessaria per garantire la sopravvivenza nei mammiferi. L’importanza di tale legame diadico è osservabile, oltre che nei primati umani anche nel mondo animale. La deprivazione materna può interferire, infatti, con lo sviluppo del piccolo e può fungere da fattore di rischio, poiché da adulto potrebbe essere incline a sviluppare una forma di psicopatologia. In uno studio (Li-Xin Zhang, 2002) è stato mostrato come la deprivazione materna nei cuccioli di ratto possa andare ad alterarne lo sviluppo cerebrale tipico.

 

L’interazione madre bambini in caso di depressione postnatale

Il DSM-5 classifica la depressione postnatale come un disturbo depressivo maggiore atipico caratterizzato da un umore depresso persistente associato a 5 o più dei seguenti sintomi: diminuzione d’interesse e piacere per le attività svolte abitualmente, appetito, funzioni psicomotorie, livello di energia, concentrazione ed autostima. Possono inoltre essere presenti pensieri di morte, ideazione suicidaria, o ricorrenti preoccupazioni sul fatto che non si sia in grado di prendersi correttamente cura del figlio. La depressione postnatale può insorgere già a partire dalla quarta settimana dopo il parto, ma solitamente, nella maggior parte dei casi, è diagnosticata tra la sesta e la dodicesima settimana (B. Posmontier, 208).

In una meta-analisi di Beck (1998) è stato dimostrato come la depressione postnatale produca effetti negativi sullo sviluppo emotivo e cognitivo del piccolo. Comparando, infatti, figli di mamme depresse con quelli di mamme non depresse è stato possibile osservare come i primi risultassero maggiormente inclini a mettere in atto comportamenti di protesta, soffrivano maggiormente di sonnolenza e risultavano evitanti nelle relazioni di gioco con la madre (Moehler, Brunner, Wiebel, Reck & Resch, 2006; Murray & Cooper, 1996, Stanley, Murray & Stein, 2004). Uno studio (Hay DF et al, 2001) attraverso l’utilizzo di ricerche longitudinali, ha documentato come i figli di mamme con depressione postnatale risentano della condizione materna nel corso del loro sviluppo. Lo studio (Hay DF et al, 2001) ha dimostrato come un significativo numero di bambini soffrisse di disturbi da deficit dell’attenzione e difficoltà circa il ragionamento matematico dopo che le loro abilità furono rivalutate all’età di 11 anni.

 

Che cos’è l’Infant Direct Speech (IDS)?

L’Infant Direct Speech è quella peculiare forma di linguaggio utilizzata dalla madre quando si rivolge al piccolo ed è caratterizzata da particolari variazioni sintattiche e morfologiche. Valutare come questa forma di linguaggio si modifichi in caso di depressione postnatale è importante poiché l’Infant Direct Speech cattura l’interesse e aumenta l’attenzione del piccolo risultando così fondamentale nelle prime interazioni comunicative. Questa forma di linguaggio (conosciuta anche come “motherese” o “baby talk”) è caratterizzata dall’utilizzo di un ristretto vocabolario (sia semantico sia sintattico), da numerose ripetizioni (Drache et al., 1969; Broen, 1972; Snow, 1972, Philips, 1973; Pauposek et al. 1985) e semplificazioni.

Le parole importanti vengono inserite in posizioni salienti anche a discapito della correttezza grammaticale (Fernald & Mazie, 1991; Aslin, 1993) e vengono iperarticolate (Bernesteein Ratner, 1994; Andruski and Kuhl, 1996). I dialoghi hanno spesso una forte connotazione onomatopeica. L’Infant Direct Speech è prodotto con un tono più alto (la frequenza fondamentale F0 è maggiore), la variabilità è elevata rispetto al volume e con un piccolo insieme di contorni melodici distintivi che permettono di far giungere in maniera chiara e diretta lo stato emotivo e l’intenzione comunicativa del parlante (Jaconson et al. 1983; Ferald and Simon, 2984; Papousek et al., Frnald et al., 1989). Uno studio ha mostrato come i neonati preferiscano ascoltare l’Infant Direct Speech anche quando questo viene pronunciato in una lingua a loro sconosciuta (Werker et al. 1994) e come creino associazioni positive nei confronti di coloro che si rivolgono loro utilizzando l’Infant Direct Speech.

 

Infant Direct Speech e depressione postnatale

L’apprendimento del vocabolario del bambino dipende da innumerevoli fattori come ad esempio l’ambiente, lo stato socio-economico e la relazione con i genitori (Pan et al, 2005). La depressione postnatale materna va a modificare la qualità e la quantità della relazione con il figlio. Questo provoca delle variazioni anche nell’utilizzo dell’Infant Direct Speech. Le madri con depressione postnatale utilizzano l’Infant Direct Speech esagerandone meno la prosodia, andando così ad utilizzare una frequenza fondamentale, una durata ed un’ intensità diverse rispetto a quella impiegata dalle madri non depresse. Le madri con depressione postnatale clinica utilizzano un Infant Direct Speech che risulta avere effetti più deboli sull’apprendimento del neonato. Ciò è stato confermato da un esperimento (Kaplan, Bachorowski, e Zarlengo-Strouse, 1999) che ha indagato le proprietà dell’Infant Direct Speech prodotto da madri depresse e non depresse.

 

Conseguenze

Nello studio di Nicole L. Letourneau e colleghi (2013) sono state analizzate le conseguenze della depressione postnatale, valutando lo sviluppo cognitivo ed emotivo del piccolo. Lo studio prevedeva che al compimento del quarto anno d’età venissero valutate le abilità del bambino nelle seguenti aree: vocabolario appreso, disattenzione e aggressione fisica. Le stesse abilità venivano poi rivalutate un anno dopo (al compimento del quinto anno d’età). I risultati di tale studio longitudinale mostrano come tutti i risultati siano significativi (p > 0.5). I bambini raggiungono un punteggio di 1.94 per la disattenzione (assessment con NLSCY), 1.94 per il vocabolario appreso (valutato attraverso il Peaboy Picture Test, Revised) ed infine 3.30 per quanto riguarda la valutazione delle aggressioni fisiche (assessment con NLSCY).

Un altro studio interessante è quello di Lynne Murray e colleghi (2010). Tale studio si concentra sulle conseguenze dell’utilizzo atipico dell’Infant Direct Speech da parte di mamme depresse sugli adolescenti anziché sui bambini. Lynne Murray (Murray et al 2010) ha indagato il ruolo dell’Infant direct speech a lungo termine cercando di comprendere se il suo utilizzo portasse allo sviluppo di problematiche affettive nei figli adolescenti.

L’esposizione durante l’infanzia della propria lingua madre produce specifiche reti neurali necessarie a codificarne gli schemi (Kuhl, 2004; Saffran, 2003); sarebbe così possibile che l’esposizione a lungo termine durante l’infanzia alle caratteristiche negative dell’Infant Direct Speech atipico porterebbe alla creazione di schemi negativi. Questo è rilevante in quanto in linea con gli esperimenti effettuati sull’apprendimento della comunicazione degli uccelli canori (Prather, Peters, Nowicki, & Mooney, 2008). La costante esposizione alle caratteristiche atipiche dell’Infant Direct Speech prodotto dalla madre durante i primi mesi di vita, porterebbe dunque alla stimolazione di aree cerebrali strettamente connesse agli effetti negativi legati ad esperienze personali (Gallese, 2005). Questo meccanismo contribuirebbe dunque ad aumentare il rischio che si sviluppi nell’adolescente un disturbo affettivo, in particolare un disturbo di tipo depressivo.

 

Conclusioni

Essendo a conoscenza del fatto che le mamme con depressione postnatale utilizzano un Infant Direct Speech differente e che ciò può influire sulla relazione madre-figlio modificandone lo sviluppo è utile riconoscere i maggiori predittori di questo malessere per intervenire al più presto. Va valutata la presenza di una passata storia di psicopatologia, possibili disturbi fisiologici durante la gravidanza, la relazione coniugale e la presenza di eventi di vita stressanti (O’hara, Swain, 1996). Ciò è di fondamentale importanza, poiché dei corretti interventi possono ridurre i possibili rischi circa l’insuccesso della relazione diadica. Nel caso in cui s’individui tale affezione si possono proporre due interventi; un intervento farmacologico, oppure un trattamento psicoterapeutico, consigliato in quanto sono molteplici i dati empirici che suggeriscono l’efficacia di tale terapia.

L’esperimento MKULTRA: ricerca della CIA sulle modifiche comportamentali – I grandi esperimenti di psicologia

#9: MKULTRA: il programma di ricerca della CIA sulle modifiche comportamentali. Vi presentiamo una serie di articoli relativi ai più grandi esperimenti in ambito sociologico e psicologico. Per fare ciò abbiamo cercato di risalire alle fonti originarie, ai primi articoli divulgati dagli autori. In questo modo sarà più facile vivere le loro scoperte a partire dalle loro stesse ipotesi e respirare un’aria in cui, liberi (purtroppo) da vincoli etici, tutto era possibile in nome della scienza.

 

Report della Commissione selezionata per lo studio di operazioni governative e attività dell’Intelligence sugli esperimenti MKULTRA

Mercoledì 3 agosto 1977 – Senato degli Stati Uniti d’America, Commissione ristretta dell’Intelligence, Sottocommissione per la Salute e la Ricerca Scientifica della Commissione per la Ricerca sull’Uomo. Washington, DC.

Senatore Inouye: La Commissione ristretta dell’Intelligence del Senato si riunisce oggi insieme alla Sottocommissione per la Salute e la Ricerca Scientifica presieduta dal Senatore Edward Kennedy del Massachusetts e dal Senatore Richard Schweiker della Pennsylvania, il Senatore Hathaway e il Senatore Chafee sono membri di entrambe le commissioni. Stiamo per ascoltare la testimonianza del Direttore della Central Intelligence, l’Ammiraglio Stansfield Turner, insieme ad altre dichiarazioni in merito alla nuova documentazione sottoposta alla commissione nella scorsa settimana, relativa a test condotti dalla CIA con l’uso di sostanze psicoattive. Deve essere chiaro che ci riferiamo a eventi accaduti dai 12 ai 25 anni fa. Occorre sottolineare che i programmi che hanno causato maggiori preoccupazioni sono stati sospesi e stiamo revisionando gli eventi passati accaduti durante quegli anni, allo scopo di comprendere quali linee guida o decreti siano necessari per prevenire tali abusi nel futuro. È inoltre necessario conoscere cosa è in atto da parte della CIA nell’ambito della ricerca sul comportamento umano, per essere certi che non si stiano perpetuando errori anche oggi. (…) Vorrei dare ora il benvenuto a uno dei più illustri senatori del Massachusetts, presidente della Sottocommissione per la salute, il Senatore Kennedy.

Senatore Kennedy: La ringrazio Presidente. Siamo onorati di lavorare al vostro fianco in questa inchiesta d’interesse pubblico. Circa due anni fa, la Sottocommissione per la Salute del Senato è venuta a conoscenza di un’agghiacciante testimonianza in merito all’attività di sperimentazione sull’uomo condotta dalla CIA. Il vice-direttore della CIA confessò che più di 80 università e istituzioni erano coinvolte in un “vasto programma di analisi e sperimentazione” che includeva la somministrazione nascosta di droghe a cittadini ignari di “ogni livello sociale, alto o basso, nativi americani o stranieri”. Alcuni di questi test comprendevano la somministrazione di LSD a “partecipanti involontari in situazioni sociali”. Queste attività portarono alla morte di almeno una persona, il dr. Olsen. L’Agenzia stessa ha ammesso che tali test non avevano una base scientifica solida. Gli agenti incaricati del monitoraggio erano privi di qualsiasi preparazione specifica. I soggetti testati erano raramente accessibili prima di un’ora dalla somministrazione. In diversi casi, i soggetti si ammalavano per ore o giorni, rendendo impossibile il follow up. C’erano altre sperimentazioni ugualmente oltraggiose. Ad esempio, soggetti dipendenti da eroina venivano coinvolti nell’esperimento sull’LSD garantendo loro eroina come ricompensa. L’elemento più grave resta il fatto che era sconosciuta a tutti la portata della sperimentazione sul comportamento umano. La documentazione relativa a tutte queste attività venne fatta distruggere dall’allora direttore della CIA Richard Helms, nel gennaio del 1973. Nonostante le continue pressioni da parte della Commissione per la Salute e della Commissione per l’Intelligence, non sono state rinvenute altre informazioni. E non è stato possibile rintracciare nessuno – non un solo uomo – in grado di fornire maggiori dettagli: non il direttore della CIA, che ordinò di distruggere la documentazione, non un responsabile del programma, non un collaboratore.

Ted Kennedy, fratello del più famoso JFK, continuerà il suo discorso denunciando un tradimento, da parte del governo, della fiducia dei cittadini americani. Queste sono le prime battute di uno storico incontro riguardo al progetto americano MKULTRA, condotto con l’obiettivo di ricostruire il più possibile gli eventi connessi allo studio. Il verbale di questo incontro, reso pubblico dopo alcuni anni, resta l’unico documento ufficiale relativo al progetto.

 

MKULTRA: Cosa testimoniano i documenti ritrovati

Di fronte alle Commissioni del Senato è presente l’Ammiraglio Turner, dirigente della CIA nel 1977, che ha tentato di ricostruire la storia dell’MKULTRA in seguito al ritrovamento di sette scatoloni contenenti materiale inerente al progetto, sottratti alla distruzione perché inavvertitamente archiviati in un’altra sezione, presso la Budget and Fiscal Section della CIA. Si tratta di documenti relativi ai movimenti economici implicati nel progetto, pertanto poco utili a comprendere le ipotesi sottostanti alla ricerca. Indicano tuttavia la presenza di 149 differenti progetti, sottostanti al programma MKULTRA, etichetta ombrello per ogni esperimento della CIA relativo al comportamento umano e alle possibilità di modificarlo con o senza l’uso di droghe. La maggior parte delle ricerche afferiva al tema delle modifiche comportamentali in seguito all’assunzione di alcol o droghe, utilizzando in alcuni casi soggetti ignari, come il dr. Frank Olsen, che in seguito all’assunzione di LSD sviluppò sintomi di schizofrenia paranoide, per poi arrivare a togliersi la vita. Ma il progetto comprendeva anche sperimentazioni sull’ipnosi, sulla sintesi di nuovi prodotti chimici o sostanze psicoattive, sull’uso della magia nelle operazioni sotto copertura, sul comportamento umano, i ritmi del sonno o i cambiamenti in psicoterapia. Non solo: ricerche bibliografiche sulle modifiche comportamentali, studi sulla motivazione, sulla macchina della verità, progetti relativi alle Forze Speciali dell’esercito e altro ancora.

L’MKULTRA ha avuto una durata di 11 anni, dal 1953 al 1964, finanziato non solo dal governo americano, ma anche da enti privati o case farmaceutiche. Tra le istituzioni partecipanti emergono università, centri di ricerca, ospedali e istituti di pena. Nel tentare di ricostruire la storia del progetto, l’Ammiraglio Turner afferma che non vi sono prove che l’MKULTRA fosse stato approvato da altri enti governativi al di fuori della CIA, come la Casa Bianca, e che l’origine del progetto sembra relativa alla preoccupazione di un possibile sfruttamento da altri poteri che avrebbero potuto usare droghe contro il nostro personale. Ricordiamo che siamo negli anni della Guerra Fredda, pertanto la minaccia di possibili nuovi attacchi è il clima in cui si vive la quotidianità e si è purtroppo da poco visto di cosa è capace l’uomo.

Senatore Huddleston: C’è qualche prova o qualche indizio che la CIA stesse cercando di sviluppare droghe o farmaci per altri scopi, come per esempio debilitare o uccidere altre persone? Si trattava di una parte della sperimentazione?

Ammiraglio Turner: Sì, penso di sì. Non emerge dai documenti consultati l’intenzione di uccidere, ma penso che la natura del progetto potesse essere mutata, da difensiva a offensiva, e c’era senza dubbio la volontà di sviluppare farmaci in tale direzione.

Per approfondire ulteriori dettagli in merito alla sperimentazione, i membri della Commissione rintracciano alcuni ex dipendenti della CIA coinvolti nel processo. Tra questi c’è il dr. Gittinger, all’epoca psicologo incaricato di raccogliere il più possibile informazioni da altre culture, informazioni di tipo antropologico, e sviluppare metodi di valutazione e comprensione dell’uomo. Le sue ricerche negli anni dell’MKULTRA si concentrarono sui processi di brainwashing (lavaggio del cervello) utilizzati in Cina, dai quali tentò di ricavare tecniche di interrogatorio il più accurate possibile. Fu così che venne coinvolto nel progetto: sapeva che l’MKULTRA comprendeva studi con l’LSD, sapeva che i partecipanti alla ricerca erano totalmente ignari. Nella sua dichiarazione, il dr. Gittinger afferma di aver eseguito parte dei suoi studi con prostitute coinvolte nel progetto; ai tempi della sperimentazione le conoscenze sulle sostanze psicoattive erano molto scarse e avere un campione di soggetti ai quali venivano somministrate droghe costituiva un’importante occasione di conoscenza.

Negli anni in cui l’MKULTRA fu attivo, la CIA effettuò studi in diversi ambiti: radiazioni, elettroshock, diverse aree della psicologia, psichiatria, sociologia e antropologia, grafologia, effetti di sostanze, strumentazioni paramilitari, studi di cui verosimilmente non si conosceranno mai i risultati. Scopo del progetto era creare strumenti per modificare il comportamento umano e diffonderli nei contesti di vita quotidiana. Uno di questi studi, citato dal Senatore Kennedy a inizio dibattito, fu promosso dal National Institute of Mental Health, su un campione di detenuti volontari tossicodipendenti, ricompensati per la loro partecipazione con dosi della sostanza da cui erano dipendenti.

I documenti ritrovati sono solo la descrizione di progetti pilota che suggeriscono il bisogno di ulteriori fondi e investimenti. Non sappiamo se qualcuno avesse maggiori informazioni sugli studi o se ci siano altre fonti che devono essere ancora scoperte. Possiamo invece immaginare che le persone coinvolte nel progetto fossero ognuna a conoscenza di una piccola parte dello studio, probabilmente nessuno immaginava un programma di questa portata. E al momento delle indagini, forse nessuno si è sentito in grado di denunciare i fatti o dichiarare cosa avesse fatto.

I fattori di rischio e di mantenimento dei disturbi alimentari

Le cause dei disturbi alimentari sono riconducibili a fattori predisponenti o di vulnerabilità, che predispongono un “terreno fertile” per la nascita del disordine e a fattori scatenanti, i quali promuovono un cambiamento che altrimenti non sarebbe avvenuto creando inoltre la condizione per la comparsa di fattori perpetranti, i quali originano un circolo vizioso che sviluppa e mantiene la malattia (Cuzzolaro, 2004; Ostuzzi & Luxardi, 2003). 

Di seguito un breve approfondimento dei tre.

I fattori predisponenti

I fattori predisponenti o di vulnerabilità hanno caratteristiche individuali, famigliari e socio-culturali. I primi sono: il genere, il 90% dei soggetti con disturbi alimentari è di sesso femminile (APA 2000b), e l’età, nella maggior parte dei casi, infatti, i disturbi alimentari si sviluppano nell’adolescenza (ADA, 2001).

Altri fattori predisponenti con caratteristiche individuali sembrano essere la presenza di tratti ossessivi di personalità (Thompson, 2000), il perfezionismo patologico (Fairburn et al., 1999) e una bassa autostima (Fairburn et al., 1999), la quale sembra essere rilevante per la nascita dei disturbi alimentari. Nella società occidentale odierna, infatti, l’autostima delle persone risulta in gran parte dipendente da quanto si è percepiti attraenti per il sesso opposto, e in questo il peso corporeo sembra avere un ruolo sempre più rilevante (Calogero et al., 2010).

Per quanto riguarda i fattori predisponenti con caratteristiche famigliari, pur non esistendo una famiglia “tipica” che favorisca l’insorgenza dei disturbi alimentari, diverse ricerche hanno trovato: l’invadenza (Minuchin et al., 1978), l’ostilità, la negazione dei bisogni emotivi (Minuchin et al., 1978), l’eccessivo controllo (Haworth-Hoeppner, 2000) e l’esagerata preoccupazione genitoriale (Walters & Kendler, 1995) come elementi che potrebbero favorire l’insorgenza dei disturbi alimentari.

Inoltre, ricerche (Ostuzzi & Luxardi, 2003; Striegel-Moore & Bulik, 2007) hanno dimostrato l’influenza famigliare a livello biologico/ereditario nei disturbi alimentari. Infatti il rischio di sviluppare Anoressia Nervosa o Bulimia Nervosa è maggiore nei parenti di primo grado di un soggetto che ne soffre, rispetto alla popolazione generale (APA, 2000b; Striegel-Moore & Bulik, 2007). In questi casi è probabile anche l’influenza famigliare ambientale: vivere con un parente che mette in atto comportamenti alimentari disturbati favorisce atteggiamenti analoghi nei figli o fratelli (Tylka, 2004).

Tra i fattori predisponenti con caratteristiche socio-culturali, l’etnia. Secondo uno studio (Abrams & Stormer, 2002), infatti, i disturbi alimentari risultano più diffusi tra i nativi americani e nelle popolazioni caucasiche e latine, mentre nelle culture asiatiche e afro-americane, in cui non vi è pressione sociale alla magrezza poiché è accettato e diffuso un ideale corporeo più formoso, l’incidenza di Anoressia Nervosa e Bulimia Nervosa risultano decisamente inferiori (APA, 2000a).

Secondo gli studiosi (Dakanalis, Caslini, et al., 2012), un ruolo importante nei disturbi alimentari è giocato dal contesto culturale occidentale, ed in particolare dai mass media. Essi, infatti, sono considerati uno dei più forti trasmettitori di pressione sociale alla magrezza, la quale viene considerata sinonimo di bellezza e successo (Dakanalis, Caslini et al., 2012).

Poiché tutte le ragazze sono esposte ai mezzi di comunicazione di massa ma solo una piccola parte di loro sviluppa disturbi alimentari (Tiggemann, 2002), è probabile l’esistenza di meccanismi più sottili che rendono alcuni soggetti maggiormente vulnerabili alla pressione mass mediatica.
Tale processo potrebbe essere riconducibile all’”interiorizzazione” degli standard di bellezza trasmessi dai mezzi di comunicazione di massa, i quali vengono utilizzati per verificare il proprio livello di adeguatezza fisica e sociale e quindi influenzare la rappresentazione mentale del corpo (immagine corporea) del soggetto e i suoi comportamenti alimentari (Dakanalis, Caslini, et al., 2012). Potrebbe avvenire, quindi, un’introiezione di specifici (dis)valori mediatici al punto che questi diventano dei principi guida della propria esistenza.

Infine, il rapporto con i pari sembra influenzare lo sviluppo dei disturbi alimentari, poiché spesso i giovani imparano dai coetanei l’importanza dell’essere magri, dell’apparire e i comportamenti da mettere in atto per raggiungere tali scopi (per esempio, diete e condotte di eliminazione). Infatti, come sostiene Sartori (2011), “il peer group riflette quasi esclusivamente una cultura giovanile che è a sua volta una cultura audiovisiva”.

 

I fattori scatenanti

Dopo avere approfondito i principali fattori predisponenti ai disturbi alimentari, di seguito alcuni dei molteplici eventi che possono scatenare la malattia in presenza di una predisposizione di base.

L’intraprendere una dieta sembra essere un fattore scatenante forte (Ostuzzi & Luxardi, 2003).
Anche l’affrontare i cambiamenti fisici legati alla pubertà, in particolare dalla ragazza, poiché i mutamenti femminili sono molti e più complessi nella loro elaborazione mentale rispetto a quelli maschili, come l’aumento ponderale, le trasformazioni morfologiche ed inoltre la comparsa del menarca (Fairburn et al., 1999). La ragazza quindi può vivere l’adolescenza come minacciosa, sentendo di perdere il controllo su di sé, e a questo si aggiunge il cambiamento che essa affronta nel modo in cui viene guardata.

Inoltre, vi possono essere eventi di vita stressante, tra i quali: il distacco dalla famiglia o la perdita della sua integrità, la rottura di un rapporto amoroso o amicale ed esperienze di lutto (Ostuzzi & Luxardi, 2003). Non raramente i soggetti con disturbi alimentari hanno storie di abusi e traumi (ADA, 2001).

A seguito di una vulnerabilità di fondo e a questi elementi, la reazione potrebbe essere quella di concentrare la propria attenzione sul peso e sul cibo, per tentare di recuperare il controllo e darsi un valore (Cuzzolaro, 2004).

 

I fattori di mantenimento

Come può scoprire la persona nel tempo, emozioni negative quali tristezza, ostilità, ansia/paura e soprattutto vergogna possono essere gestite (in modo disfunzionale) attraverso l’alimentazione. Questo, quindi, tende a perpetrare tale comportamento (Ostuzzi & Luxardi, 2003). Come dimostra una ricerca (McManus & Waller, 1995) i soggetti con Bulimia Nervosa o Disturbo da Binge Eating imparano a tenere sotto controllo i propri disturbi emotivo/affettivi attraverso l’ingestione di grandi quantità di cibo. Inoltre tali emozioni negative hanno un’influenza anche sulla successiva messa in atto di condotte compensative (Faccio, 2001).

L’angoscia esistenziale di Munch nell’arte

Quella di Munch è una pittura che indaga più l’anima che la realtà o, per meglio dire, il pittore filtrava la realtà attraverso il suo stato d’animo. Al centro dell’interesse dell’artista norvegese c’è l’uomo con il suo dramma esistenziale, il suo essere solo di fronte a tutto ciò che lo circonda, i suoi conflitti psichici e le sue paure. Edvard Munch ha saputo rappresentare, a mio avviso meglio di ogni altro in pittura, l’angoscia esistenziale.

 

Introduzione

Che esista una relazione o che si tratti di mere coincidenze, è fuor di dubbio che alcuni tra i più grandi artisti di tutti i tempi furono affetti da patologie mentali. Questo dato di fatto fa sorgere spontanea una domanda, ovvero se esista un legame di interdipendenza tra arte e malattia mentale che ci permetta di poter affermare che la sofferenza psicologica sia il punto di partenza per la libera espressione artistica di un individuo. Artisti famosi di ogni tempo hanno vissuto l’esperienza dolorosa della malattia mentale, che ha condizionato non solo la loro vita privata, ma anche la loro produzione artistica.

Nella secolare storia dell’arte, uno dei grandi sofferenti fu il pittore norvegese Edvard Munch (1863-1944), tristemente afflitto da una vita segnata dal dolore sin dall’infanzia, caratterizzata da tragici avvenimenti familiari, quali la morte della madre e della sorella.
Quella di Munch è una pittura che indaga più l’anima che la realtà o, per meglio dire, il pittore filtrava la realtà attraverso il suo stato d’animo. Al centro dell’interesse dell’artista norvegese c’è l’uomo con il suo dramma esistenziale, il suo essere solo di fronte a tutto ciò che lo circonda, i suoi conflitti psichici e le sue paure. Munch ha saputo rappresentare, a mio avviso meglio di ogni altro in pittura, l’angoscia esistenziale.

 

L’angoscia esistenziale: cos’è e come si esprime nell’arte

L’angoscia esistenziale è uno stato cosciente, caratterizzato da sentimenti di ansia e di apprensione; si tratta di una sofferenza psicologica simile all’ansia, ma più invasiva, dovuta ad una serie di stimoli emotivi troppo intensi per essere controllati e filtrati dalle difese psichiche.
La cosiddetta “angoscia a colori” che caratterizza i lavori di Edvard Munch fu molto probabilmente la conseguenza delle tragiche esperienze personali vissute dal pittore durante l’infanzia e l’adolescenza. Scrisse lo stesso Munch:

[blockquote style=”1″]la mia arte ha le sue radici nelle riflessioni sul perché non sono uguale agli altri, sul perché ci fu una maledizione sulla mia culla, sul perché sono stato gettato nel mondo senza saper scegliere. Ho dovuto seguire un sentiero lungo un precipizio, una voragine senza fondo.[/blockquote]

Munch, personalità complessa e contraddittoria, è il pittore dell’angoscia esistenziale, sentimento che lo accompagnerà per tutta la vita e neppure la fama gli concederà la felicità: finirà infatti in una casa di cura per malattie nervose a Copenhagen.
Fortemente dotato di introspezione psicologica, l’artista norvegese seppe tramutare la sofferenza e l’angoscia in pittura; la sua anima malata, turbata e solitaria venne messa a nudo nella sua pittura e le sue tele ci parlano del suo malessere interiore.

[blockquote style=”1″]La mia pittura è in realtà un esame di coscienza ed un tentativo di comprendere i miei rapporti con l’esistenza. E’ dunque una forma di egoismo, ma spero sempre di riuscire, grazie ad essa, ad aiutare gli altri a vedere chiaro.[/blockquote]

Il dolore, la malattia, la sofferenza e la solitudine che caratterizzarono l’intera vita di Munch appaiono costantemente come presenze inquietanti in tutti i suoi lavori: da “Sera sul viale Karl Johan” (1892), dove il pittore ritrae se stesso in disparte, mentre un’umanità spiritualmente vuota (sembra una processione di spettri) passeggia su un viale di Oslo; a “Bambina malata” (1885-1886) con cui il pittore ricorda l’agonia e la prematura scomparsa della sorella: con questo lavoro Munch ci fa sentire un’aria pesante e viziata, ci fa sentire l’odore della malattia. E ancora: nell’opera “Pubertà” (1894) viene ritratta la sorella Sophie, una giovane ragazza sovrastata da un’ombra molto scura che richiama alla presenza della morte che incombe sulla fanciulla; in “Disperazione” (1892), il pittore è assalito all’improvviso dall’angoscia che trasforma un bellissimo tramonto in un incubo allucinante: è l’urlo cha anticipa “L’Urlo” (1893), l’opera simbolo dell’inquieto pittore norvegese e manifesto dell’angoscia esistenziale di un’intera generazione di artisti. E’ l’opera che meglio rappresenta Munch, il quale, a proposito di questo suo lavoro, ebbe a dire:

[blockquote style=”1″]Solo un folle poteva dipingerlo.[/blockquote]

Edvard Munch Urlo - Angoscia esistenziale nell'arte

“L’Urlo” è uno dei quadri più celebri e drammatici di Munch, un’opera che ben si presta ad un’interpretazione psicologica: è il ritratto di un uomo fisicamente stravolto nelle sembianze dall’angoscia esistenziale e dal terrore che lo sconvolgono interiormente. Con questo lavoro Munch ci dà l’immagine della catastrofe interiore, che viene esplicitata mediante l’uso di colori violenti.

Ne “L’Urlo” Munch ha rappresentato un’esperienza reale, vissuta a Lijabroivein, una sera d’estate del 1890, poco dopo la morte del padre. Scrive il pittore nei suoi diari:

[blockquote style=”1″]Passeggiavo per un sentiero con due amici, il sole stava tramontando. Ho sentito salire la malinconia. Improvvisamente il cielo divenne color rosso sangue. Mi fermai, appoggiato contro lo steccato, stanco morto. E guardai le nuvole sospese sopra il fiordo blu-nero e la città come lingue di fuoco e sangue. I miei amici camminavano avanti. Io restai lì tremante di paura. E sentii un grande urlo senza fine attraversare la natura.[/blockquote]

Per circa tre anni Munch tentò di dipingere questa esperienza, ma senza riuscirvi. Poi riuscì a far gridare i colori, che hanno gridato per lui con il rosso di quel tramonto in cui era stato proiettato tutto il dolore e tutta l’angoscia esistenziale che la sua mente non aveva saputo contenere.

Counseling per psicologi e psicoterapie pragmatiche

Una buona notizia per gli psicologi. Il 15 marzo 2016 la Corte di Cassazione ha bocciato il ricorso di una donna di Ravenna, già condannata dal Tribunale e in Appello, per aver ‘esercitato abusivamente la professione di psicologo‘ auto-qualificandosi come ‘psicosomatista di impresa‘. Qualifica a suo modo geniale.

 

 

Dice la sentenza che i clienti della donna ‘a causa di disturbi di natura psicologica ottenevano sulla base di sedute fondate sul dialogo, una guida comportante l’indicazione dei rimedi volti alla prevenzione del disagio e/o guarigione del paziente’. Ovvero prestazioni professionali di psicologia clinica, il che è non legalmente possibile. La donna, già condannata in precedenza, aveva fatto ricorso sostenendo di offrire counseling psicologico a suo dire sottratto alla competenza dell’ordine e che quindi poteva essere liberamente esercitato.

Nella sentenza la Corte accetta la tesi che non solo la psicoterapia ma anche l’attività di counseling psicologico sia esclusiva dello psicologo iscritto all’Albo. Inoltre la Corte non solo proibisce, ma addirittura punisce chi da non-psicologo tenti di esercitare counseling, non riconoscendo alla ‘psicosomatista di impresa‘ di Ravenna la ‘non punibilità per particolare tenuità del fatto‘.

Al contrario la sentenza afferma che:

I giudici di merito hanno concordemente descritto modalità del fatto tali, per continuità, onerosità ed organizzazione, da creare l’oggettiva apparenza di una attività professionale posta in essere da persona con competenze specifiche e regolarmente abilitata, sicché appare preclusa ogni possibile valutazione delle condotte contestate nel senso di una loro particolare tenuità.

 

Un commento. La sentenza della Cassazione ribadisce in Italia, nel bene e nel male, il ruolo di controllo degli ordini e il valore legale delle lauree sul mercato del lavoro.

Questa sentenza che difende il lavoro degli psicologi è possibile in una legislazione -come quella italiana- che regolamenta il mercato del lavoro in base a nozioni derivate dal diritto romano, ovvero alla difesa dei ruoli lavorativi regolati dalla legge. In altri paesi, più legati alla common law inglese a sua volta derivata dal diritto consuetudinario germanico, lauree e ordini –quando ci sono- non danno diritto a nessun tipo di protezione di mercato, valendo solo come titoli di merito e non di accesso a una professione. Sta poi al cliente decidere se preferisce servirsi di uno psicologo, di un filosofo o di una psicosomatista per avere del counseling.

Trascriviamo questi pensieri senza giudicare quale sistema sia il migliore ma solo prendendo atto che si tratta di tradizioni differenti, pragmatica quella anglo-germanica e legalitaria quella latina. Ci preme però informare e magari chiarire un po’ le idee a qualcuno. Chi?

Per esempio coloro che sono odiatori del libero mercato, favorevoli al controllo sul mercato degli ordini e del valore legale delle lauree e al contempo predicatori dell’emigrazione in massa in paesi dove la legislazione invece regala maggiori libertà legali a filosofi, assistenti sociali, infermieri e curatori che vogliano esercitare non solo il counseling ma anche la psicoterapia. Ci rendiamo conto che la nostra invettiva è vaga e generica. Ce la prendiamo con interlocutori generici, non abbiamo nomi ben definiti. Tuttavia questa confusa convivenza di opzioni incoerenti ci pare un fenomeno non raramente osservabile.

 

Le psicoterapie pragmatiche: dai contenuti ai processi di pensiero

Passiamo a un altro argomento, apparentemente distante, ma non troppo. Da qualche tempo, in realtà una quindicina d’anni e forse più, ma emerse da meno e destinate apparentemente a prevalere, sono sempre più popolari psicoterapie che intervengono sui processi e non sui contenuti. Ovvero, non tanto su ciò che pensi, ma sul come lo pensi. Nell’ambito cognitivo, che è quello che conosciamo meglio, è il trionfo delle psicoterapie metacognitive e di processo, in cui ciò che conta non è più indagare quanto siano razionali e funzionali i propri pensieri, ma porsi in maniera diversa in rapporto a questi pensieri, dando loro meno importanza.

Anche in campo psicodinamico si è assistito a qualcosa del genere, soprattutto con il modello di terapia basato sulla mentalizzazione di Peter Fonagy, un modello in cui invece di andare a caccia di pulsioni aggressive e istinti sessuali mal gestiti il terapista preferisce analizzare come il cliente si pone vero queste pulsioni, comprendendone o meno la natura di eventi mentali. Nel primo caso mentalizza, e quindi compie l’operazione fondamentale per poterle gestire ragionevolmente. Nel secondo caso si consegna ammanettato agli istinti, condannandosi a non governarli. Un passetto in questa direzione lo aveva fatto anche Kernberg con i suoi interventi sul contratto terapeutico, ma solo con Fonagy si arriva anche in campo psicodinamico a intervenire direttamente sui puri processi mentali.

Si tratta di un operare estremamente pragmatico. Un nostro cliente, a tal proposito, ci ha detto che gli sembrava di lavorare sul libretto d’istruzioni della mente senza dare più importanza al contenuto dei suoi pensieri. Il cliente aveva anche aggiunto che gli pareva un modo di lavorare molto freddo e distaccato, anche se indubbiamente utile.

 

Ci chiediamo quanto durerà questa ondata processualista e quanto il suo estremo pragmatismo potrà essere applicato ai nostri panorami latini, meno pragmatici di quelli nordici (e di quelli cino-tibetani; questa concezione deve molto all’estremo oriente). Lo diciamo anche alla luce della sentenza della Cassazione di cui abbiamo scritto a inizio articolo, sentenza che ha ribadito un certo modo di essere che rimane nostro, anche quando magari sogniamo notte e giorno di emigrare sul Tamigi a far concorrenza ad assistenti sociali dediti a fare psicoterapia.

Il trattamento di Fairburn per la bulimia: il problem solving

L’uso del problem solving per gestire i problemi emotivi sia nei disturbi alimentari che in generale può sembrare un po’ semplicistico. Fatto sta che il protocollo di Fairburn, almeno per un certo numero (non piccolo) di pazienti, funziona. Le percentuali di successo variano dal 40 al 70% dei casi in cura.

MAGREZZA NON E’ BELLEZZA – I DISTURBI ALIMENTARI: Il trattamento di Fairburn per la bulimia: il problem solving (Nr. 12)

 

L’uso del problem solving per gestire i problemi emotivi sia nei disturbi alimentari che in generale può sembrare un po’ semplicistico.

Possibile che le ansie e i disagi del paziente possano essere gestiti con una tecnica razionale e pragmatica di gestione dei problemi? La difficoltà del paziente ad assumere un atteggiamento più razionale e meno emotivo non risiede forse in paure per affrontare le quali non basta apprendere a ragionare in un modo diverso, meno emotivo?

Sono obiezioni per nulla infondate. Fatto sta che il protocollo di Fairburn, almeno per un certo numero (non piccolo) di pazienti, funziona. Le percentuali di successo variano dal 40 al 70% dei casi in cura. Queste cifre suggeriscono che effettivamente molti di questi pazienti, sebbene afflitti da paure significative e profonde, avevano bisogno di apprendere un modo diverso di ragionare, meno ‘di pancia’ e più controllato razionalmente. Che poi tutto questo possa non essere sufficiente, non inficia il risultato positivo. Sono aspetti sui quali torneremo.

A questo punto della terapia, quando si saranno presumibilmente conseguiti i primi successi sintomatologici perché il paziente osserva un’alimentazione regolata e ricorre meno frequentemente alle condotte di eliminazione, Fairburn situa l’attacco decisivo alla patologia cognitiva del paziente bulimico.

Gli interventi raccomandati da Fairburn si rifanno molto a Beck e consistono nell’incoraggiare il paziente a mettere in discussione le basi della sua mentalità insicura, che fa dipendere la propria autostima dal controllo del peso e dallo stile di pensiero dicotomico, che esige il controllo assoluto dell’alimentazione.

Il paziente è invitato a riesaminare criticamente quali prove ci siano a favore del suo pensiero distorto. Perché pensare che la propria stima di sé debba dipendere dall’aspetto del corpo? Perché ritenere imperdonabile ogni minima violazione del severissimo codice alimentare anoressico? E perché reagire con sproporzionata disperazione a queste violazioni? Disperazione che porta, paradossalmente, a un’abbuffata consolatoria? Abbuffata nella quale il paziente con disturbo alimentare bulimico finisce per perdersi, sia per punirsi sia per anestetizzarsi (le abbuffate si realizzano in uno stato dissociativo e ipnotico, in cui il paziente perde il controllo delle sue azioni e cerca di tamponare la propria disperazione interiore abbuffandosi di cibo; l’ingestione può essere così rapida, disordinatamente vorace e disperata da determinare uno stato anestetico).

Dopo questo riesame critico, Fairburn fornisce alcune indicazioni di tipo comportamentale sull’alimentazione, raccomandando di motivare i pazienti a evitare altri tipi di comprimenti disordinati (saltare i pasti, mangiare poco o niente a ogni pasto ecc.). E insiste sulla necessità di convincere i pazienti che questi comportamenti non aiutano affatto a mantenere il peso basso. Peggio, facilitano improvvise abbuffate. Tutte queste indicazioni hanno lo scopo di motivare ulteriormente il paziente a seguire un’alimentazione normale.

La fase finale del protocollo tratta la possibilità di ricadute. Occorre rendere consapevole il paziente che peggioramenti sono sempre possibili, ma che non vanno drammatizzati, perché possono essere momentanei e legati a situazioni problematiche ma passeggere. E motivarlo a perdonarsi un’eventuale abbuffata, che non deve diventare motivo di una ricaduta depressiva in abbuffate compulsive.

Se invece la ricaduta non è episodica, ma prolungata, il paziente insieme al terapeuta deve chiedersi: sta succedendo qualcosa nella mia vita? Ancora una volta invece di capire i problemi che ho, tento di distrarmi abbuffandomi? Sono insoddisfatto, deluso, infelice? In quale campo? Affetti, amici, lavoro? A queste domande il paziente dovrebbe rispondere applicando il problem solving appreso nella prima tornata di sedute terapeutiche. Altrimenti, rivolgersi di nuovo al proprio terapeuta diventa inevitabile.

Rivisto criticamente oggi, il protocollo di Fairburn appare insufficiente nella sua parte cognitiva e troppo sbilanciato sulla componente comportamentale e, diremmo, nutrizionale. A voler essere cattivi, a tratti sembra un manuale di buona alimentazione. Tuttavia, quando uscì ebbe un notevole successo e rappresentò una tappa importante per lo sviluppo della teoria cognitiva dei disturbi alimentari.

Pur con semplificazioni che lo rendevano persino meno sofisticato del precedente modello cognitivo della depressione elaborato da Beck, il protocollo di Fairburn ha dimostrato l’applicabilità clinica e non solo teorica del modello cognitivo ai disturbi alimentari. Per la sua semplicità, fu utilizzato in molti studi di efficacia che ne confermarono la bontà.

Indubbiamente, Fairburn ha dimostrato l’importanza terapeutica di intervenire sui circoli viziosi di mantenimento del disturbo. Il suo intervento, che affrontava i costrutti vicini al sintomo, costituiva ai tempi il protocollo d’efficacia di intervento per la bulimia. Era efficace in circa il 40-50% delle pazienti nelle prime 8 settimane del trattamento (Fairburn et al., 1993).

RUBRICA MAGREZZA NON E’ BELLEZZA – I DISTURBI ALIMENTARI

Workaholism: il rapporto con il lavoro dalla preistoria ad oggi

La workaholism, detta anche work addiction (letteralmente dipendenza dal lavoro), è stata introdotta nel 1971 da Oates, per indicare il bisogno incontrollabile di lavorare incessantemente. Alcune caratteristiche di personalità, tutte legate alla concezione moderna della realizzazione personale di sé, della motivazione al successo, del perfezionismo e della coscienziosità etica e morale, concorrono alla dipendenza dal lavoro.

Questo articolo è stato pubblicato da Giovanni Maria Ruggiero su Linkiesta il 30/04/2016

Il rapporto tra l’uomo e il lavoro ai tempi della preistoria

Il lavoro? Un bel fastidio. Chi ce l’ha fatto fare? Bella domanda. Racconta l’antropologo Marvin Harris in “Cannibali e Re” che gli antichi cacciatori-raccoglitori lavoravano un paio d’ore al giorno, non di più. Sul serio? E come diamine facevano? Bastava quello. Bastava slanciarsi per una mezza mattinata o un mezzo pomeriggio nella foga della caccia o nell’attività più tranquilla della cerca e della raccolta di frutta e semi. Il resto della giornata lo si trascorreva a ciondolare in branco sotto il sole africano, dov’è iniziata la specie umana, pettinandosi, spulciandosi, coccolandosi e scaccolandosi a vicenda, insomma facendo grooming, come dicono gli antropologi. Era quella l’età dell’oro cantata da Esiodo, in cui bastava allungare un braccio per raccogliere il cibo donato dalla terra. Ed era anche l’età degli eroi, anch’essa cantata da Esiodo, in cui un branco di giovani maschi porgeva il proprio corpo alla corsa e alla caccia e insieme esploravano incoraggiandosi a vicenda con (più o meno) maschie urla i territori circostanti, la giungla o la savana, il bosco e la pianura, in cerca di animali da abbattere in gruppo.

Avranno provato emozioni potenti quei giovani cacciatori gonfi di adrenalina e testosterone: la gioia condivisa dell’attività solidale in gruppo con i coetanei, lo sfogo feroce dell’aggressività istintiva sulla preda di caccia, l’armonia divina tra impulso biologico ad uccidere e la sua funzione evolutiva di procurarsi da mangiare. Di conseguenza, nessuna remora morale veniva a incancrenire il piacere sanguinario della caccia, tutto avveniva sotto l’occhio benevolo e approvante della divinità darwiniana che aveva preordinato tutto questo dal fondo buio del tempo primordiale. E, last but not least, la caccia e la raccolta erano davvero un bel gioco che durava poco: due ore al giorno erano più che sufficienti per procacciare nutrimento alla tribù.

Le donne –così scrive Harris, per eventuali tic sessisti prendetevela con lui- erano anch’esse contentissime di dedicarsi alle loro attività preferite senza imposizione culturale alcuna, attività più civili peraltro di quelle maschili: soprattutto cura di se stesse e della propria avvenenza sessuale, ma anche cura e manutenzione dell’arredo e dell’igiene degli spazi pubblici della tribù. E infine spettegules e gossip con le amiche, attività fonte di informazioni e civilizzazione. Inoltre in queste tribù i sessi erano spontaneamente separati in gruppi mono-gender che prolungavano per l’intera vita il gruppo sociale degli odierni adolescenti. E poi amori, amori e amori e sesso a più non posso e promiscuo alla grande, anche tra individui dello stesso sesso, che poi i bimbi che saltavano fuori erano allevati dalle donne in gruppo.

Forse Harris esagera nel delineare questo paradiso pagano/cristiano. D’altronde scriveva nel pieno degli anni ’60, forse sotto effetto di acidi e droghe varie. Forse era un antropologo psichedelico il nostro Harris o forse no, ma gli anni erano quelli e si andava alla riscoperta del buon selvaggio in salsa californiana e peyote. Fosse vissuto negli anni ’30 avrebbe scritto le stesse cose ma con un saporino heideggeriano e guerriero in più, forse avrebbe sottolineato che questi giovani cacciatori erano anche organizzati gerarchicamente in una casta aristocratica orgogliosamente guerriera, avrebbe scritto che magari non si limitavano alla caccia ma si divertivano anche nella guerra contro le altre tribù umane, che queste guerre selezionavano razze più o meno superiori, avrebbe scritto che questi giovani fannulloni possedevano degli schiavi catturati in battaglia a cui demandare compiti meno gradevoli e meno eroici come scavare e pulire le latrine, e magari i rapporti con l’altro sesso (e con il sesso) non erano così idilliaci e piani, i capi avevano diritto alle donne e gli altri se ne stavano lì -scusate il crudo termine- a masturbarsi, come d’altronde accade nelle tribù di scimmie antropomorfe che in genere sono studiate per ricostruire i comportamenti dei primitivi. E così via.

Insomma Harris avrebbe disseminato la stessa spolveratina di niccianesimo ma condito con una salsa nazista invece che comunista, queste ricette utopiche hanno sempre avuto un fondo comune. Del resto quando i progressisti usano Nietzsche lo addolciscono e lo ammosciano sempre un po’ ad usum delphini, come ci ha spiegato una volta per tutte lo psicologo dell’etica Jonathan Haidt.

Non divaghiamo e torniamo a parlare di lavoro. Quanto lavoravano questi cacciatori primitivi, nazisti o comunisti che fossero? Voglio ripeterlo: non più di due ore di lavoro al giorno. Lavoro? Possiamo chiamare “lavoro” la caccia e la guerra di questi giovani bulli? Chiamiamolo “sbattimento divertente”. Il resto a ciondolare e sonnecchiare in gruppo nella savana o dove volete. Etica del lavoro? Calvinismo? Concetti probabilmente incomprensibili per questi giovani gangsta, hooligans della preistoria.

 

Il rapporto tra l’uomo e il lavoro nella società odierna

Oggi, invece, quanto si lavora? Quante ore di lavoro sommiamo alla settimana? Moltiplicando due per sette scopriamo che il nostro primitivo antenato cacciatore si impegnava (divertendosi) per non più di quattordici ore a settimana. Che invidia. Ad alcuni di noi capita di farle in un solo giorno, queste quattordici ore. Il nostro antenato sarebbe probabilmente impazzito o ci avrebbe infilzato con la sua lancia. E anche alcuni di noi impazziscono di lavoro e di stress e negli USA infilzano a fucilate colleghi e vicini.

Insomma, chi ce lo ha fatto fare? A sentire Harris stavamo così bene. E come ci siamo arrivati? Continuiamo a leggere Harris. E apprendiamo che già con l’agricoltura si passa da due a sei ore di lavoro giornaliere. Sei ore al giorno? Siamo già quasi su livelli moderni d’impegno. Ancora un paio di orette e siamo nell’era industriale. Chi ce lo ha fatto fare? Come ci siamo arrivati, a rovinarci così? Perché non siamo rimasti in paradiso a giocare al videogioco della caccia (e della guerra, non dimentichiamolo)? Videogioco dal vivo, poi, mica la playstation. Tutto vero, tutto sentito e fatto sul serio. Mica come quei bislacchi che vanno a giocare a paintball, a spararsi palle colorate in faccia in campagna simulando battaglie con il loro fisico falso-atletico da impiegati palestrati. Perché ci siamo chiusi in ufficio e abbiamo lasciato la foresta?

La risposta di Harris è raggelante, a dimostrare che il gioco della storia è un gioco duro e feroce. Il passaggio all’agricoltura fu determinato dall’ingentilimento dei costumi, dal rifiuto del sangue. Harris però non parla di un generico incivilirsi dei modi, di un vago rifiuto del sangue della caccia. Parla di cose ben più concrete e inquietanti; la cultura della caccia si reggeva su un rigido controllo delle nascite, nel quale il numero delle bocche da sfamare era tenuto attentamente sotto un certo limite invalicabile. E questo limite era rispettato col sangue, non solo mediante aborti (non certo effettuati in cliniche all’avanguardia) ma soprattutto attraverso l’infanticidio.

Devo dire che Harris scrive queste cose con una certa franca durezza quasi compiaciuta. Un compiacimento cinico che a tratti affiora nella letteratura progressista, magari travestendosi da hegeliana (e marxiana) accettazione della crudeltà della storia, magari con uno spolverio nicciano di derisione del sentimentalismo borghese (di nuovo fa capolino Marx) e –perché no?- cristiano (e qui il campo è tutto per il Nietzsche più ossessivamente anti-cristiano). Queste spezie piccanti sono però aggiunte da Harris in maniera sorvegliata. Si ferma giusto una manciata prima che il gusto diventi troppo forte e inevitabilmente nazista. Si corre sempre questo rischio quando si fa della cucina nicciana, ma Harris è un cuoco provetto e non esagera col suo nazi-Nietzche massacratore di esseri inferiori e malriusciti o semplicemente di troppo.

Insomma, a un certo punto non ce l’abbiamo fatta più a far fuori i nostri bambini già nati. Questo scrive Harris. Fa un po’ impressione leggerlo, lo scrive con quel certo rammarico dell’odiatore di bambini, ma è convincente: smettendo di far fuori bambini, il numero di bocche da famare crebbe incontrollabilmente e la caccia non bastò più. Siamo diventati troppi e abbiamo iniziato a porci problemi come la crescita del Prodotto Interno Lordo, l’efficienza economica e le risorse alimentari e infine la carne rossa e le scorregge delle mucche. Abbiamo sviluppato la tecnologia, e già con l’agricoltura facemmo un enorme passo in avanti vero l’industrializzazione, con buona pace di quegli ingenui -Pasolini in testa- che s’illudevano e ancora si illudono che il mondo agricolo sia un mondo rimasto a contatto con la natura spontanea. Sciocchezze, l’agricoltura è un’attività altamente sofisticata e innaturale, in cui il lavoro è organizzato, suddiviso e specializzato marxianamente. Con l’agricoltura ci si prepara all’industria e alla società dei consumi; infatti coltivando si produce artificialmente il cibo e si moltiplicano enormemente le risorse, invece di andare a raccogliere e cacciare quel che spontaneamente c’è in natura. E si lavora, si lavora sempre di più. L’agricoltura è indubbiamente lavoro, la caccia no. E ci si organizza, ci si organizza sempre di più in gruppi di lavoro, in mansioni specializzate, in lavoro salariato, in tempi e luoghi e orari definiti, come diceva Marx.

Non abbiamo più avuto il coraggio di far fuori i nostri bambini e abbiamo dovuto sfamarli. Per questo abbiamo smesso di essere cacciatori divertiti dalla vita e abbiamo iniziato a rincretinirci di lavoro. Lavoriamo tanto e lavoriamo sempre di più da secoli per questo. Ci siamo (per fortuna) inteneriti al sole delle religioni monoteistiche e poi delle filosofie umanistiche e liberali e abbiamo superato il cuore di pietra del paganesimo, legato alle divinità della natura e non a una entità sovrannaturale, ovvero al di fuori della natura. Seguendo questo Dio sovrannaturale anche noi ci siamo emancipati e ci emancipiamo sempre di più.

Ma tutto questo costa tanto, tantissimo lavoro. Per questo nasce l’etica del lavoro. E questo impegno nel lavorare sempre di più cresce col crescere dei secoli, diventa sempre più un dovere e sempre meno un piacere. Già i contadini si divertivano molto meno dei cacciatori, e dopo di loro gli operai ancor meno. Nel mondo contemporaneo le cose sono diventate un po’ più varie e interessanti, ma la vita eroica e pigra dei cacciatori di Harris ce la siamo lasciata alle spalle per sempre. E per far fronte a questo impegno crescente impegniamo al massimo le nostre forze fisiche e morali. Lavorare è un impegno della psiche e dell’anima. E quindi può diventare una malattia dell’anima. Una droga. Esistono i drogati di lavoro, i workaholic.

La workaholism, detta anche work addiction (letteralmente dipendenza dal lavoro), è stata introdotta nel 1971 da Oates, per indicare il bisogno incontrollabile di lavorare incessantemente. Alcune caratteristiche di personalità, tutte legate alla concezione moderna della realizzazione personale di sé, della motivazione al successo, del perfezionismo e della coscienziosità etica e morale, concorrono alla dipendenza dal lavoro. Anche il clima organizzativo dell’azienda moderna, in cui ognuno è strettamente dipendente dagli altri, condiziona ed è condizionato da tutti, gioca un ruolo nello sviluppo e nel mantenimento della workaholism. Sta a noi, in questa società sempre più organizzata e interconnessa, trovare momenti di libertà, in cui ritrovare l’antica, pigra e sonnacchiosa libertà dell’età dell’oro.

Gestione dell’ansia: piccolo vademecum

Una certa quota di ansia è dunque utile nella quotidianità, ma, in alcune situazioni, quando è eccessiva, può bloccare l’individuo, trasformarsi in panico e può diventare patologica. Torna allora utile trovare strategie per la gestione dell’ansia.

 

La parola ansia deriva dal termine latino anxius che significa affannoso, inquieto, a sua volta da angere, che vuol dire stringere, soffocare.

L’ansia è un’emozione naturale, di per sé utile all’adattamento. Basti pensare che, senza ansia e paura, l’uomo non sarebbe sopravvissuto e non sopravvivrebbe ai pericoli. L’ansia è un’alleata nel momento in cui bisogna affrontare una prova, una situazione in cui è necessaria una notevole dose di attenzione e concentrazione. Una certa quota di ansia è dunque utile nella quotidianità, ma, in alcune situazioni, quando è eccessiva può bloccare l’individuo, trasformarsi in panico e può diventare patologica. Torna allora utile trovare strategie per la gestione dell’ansia

L’ansia viene sperimentata quando gli esseri umani credono di essere esposti ad una minaccia più o meno imminente e grave. L’ansia è generata non dall’evento in sé, ma dai pensieri che facciamo su quello che sta accadendo (o accadrà).

 

 

In cosa differiscono l’ansia e la paura

L’ansia e la paura sono due emozioni simili nella loro manifestazione fisiologica (attraverso sintomi fisici quali tachicardia, respirazione affannosa, sudorazione, senso di nodo alla gola, ecc.), entrambe sono la reazione ad una minaccia ma differiscono sostanzialmente perché:

  • la paura è una reazione emotiva ad un pericolo reale.
  • l’ansia è una reazione emotiva ad un pericolo percepito.

 

La paura

La paura è l’emozione più antica e fondamentale per la sopravvivenza, si attiva ogni volta che ci troviamo di fronte a un pericolo nel tentativo di proteggere la nostra vita.

La paura è una risposta mirata diretta a un evento o un oggetto specifico, e la persona ne è consapevole. Nel momento in cui percepiamo un pericolo proviamo paura, il sistema simpatico si attiva e prepara il corpo alla modalità di attacco e fuga, un meccanismo difensivo sviluppato in ogni specie animale, aumenta cosi l’afflusso di sangue ai muscoli, il cuore inizia a battere più forte e più veloce, le vene si contraggono ed aumenta la pressione sanguigna, i bronchi si dilatano ed aumenta anche l’ossigenazione, contemporaneamente viene rallentata la digestione, ecc., il corpo ora è pronto a colpire o a scappare, può arrivare a paralizzare anche  le nostre scelte.

Dal punto di vista fisiologico, negli esseri umani esisterebbe un vero e proprio circuito cerebrale della paura. Secondo LeDoux, uno dei più grandi studiosi del cervello umano, esisterebbe una strada ‘alta’, corticale (più lenta e che implica consapevolezza) ed una strada ‘bassa’, sottocorticale (più veloce ed inconsapevole).

La strada alta porta dal talamo sensoriale alla corteccia sensoriale e poi all’amigdala, è la strada utilizzata dall’ansia in cui lo stimolo viene elaborato cognitivamente. La strada bassa invece porta direttamente le informazioni dal talamo sensoriale all’amigdala, ed è la strada utilizzata dalla paura in cui non vi è elaborazione del percetto, ma pura percezione.

 

 

Predisposizione all’ansia

Non tutti richiedono interventi di gestione dell’ansia, poiché non tutti sperimentano un disturbo d’ansia, ciò dipende dall’interazione di vari fattori come il temperamento, le esperienze di vita e la vulnerabilità storica ed attuale.

Pertanto è buona norma, in questi periodi, preparasi alla gestione dell’ansia adottando delle strategie di coping adeguate (inteso come l’insieme di strategie mentali e comportamentali che sono messe in atto per fronteggiare una certa situazione).

 

Gestione dell’ansia: conoscere i 4 cluster sintomatologici ansiosi

I quattro cluster sintomatologici dell’ansia sono:

  • Sintomi cardiorespiratori: tachicardia, senso di oppressione al petto, di affogare, dispnea, ecc.
  • Sintomi gastrointestinali: nausea, vomito, mal di stomaco, tensione e/o dolori addominali, diarrea, ecc.
  • Sintomi vestibolari: sensazione di instabilità, vertigini, sensazione di svenimento, ecc.
  • Sintomi psicosensoriali: disorientamento, derealizzazione, depersonalizzazione,sensazione di camminare sulla gomma piuma o di gambe molli, ecc.

 

La Psicoterapia Cognitiva per la gestione dell’ansia

La psicoterapia cognitiva è molto efficace nella gestione dell’ansia, essa spiega i disturbi emotivi attraverso l’analisi della relazione tra pensieri, emozioni e comportamenti.

Secondo la TCS, alla base dei disturbi da ansia e dell’umore vi sarebbero delle distorsioni cognitive, cioè ragionamenti che si caratterizzano per il fatto di discostarsi dalle teorie normative del ragionamento e che, per questo, causano, aggravano e mantengono le credenze patogene, quelle che sottendono la sofferenza psicopatologica. Pertanto, le reazioni emotive disfunzionali e il disagio sono frutto di pensieri disfunzionali, quindi  è essenziale lavorare su di essi.

 

Come ragioniamo e quali meccanismi sono coinvolti nell’ansia

Quando ragioniamo utilizziamo bias cognitivi, euristiche, che diventano disfunzionali se vengono utilizzate eccessivamente.

Inoltre possediamo un altro tipo di ragionamento, anch’esso automatico, che si attiva in seguito alla valutazione di un evento come minaccioso chiamato Better Safe than Sorry (BSTS) cioè ‘Meglio allarmarsi che non allarmarsi affatto’. Lo scopo è quello di evitare errori di sottovalutazione del pericolo, pertanto viene privilegiata la focalizzazione dell’ipotesi di pericolo.  Il BSTS si attiva anche se il danno da prevenire non è importante in sé ma lo è diventato perché l’individuo ritiene di avere il dovere di prevenirlo.

I pensieri che possono generare ansia sono: sopravvalutazione del pericolo e sottovalutazione delle proprie capacità di affrontare una situazione.

 

Modello del Circolo vizioso del Panico

Secondo Modello del Circolo vizioso del Panico (Clark, 1986 – Modificato da Wells, 1997) vi è uno Stimolo scatenante esterno oppure interno che viene percepito come minaccioso attivando così le sensazioni somatiche come ad esempio dolori al petto, palpitazioni, salivazione azzerata, nausea, tremore tachicardia, tremore, fame d’aria, iperventilazione ecc. Dopodiché vi è un’interpretazione catastrofica delle sensazioni mentali e somatiche che accompagnano questa preoccupazione ad esempio ‘non respiro… e se mi sento male? Mi sta venendo un infarto?‘. Tutto ciò porta ad un incremento della preoccupazione, cioè si acuiranno le sensazioni somatiche, fino a causare un Attacco di Panico. Invece, se si mettono in atto evitamenti o comportamenti protettivi le manifestazioni negative diminuiranno con la conseguenza di una cronicizzazione dell’ansia. Pertanto ci si dovrebbe dedicare a percorsi e strategie di gestione dell’ansia, che va attraversata e mai evitata.

 

Gestione dell’ansia: come combattere allora quest’ansia?

Interventi cognitivi per la gestione dell’ansia

Psicoeducazione; modificazione delle credenze patogene (AS) tramite ristrutturazione cognitiva; accettazione dell’ansia e del rischio di panico (si cerca di attendere che passi la tempesta), ecc.

Interventi comportamentali per la gestione dell’ansia

Respirazione diaframmatica; rilassamento isometrico rapido; tecnica luogo sicuro; mindfullness; esposizione enterocettiva e in vivo; Eliminazione dei comportamenti di controllo; ecc.

 

Identificare i pensieri ansiogeni

All’inizio può essere difficile individuare i pensieri che provocano ansia, specialmente, se durano da molto tempo e si presentano in modo quasi automatico. Per individuarli, nelle situazioni in cui si è in ansia è importante farsi delle domande: es.: ‘Che cosa sto pensando? Che cosa penso della situazione? Come penso di affrontarla? Cosa farò? Ecc.‘ Un esempio di pensiero disfunzionale potrebbe essere: ‘Cosa succederà se non ci riuscirò? Sicuramente perderò tutto?‘. Mentre un esempio di pensiero illusorio è: ‘Ci riuscirò senz’altro, sono troppo bravo!‘. Un pensiero funzionale, invece, suonerebbe più o meno così: ‘Mi conviene provarci e fare del mio meglio!’.

Nel processo di gestione dell’ansia, per distinguere il pensiero disfunzionale ed illusorio da quello funzionale è utile sapere che nel pensiero disfunzionale si usano spesso queste espressioni: ‘Io devo assolutamente..; io sono obbligato a..; se … poi;  non potrei resistere se…‘. Nel pensiero illusorio invece le seguenti: ‘Andrà tutto bene; non m’importa; non diventerò mai ansioso‘. Nel pensiero funzionale invece le espressioni sono le seguenti: ‘Preferirei non …; è improbabile che succeda… ma; anche se succederà non sarà una catastrofe; se le cose non andranno come desidero, mi sentirò deluso e seccato, ma riuscirò ad andare avanti  comunque‘. Sono abolite le doverizzazioni.

 

Sostituire i pensieri disfunzionali ansiogeni con pensieri più funzionali

Domandarsi se quello che si pensa è condiviso anche dagli altri. Chiedersi se il vostro modo di pensare vi aiuta a raggiungere gli obiettivi o vi allontana. Se state facendo un errore dì ragionamento avete a che fare con dei bias cognitivi: particolari distorsioni nel modo di interpretare e valutare la realtà interna ed esterna della persona collegate all’utilizzo di regole euristiche.

Ad esempio, in un processo di gestione dell’ansia, è assolutamente importante fare attenzione quando si pensa in termini di tutto o nulla, si vede tutto in bianco o nero (Pensiero assolutistico o dicotomico). Altri bias cognitivi a cui stare attenti sono:

  • Generalizzazione. Fare attenzione a parole come: sempre, mai, tutti, tutto, nessuno, niente. Chiedersi se la situazione è davvero così estrema.
  • Ingigantire / minimizzare l’importanza di singoli episodi. Se in un’occasione non siete riusciti, non significa che continuerete a fallire.
  • Pensare solo ai punti deboli dimenticandosi i punti di forza. Cercate di pensare ad altre volte in cui avete avuto dei successi, anche piccoli.
  • Catastrofizzazione. Sopravvalutare le probabilità di un disastro. È vero che qualcosa può andare male, ma non bisogna sopravvalutare i rischi.

 

 

Conclusioni

Per affrontare meglio la gestione dell’ansia, quando ci si accorge di stare male è dunque utile:

  • Chiedersi di che emozione si tratta, cosa sentiamo in quel preciso momento.
  • Identificare quali sono i pensieri relativi all’ emozione, il proprio dialogo interno, cioè i pensieri disfunzionali.
  • Mettere in dubbio i pensieri e le convinzioni disfunzionali.
  • Sostituire i pensieri e le convinzioni disfunzionali con pensieri più vicini alla realtà e più utili per il raggiungimento dei tuoi obiettivi.
  • Ricorrere a tecniche comportamentali

 

Le variazioni del dolore (2014) di J. Rhodes – Recensione

‘Instrumental’, eloquente anche nel suo titolo originale, Le variazioni del dolore è un’autobiografia, una testimonianza, una composizione intensa, forte, onesta, meticolosa, che attraversa il dolore dell’abuso, o meglio, dello stupro, come preferisce chiamarlo James Rhodes.

 

Rhodes, pianista e concertista quarantenne di fama mondiale, mette su carta in prima persona la sua storia, profondamente segnata dagli abusi subiti dai sei ai dieci anni, da un insegnante del doposcuola di pugilato. L’autore racconta la vergogna, l’eredità più tangibile dello stupro, e la colpa, il disprezzo per la presunta propria malvagità e depravazione, la rabbia, la disperazione.

Ripercorre i cortocircuiti del dolore e i tentativi per smorzarlo o, altrettanto dolorosamente, silenziarlo; il sesso da offrire come merce di scambio, alcol, droghe, lamette, distruzione e autodistruzione. L’alternativa è scivolare nel torpore, diventare un sonnambulo, un guscio vuoto, aspettare che il pilota meccanico si sgretoli e tentare il suicidio.

Nel suo Le variazioni del dolore Rhodes illustra attraverso un linguaggio crudo e limpido una vera e propria radiografia del dolore dell’abuso sulla mente e sul corpo, memore in modo spietato di quanto accaduto.

L’autore si racconta come uomo, compagno, padre, musicista, ‘uno stronzo, un bugiardo e un impostore‘, e tanto altro. Passa in rassegna tutte le risorse della salute mentale, i tentativi falliti, quelli più o meno riusciti: i gruppi di auto mutuo aiuto, gli strizzacervelli – uno in particolare – farmaci, ricoveri, meditazione, condivisione e libri di auto aiuto. Per Rhodes la musica è al primo posto. Il cammino personale di Rhodes, dal caos paralizzante del trauma alla vita, passa per la creazione e la bellezza che scaturisce dalla musica.

La musica classica si intreccia con le trame del dolore.

A sette anni l’autore scopre – musicassetta con registrazione dal vivo – la Ciaccona di  J. S. Bach, versione trascritta per pianoforte da Busoni. Felice smarrimento, sollievo, consolazione, lo spazio calmo, una pausa in mezzo alla guerra, un campo di forza, il mantello di Harry Potter, eccitazione, energia.

Comincia l’amore per la musica classica. Rhodes si lascia incantare, comincia a strimpellare su pianoforti malandati nelle sale prove di un istituto di provincia, iniziando un percorso tutt’altro che lineare, che lo porterà ad intraprendere una carriera da concertista.

Non c’è un lieto fine scritto, l’autore lo sa, la rivoluzione è iniziata ed è in corso, tuttavia la mente potrebbe all’improvviso barattare il senso di sicurezza e benevolenza con il terrore, la rabbia, con un senso di colpa feroce e corrosivo o con un vuoto assordante. Con la vergogna sempre in sottofondo.

Nell’autobiografia la musica si insinua a temperare la violenza delle parole, incarna la spinta alla vita e ne disegna la bellezza pur nell’intensità e nella violenza delle emozioni. Rhodes accompagna ad ogni capitolo un brano musicale, ci parla della vita di compositori vissuti nella sofferenza e divenuti immortali per la loro capacità di dare voce all’anima, sostiene la liberazione della musica, da condividere come un dono divino.

Le variazioni di Rhodes vanno ascoltate così, lasciando spazio alle parole e anche alla musica (che vi verrà voglia di ascoltare) senza indugiare su interpretazioni o retro pensieri, pur sapendo che, soprattutto negli addetti ai lavori, arrivano inevitabilmente.

cancel