expand_lessAPRI WIDGET

Beyond the playful: pokemon go among captology, positive technology and emotional intelligence

All of us, maybe with a few exceptions, are familiar with the phenomenon of Pokemon Go. Since its appearance in the main stores for smartphones (Apple and Android), this app has spread like wildfire around the globe. The mass media, along with new media, continue to bombard us with information about the game, with both positive and negative feedback. Even now, as I am writing, people keep talking about it. How can a videogame have so success? And then, which purpose does it have? To have a good time and enough?

 

The Augmented Reality

For those who do not know, Pokemon Go is nothing a simply videogame, but an augmented reality videogame. For augmented reality or computer-mediated reality, we refer to the enrichment of human sensory perception by means of information, typically handled and conveyed electronically, which would not be perceptible with the five senses. The items that increase the reality can be added with a mobile device such as a smartphone, with the use of a PC with a webcam or other sensors, with vision (for example projection goggles on the retina), listening (headphones) and manipulation (gloves) devices that add media information to a daily-basis perceived reality.

In Virtual Reality (VR), usually the information added or subtracted electronically is overwhelming, to the point that people are immersed in a situation where natural perceptions of many of the five senses do not seem to even be present anymore and are replaced by others. However, in Augmented Reality (AR), one continue to live the common physical reality, but has additional or manipulated information about the reality itself.

After all, the distinction between VR and AR is contrived: the mediated reality, in fact, can be considered as a continuum, in which VR and AR are adjacent and are not simply two opposite concepts. The augmented reality is nothing more than a mixed reality, born from the idea of merging virtual reality with actual locations.

 

The Psychology of Videogames

Although Pokemon Go is a distinctive video game, it remains, after all, a videogame. There are different and diversified types of video games, constantly subject to changes and upgrades. It would be too simplistic to think of the game only as a form of simple entertainment (Bittanti, 2004). By doing so, one may not understand its real meaning and value of its use. An increasing number of titles are used for educational purposes or in support of the learning processes. In addition video games that aim to the promotion of physical and psychological wellbeing of people are growing more and more.

Examples include the popular Wii Sports and Wii fit from Nintendo, meant to promote the body’s fun and useful use for burning calories, or the famous (in the US) Virtual Iraq to treat veterans from Post-Traumatic Stress Disorder. This video game, created ad hoc for the occasion and based on the video game Full Spectrum Warrior, allowed the survivors to live again the war that obsessed them in a both virtual and safe form. The software has proved effective with four survivors, including a 21-year soldier who had attended numerous scenes of suicide bombs. When it comes to videogames, however, we cannot avoid to think of (but this does not apply to everyone) negative background’s considerations. The most common thoughts are the following:

Violent video games, violent people. The video game as a tool to influence both the emotions and behavior. This conception states that the behaviors observed in video games and played by the users, can then be replayed in the reality. It entails negative consequences if we consider that many of the actions and attitudes found in videogames are morally objectionable or dangerous. A great example is given by the well known (especially by young gamers) Grand Theft Auto or GTA. Stop playing games and go out. The video game as something that isolates and makes people lazy. How often do we happen to be so entranced by what happens on the screen that we forget, even for long hours, all the rest? The game is seen as something that brings laziness, that forces you to stand still and that, in relation to it, may lead to misconducts on the alimentary, physical and hygienic point of view. It can also bring out the idea of a social withdrawal, almost as if you would prefer to relate to fictional characters of the game rather than real people.

Much better a good book. The video game as a tool to detach from reality. This concept gives the game the dangerous ability to substitute the real experience, imprisoning the user in fantasy worlds that, in extreme cases, would one no longer be able to distinguish from the reality.

 

The Captology

What stated so far should not make us forget the existence of the other side of the coin of a video game. As mentioned at the beginning of the article there are even video games that, in the light of psychophysical, pedagogical and educational objectives, can positively influence people’s behavior. And this happens also thanks to their strong “persuasive” power.

The captology, and Wikipedia helps us here, is the study of computers (hardware and software) as persuasive technologies. This recent area of research explores the space between persuasion (influence, motivation, behavior change, and so on), and computer technology. This includes the design, research and analysis of interactive computing products, such as the Web, computer software, specialized devices, etc., created in order to change attitudes or behaviors of people. B.J. Fogg, Director of the persuasive technology lab at Stanford University, coined the term captology in 1996, derived from the acronym CAPT (Computers As Persuasive Technologies). The field of captology, where the art of persuasion and computer science overlap, is growing fast: every day new software applications, including web sites and mobile applications, are designed to change what people think and do. Social networks, such as Facebook and Twitter, are now powerful means of mass persuasion. Persuasion, in the sense of captology, refers to any attempt to provoke “intentionally”, through human-computer interaction, a given “volunteer” change in ideas and behaviors, without making use of deceit or coercion. In this sense, those changes that, despite occurring as a result of human-computer interaction, were not desired and intentionally planned by the designer, are excluded from captology’s investigation.

What about Pokemon Go with captology? Leaving the game aside for a moment, the mobile device provides a unique opportunity for persuasion. The smartphone remains in close contact with people all day long. This constant presence gives rise to two factors that contribute to creating opportunities for persuasion, which are defined by Fogg himself: the kairos factor (kairos indicates the appropriate time to send a message) and comfort factor. Mobile technology makes it easier to be able to intervene at the best time to persuade, and this because it is a type of technology designed to be always with you.

The origin of kairos dates back to ancient Greece. The Greeks had two words to define the time: chronos and kairos. While chronos determine a sequential time, kairos refers to the right moment, an istant in which an event of significance happens.

Fogg theorized about kairos that: “the portable systems of the future will be able to identify the appropriate time and will influence more effectively than they do today. When they will be able to know the user’s goal, his habits, location and activity of the time, these mobile systems will be able to determine when the subject is more prepared to be persuaded through forms of reminders, suggestions or simulation”. What stated may also be related to the product developed by Niantic, the software development company based in San Francisco, California. Too many factors confirm the presence of the principle of kairos in Pokemon Go. One for all, perhaps the most obvious (and for some, however, will not be so easy to understand) is to suddenly see a Pokemon coming out in front of you during your own research. The tip given by the appearance of the imaginary creatures as we explore the different territorial areas is in effect part of kairos. As a result, you increase the persuasive power of the game. Remaining on the subject of kairos, there are other important aspects worth noting in Pokemon Go. For examples there are the messages that appear when the GPS signal is not detected, the detection of our virtual person on the “map” while we’re playing.

We can then observe that, after downloading the game on an Apple device, we are asked to accept notifications. The warning that appears is as follows: Pokemon Go would like to send you notifications. Notifications may include warnings, sounds, badge configurable icons in settings. All these signals and devices increase persuasion, in our case, of the augmented reality in the videogame. After kairos, another element to consider is the comfort factor. Mobile technology facilitates the interaction between man and machine, further heightening the potential for persuasion. The mobile device is virtually always at hand and responds immediately, without long waiting times (barring unforeseen circumstances due to hardware or software technology) to upload or download information.

Other factors support this principle; they relate to Pokemon Go, confirming what said before. These factors are defined as the principle of mobile simplicity, the principle of social confrontation and the principle of competition. The principle of mobile simplicity, briefly, states that any application, if easy to use, will have a greater persuasive potential. The principle of social comparison instead emphasizes how people will be more motivated to keep a certain behavior if they can compare their performance with that of others, especially with that of others like themselves. Finally, the principle of competition addresses how information technology can motivate customers to adopt a certain attitude or behavior, taking advantage of the natural tendency of people to be competitive.

How can these aspects be applied to the videogame? Well, if we reflect in retrospect, we can see that (apart from problems due to server down or difficulties related to the hardware of your mobile) interacting with the software of the Niantic is easy and immediate. Just literally one click to catch Pokemon and entering the game is very quick. Catching the Pokemon and collecting them all has become a goal that every player wants to accomplish and in doing so people tend to compete with other players. Eventually, to consolidate the competition, there is the comparison of the Pokedex. How many have you caught? How many have I caught myself? Every Pokemon is leveling up the players’ score, who can educate and empower the Pokémon for future battles. Future upgrades promised by the game developer’s House, such as the inclusion of new Pokémon (including the rare ones), will result in a significant increase in persuasions of the game.

The captology behind the phenomenon of Niantic’s success, it is also confirmed not only by the theory, but also by facts and evidence. Such as the case of Tom Currie, a 24-year-old New Zealander who decided that his free hours were no longer enough. And for this reason he abandoned his job. Companies like SimilarWeb, born for data analysis, showed how the users of the game connect on average 33 minutes each day. Information recently circulated on the net by Sensor Tower confirmed that the level of total downloads of the application Niantic having only recently passed the touched 75 million share already. The title was also awarded the Niantic record of “fastest title” to have reached the threshold of 50 million downloads, well in advance of Color Switch, second application hosted in the ranking published by Sensor Tower.

 

The Positive Tecnology

Closing the part regarding captology, I would try now, in terms of potential persuasion, to include Pokemon Go between the positive technologies. In the history of human-computer interaction, it is possible to identify a constant trend: making interaction with new media as close as possible to what each of us has within a real-world environment. This made the technological content as an experience, increasing its impact on people’s daily lives. In that way, however can this transformation be beneficial to people’s welfare? How can I use the experiential dimension of technology to promote the personal and social growth?

The attempt to provide an answer to these questions comes from an emerging discipline, the Positive Technology (PT), which can be defined as “a scientific approach application that uses technology to change the characteristics of our personal experience-structuring increasing or replacing it with synthetic environments-in order to improve the quality of our personal experience, and to increase individuals, organizations and companies” (Riva, Banos, Botella, Wiederhold, & Gaggioli, 2012). In fact, the PT is based on various experiential technologies: smartphones and tablets, serious gaming, virtual reality and augmented reality. The positive psychology can suggest how to develop technological applications and systems that lead to positive emotions, promote personal growth and provide a contribution to social and cultural development. Martin Seligman, considered a pioneer of the movement of positive psychology, has identified three pillars of positive life in his book titled Authentic Happiness.

The first pillar, called the pleasant life, is accessible through the involvement in fulfilling and satisfying activities and use of their abilities and talents. The second pillar, the engaged life, is accessible through the involvement in fulfilling and satisfying activities and use of their abilities and talents. The last pillar, know as the meaningful life is accessible through participation in activities aimed at broader objectives of individual ones.
More recently, Seligman has introduced the PERMA, acronym of the five pillars of wellbeing: positive emotion, engagement, social relationships, meaning and realization (Seligman, 2002).

In line with this perspective, Keyes and Lopez have proposed that positive operation is given by the combination of three high levels of well-being: the emotional, psychological and social levels (Keyes & Lopez, 2002).
Starting from these thoughts, Positive Technology is divided into three different areas: the Hedonic technologies used to induce positive and pleasant experiences, the Eudemonic technologies used to assist individuals in achieving engaging and self-realizing experiences, the Interpersonal/Social technologies technologies used to assist and improve social inclusion and/or social connections between individuals, groups and organizations.

 

The Benefits of Pokemon Go

An article in the July 14, 2016 Panorama.it gives us a hand in confirming what just stated. The article takes us back a reflection of Dr. John Grohol, an expert in the study of the impact of technology on human behavior, mental health and founder of Psych Central, a large network on the internet that contains researches, ideas, and supporting materials about mental disorders. Here is an excerpt of what is being reported: “…the challenge, for anyone who is depressed, is increasing the motivational levels to get out of the house, which, until then, are non-existent. We would need to go out and breathe some fresh air, maybe take a shower or a bath. They seem stupid things, but are extremely difficult to deal with for those who are anxious or depressed. Therefore, I think the impact of the game can really lead to substantial benefits”. Continue the same Grohol: “Science is very clear on this point: the more you do physical activity, the more you will lower the levels of depression. This is a very powerful tool, with a remarkable effect”.

However, how then can Pokemon Go would help you get away from a mindset of apathy and despair? First of all, the app focuses heavily on interaction with the outside world more than focusing only on the character that one leads. In this way it encourages toward knowledge of buildings and historic sites (the so-called “Pokéstop“) and contact with other players on the map. In addition, the mere fact of having to come out to progress through the game is already a first step toward opening to the unknown outside that world that is so scary. Of course, it would not be correct to consider this game as a treatment for anxiety and depression, but it is definitely a good tool to give an impetus.

A further example of the usefulness of video game, as a positive technology, comes from the story of C.S. Mott Children’s Hospital in the United States. In this children’s Hospital of Michigan, people are using a very special therapy, which have to do with the popular application. This application is in fact used as therapy at the children’s Hospital. The little patients have the opportunity to take advantage of Pokemon GO, running around in the trees in search of their favorite monsters. Children with a wide range of medical conditions (cancer patients, autism spectrum disorder and hyperlexia, etc..) are encouraged to use Pokemon within public spaces of the hospital. The use of the same application, although in rather unusual terms, is aimed at improving the conditions of children and socialize more easily. The movement, helps children from the physical point of view, not making the limbs atrophy, whereas, socializing with others, makes them feel less alone and ease anxiety and depression.

 

Emotional intelligence in Pokemon GO

There is still a positive global phenomenon in the contrivance of Niantic I want to talk about. This feature is related to future updates that are declared by John Hanke, CEO of Niantic (the company that together with Nintendo and The Pokemon Company has created the fun video game). Hanke, during the interview, focused on the interaction between coaches, declaring that, despite this feature is still not in use, it will be a central element of the game.

Among the changes that will be introduced, as we have just said, there is the change of Pokemon, but this will not be the only feature to be introduced in future updates of Pokemon GO. The other novelty could cover the challenges between coaches, even outside the gym. In fact, the new Multiplayer mode of Pokemon GO, the other coaches might appear on the game map, and open a challenge. In this way, you can keep your Pokemon even when you are not in the gym. I am convinced that, as a psychologist, future upgrades as stated by CEO of Niantic, will contribute to increase emotional intelligence of its players.

For those who are clueless about the subject, the american psychologist Daniel Goleman has made the Emotional Intelligence construct (EQ), which identifies a particular type of intelligence related to the proper use of emotions. According to Goleman, developing this kind of intelligence can be a determining factor in achieving people’s personal and professional achievements. If properly managed, it can help us to communicate effectively, to be able to self motivate, to better react to stimuli from the environment. Goleman’s model outlines five main EQ constructs (often referred to by different authors with different terminology):

Self-awareness. The ability to recognize an emotion as it “happens” is the key to your EQ. Developing self-awareness requires tuning in to your true feelings. If you evaluate your emotions, you can manage them.
Self-regulation. You often have little control over when you experience emotions. You can, however, use a number of techniques to alleviate and regulate negative emotions such as anger, anxiety or depression.
Empathy. The ability to recognize how people feel is important to success in your life and career. The more skillful you are at discerning the feelings behind others’ signals the better you can control the signals you send them.
Motivation. To motivate yourself for any achievement requires clear goals and a positive attitude. Achievement drive, commitment, initiative and optimism are the bases of motivation.
Social skills. The development of good interpersonal skills is tantamount to success in your life and career. So, people skills are even more important now because you must possess a high EQ to better understand, empathize and negotiate with others.

Emotional intelligence applied to this game will be due when, with the promised update from Niantic, people will be able to challenge individual players outside of gyms. Why saying this? The answer is very simple. With the new upgrade of the application there will indeed be duels between real coaches. During the fight, the player, without even realizing, will try to put himself in the shoes of his opponent to try to understand the game plan and why he chose that particular type of Pokemon. He will also try to understand what moves he will use it and how his opponent will behave. The game strategy to win against the opponents will, ultimately, develop the ability of mentalizing the player himself. This is, and remains, however, my inference. Only the time will confirm if what I am saying now will come true or not.

 

Conclusion

In conclusion, the success of Pokemon Go is known to all. So successful, for better or for worse, will lead undoubtedly to a greater spread of augmented reality game. In addition to the continual upgrades that there will be in the future.

Quella strana sensazione… Il fenomeno Not Just Right Experience: quale relazione con il Disturbo Ossessivo Compulsivo?

Il fenomeno Not just right experience (NJRE) viene definito come una sensazione soggettiva, relativa al fatto che un’esperienza venga percepita come “non completamente soddisfacente” o che le cose vengano percepite come “non a posto” e potrebbe avere una relazione con il disturbo ossessivo compulsivo.

Irene Puppi – OPEN SCHOOL Scuola Cognitiva Firenze

 

L’individuo che fa esperienza della Not just right experience si sente spinto ad agire per modificare l’ambiente circostante con lo scopo di diminuire il disagio conseguente a tale sensazione. Il disagio che ne deriva risulterebbe infatti dalla discordanza tra le performance dell’individuo o lo stato reale delle cose, e i propri standard (Mancini, Gangemi, Perdighe & Marini, 2008).

Già nel 1903 Janet nella sua opera “Les obsessions et la psycastènie” parlò di “un senso interno di imperfezione” e descrisse tale esperienza come “la percezione che le azioni compiute non siano realizzate completamente o che non producano un adeguato senso di soddisfazione” (in Pitman, 1987a, p. 226).

 

Not just right experience e disturbo ossessivo-compulsivo

Diversi studi (Coles, Frost, Heimberg & Rhéaume, 2003; Coles, Heimbergh, Frost & Steketee, 2005; Ghisi et al., 2010; Sica et al., 2015) hanno indagato questo fenomeno rilevando una forte associazione tra Not just right experience e i sintomi ossessivo-compulsivi e in alcuni casi individuando un ruolo cruciale della Not just right experience nell’eziologia e mantenimento del Disturbo Ossessivo Compulsivo (DOC).

Pitman (1987b), nella teorizzazione del modello cibernetico, ipotizza lo sviluppo del Disturbo Ossessivo Compulsivo a partire da un disaccordo tra le proprie aspettative (input interni) e le esigenze ambientali. I rituali compulsivi, in tale prospettiva, vengono interpretati come la risposta dell’individuo a tale discrepanza, come un tentativo di diminuire la distanza tra aspettative interne e stimoli esterni.

Tale discrepanza viene sperimentata proprio come una sensazione che le cose non siano esattamente giuste, non siano corrette, non siano just right.

Summerfeldt e colleghi hanno invece ipotizzato alla base del Disturbo Ossessivo Compulsivo la presenza di una sensazione sovrapponibile alla Not just right experience e che loro chiamano “senso d’incompletezza”. Secondo le loro ricerche, vi sono alcune dimensioni sottostanti al Disturbo Ossessivo Compulsivo, quali: l’ansia anticipatoria, la sensibilità al potenziale pericolo e un’esagerata tendenza all’evitamento di questo. Non tutti gli individui però combaciano con questo profilo e spesso alcuni pazienti descrivono piuttosto un senso d’insoddisfazione del loro stato attuale e una spinta a correggere una profonda sensazione di imperfezione.

Sulla base delle ricerche di Rasmussen & Eisen (1992), Summerfeldt e collaboratori (2004) hanno quindi costruito un modello dimensionale del Disturbo Ossessivo Compulsivo. Essi propongono l’esistenza di due dimensioni ortogonali, l’evitamento del pericolo e l’incompletezza, che in combinazione potrebbero essere alla base della maggior parte delle manifestazioni di questo disturbo.

 

Compulsioni, not just right experience e decision making

Il costrutto Not just right experience si ritrova inoltre nelle teorie che, alla base del mantenimento dei comportamenti compulsivi, individuano la presenza di deficit nei meccanismi di stop e di decision making.

Per Wahl e collaboratori (2008), la difficoltà nell’interrompere i comportamenti compulsivi consisterebbe proprio in un problema di decision making, ossia riguardante la decisione se “sia stato fatto abbastanza”. Ad esempio un paziente che si lava le mani compulsivamente non ha dubbi sul fatto di averle lavate e sulla durata dell’azione, ma ha piuttosto il dubbio sul fatto di averle “lavate abbastanza” (Wahl et al., 2008). Secondo questa teoria il termine di un comportamento compulsivo sarebbe perciò preceduto da uno stato soggettivo particolare, un senso di soddisfazione o completezza (una sensazione di “just right”) in cui l’individuo sente di aver completato un’azione e decide di fermarsi.

 

Gravità dei sintomi ossessivo-compulsivi: correlazione con la Not just right experience

Altri dati a favore dell’ipotesi di una stretta associazione tra Not just right experience e Disturbo Ossessivo Compulsivo provengono dagli studi di Leckman e collaboratori (1995) e di Ferrão (2012), secondo i quali la Not just right experience sarebbe associata a una maggior gravità dei sintomi ossessivo-compulsivi.

Coles e collaboratori (2003) rilevarono inoltre una maggior correlazione tra la Not just right experience e alcuni quadri sintomatologici del Disturbo Ossessivo Compulsivo come ad esempio checking, ordering e doubting, e una più debole con washing, obssessing, hoarding e neutralizing.

Oltre a considerare le manifestazioni del Disturbo Ossessivo Compulsivo che mostrano maggiore correlazione con la Not just right experience, sono degne di merito anche quelle che mostrano una correlazione minore ma pur sempre rilevante. Per esempio il washing, potrebbe innescarsi da un tentativo di ridurre la probabilità di un eventuale temuto contagio, oppure da un tentativo di raggiungere una sensazione di “just right” (Feinstein, Faloon, Petkova & Liebowitz, 2003).

Coerentemente a tale ipotesi, il lavoro di Tallis (1996) ipotizzò che proprio il secondo tipo di washing potesse essere più strettamente correlato con la Not just right experience. In conclusione, è possibile che una maggiore precisione nel definire le motivazioni sottostanti la sintomatologia, possa rivelare delle correlazioni più precise tra i vari sintomi del Disturbo Ossessivo Compulsivo e la Not just right experience, nonché aiutare a comprendere  maggiormente l’eterogeneità di questo disturbo (Pietrafesa & Coles, 2009).

Le compulsioni, tipicamente concettualizzate come un tentativo di ridurre l’ansia diminuendo la probabilità di conseguenze minacciose per l’individuo, all’interno di tale cornice teorica vengono perciò ridefinite come un tentativo di diminuire l’ansia derivata dalla Not just right experience. Ad esempio, controllare che gli infissi delle finestre siano chiusi è comunemente ritenuto un comportamento che ha lo scopo di avere la conferma di aver chiuso correttamente le finestre e conseguentemente prevenire un eventuale furto o l’entrata di estranei in casa, ma in realtà la stessa compulsione, potrebbe essere innescata da un desiderio di alleviare una sensazione di disagio dovuta al fatto che in quel momento qualcosa nelle vicinanze non sia “a posto”.

In uno studio del 2005, Coles e colleghi hanno inoltre rilevato che le Not just right experiences possono essere indotte anche sperimentalmente e sono un fenomeno naturale che accade comunemente a tutte le persone, ma ciò che distingue tra pazienti con Disturbo Ossessivo Compulsivo e non, sarebbe la reazione dell’individuo alle esperienze di Not just right (ossia il disagio provato e l’urgenza di fare qualcosa durante l’esperienza, che risulterebbe maggiore nei pazienti con Disturbo Ossessivo Compulsivo).

 

La Ricerca: quale relazione tra Not just right experience e Disturbo Ossessivo Compulsivo

Alla luce di questi studi il presente lavoro di ricerca, sviluppato come tesi di laurea magistrale, si propone di dare un piccolo contributo alla conoscenza del fenomeno della Not just right experience.

Si ipotizza quindi una relazione tra Not just right experience e Disturbo Ossessivo Compulsivo attraverso uno studio di induzione sperimentale e automonitoraggio in un campione di 106 studenti universitari.

In una prima fase sono stati somministrati dei questionari al fine di indagare la prevalenza delle Not just right experiences, alcuni domini psicopatologici (depressione, ansia, worry) e le caratteristiche ossessivo-compulsive. Nelle fasi successive sono state invece analizzate le differenze tra i soggetti nell’esperire tale sensazione, sia in ambito d’induzione sperimentale sia in una situazione naturale.

 

Obiettivi e ipotesi

A partire dai risultati di precedenti ricerche (Coles et al., 2003, 2005), che dimostrerebbero la presenza di una stretta associazione tra il costrutto Not just right experience e il Disturbo Ossessivo Compulsivo rispetto ad altre psicopatologie (ansia, depressione, worry), in questo studio si vuole verificare se:

  • Il costrutto di Not just right experience sia specifico per il Disturbo Ossessivo Compulsivo; si ipotizza perciò di rilevare associazioni positive tra i punteggi ottenuti al NJRE-Q-R e quelli ottenuti ai questionari che indagano le caratteristiche ossessivo compulsive (OCI, OBQ, MPS), e di rilevare associazioni più deboli tra Not just right experience e i test (BAI, BDI-II, PSWQ) che indagano gli altri domini psicopatologici (ansia, depressione, worry,).
  • In ambito d’induzione di laboratorio, gli individui che al NJRE-Q-R hanno riportato un elevato livello di Not just right experience esperiscano maggior disagio e spinta a modificare gli stimoli sperimentali rispetto agli individui con un basso livello di Not just right experience.
  • In una situazione naturale, gli individui con elevata Not just right experience riportano maggior disagio e urgenza di modificare l’ambiente durante un’esperienza di Not just right rispetto a individui con bassa Not just right experience.

 

Metodologia

Partecipanti

Alla ricerca hanno preso parte 106 studenti della Facoltà di Psicologia dell’Università degli Studi di Padova. Il campione è stato suddiviso in due gruppi sulla base del valore mediano ottenuto alla NJRE Severity Scale che è risultato uguale a 16. I partecipanti che avevano ottenuto un punteggio superiore sono stati inseriti nel gruppo con elevata Not just right experience mentre quelli con un punteggio inferiore nel gruppo con ridotta Not just right experience.

 

Strumenti

Gli strumenti utilizzati nella ricerca sono stati:

  • Una batteria di test composta da:
  1. Beck Anxiety Inventory (BAI; Beck, Epstein, Brown, & Steer, 1988)
  2. Multidimensional Perfectionism Scale (MPS; Hewitt & Flett, 1991, 2004)
  3. Obsessive Beliefs Questionnaire (OBQ; Obsessive Compulsive Cognitions Working Group, 1997)
  4. Obsessive Compulsive Inventory (OCI; Foa, Kozak, Salkovskis, Coles, & Amir, 1998)
  5. NJRE Questionaire-Revised (NJRE-Q-R; Coles et al., 2005)
  6. Beck Depression Inventory (BDI-II;  Beck, Steer & Brown, 1996)
  7. Penn State Worry Questionnaire (PSWQ; Meyer, Miller, Metzger & Borkovec, 1990)
  • Un’intervista creata ad hoc per la ricerca divisa in due parti: la prima parte è composta da domande che indagano le considerazioni dell’individuo rispetto alla batteria di test (lo scopo è di tenere il soggetto all’interno del laboratorio e celare le finalità dell’esperimento); la seconda parte è costituita da alcune domande riguardanti l’induzione di Not just right experience in laboratorio. Le domande, alcune associate ad analogo-visivo, permettono di quantificare alcuni parametri (come l’intensità del disagio, l’urgenza a modificare l’ambiente, la responsabilità percepita), durante la Not just right experience indotta sperimentalmente.
  • Un diario di automonitoraggio da compilare a casa.

 

Procedura:

La ricerca era costituita da tre fasi sperimentali:

  • Compilazione della batteria di test
  • Intervista ed esperimento di induzione di NJRE in laboratorio
  • Compilazione di un diario di automonitoraggio per una settimana

La prima fase sperimentale consisteva nella somministrazione agli studenti della batteria composta dai 7 questionari. Ogni partecipante si è poi presentato in laboratorio nei giorni successivi per sottoporsi all’esperimento. È importante sottolineare come gli studenti all’inizio non fossero a conoscenza di come in realtà si sarebbe svolta la ricerca dopo la fase di compilazione della batteria, ma erano solo stati informati che in laboratorio avrebbero risposto a un’intervista strutturata riguardante le loro impressioni sulla batteria di test. In questa seconda fase, ogni studente è stato fatto accomodare nel laboratorio che, a scopo di ricerca, era stato allestito con particolari stimoli sperimentali (un pennarello sul pavimento, un portapenne rovesciato, due penne incrociate senza tappo, una scrivania storta) potenzialmente in grado di indurre una sensazione di Not just right experience.

Una volta entrato in laboratorio ogni partecipante è stato fatto sedere dalla parte opposta della scrivania rispetto allo sperimentatore per essere sottoposto all’intervista che comprendeva alcune domande rispetto alla batteria di test (lo scopo era di tenere il partecipante all’interno del laboratorio e di celare il reale scopo dell’esperimento). Dopo circa dieci minuti dall’inizio dell’intervista, lo sperimentatore si assentava lasciando il partecipante da solo. Durante questo intervallo di tempo l’individuo era libero di osservare il laboratorio e gli stimoli sperimentali e quindi di spostarli o modificarli nel caso lo infastidissero. Passati due minuti lo sperimentatore rientrava e sottoponeva al partecipante la seconda parte dell’intervista riguardante l’induzione di Not just right experience (ad esempio veniva valutato il grado di disagio indotto dagli stimoli) e gli eventuali comportamenti o modifiche messe in atto. Al termine della seconda parte dell’intervista (della durata di 10 minuti), a ogni partecipante veniva illustrato il vero scopo della ricerca e consegnato un diario di automonitoraggio da compilare nel corsa della settimana successiva (dove inserire le Not just right experiences esperite naturalmente indicandone la durata, l’intensità del disagio e l’urgenza di far qualcosa). Alla fine della settimana di automonitoraggio, i partecipanti riconsegnavano il diario presso il laboratorio.

 

Risultati e Conclusioni

Per quanto riguarda la prima ipotesi, secondo la quale il costrutto Not just right experience è specifico per il Disturbo Ossessivo Compulsivo, i risultati emersi dalle analisi hanno rilevato la presenza di un’associazione tra Not just right experience e Disturbo Ossessivo Compulsivo, anche dopo aver controllato le variabili quali depressione, ansia e worry; infatti all’aumentare del livello di Not just right experience aumenta anche la gravità delle caratteristiche ossessivo-compulsive. In particolar modo sono emerse associazioni più forti con il checking mentre associazioni più deboli con il washing, doubting, ordering e hoarding confermando parzialmente quanto emerso dagli studi di Coles e colleghi (2003). Inoltre è stata riscontrata la presenza di associazioni tra il Not just right experience e ansia, depressione e worry.

Rispetto alla seconda ipotesi, secondo la quale in ambito d’induzione di laboratorio chi ha elevati livelli di Not just right experience esperisce maggior disagio e spinta a modificare gli stimoli sperimentali rispetto a chi ha bassi livelli di Not just right experience, è stato osservato che il 33,98% del campione ha notato la presenza degli stimoli e ha provato una corrispondente sensazione di disagio e fastidio e il 26,21% ha compiuto un’azione per modificare l’ambiente sperimentale. Analizzando la presenza di differenze tra i due gruppi (Alto/Basso Not just right experience), nell’osservazione degli stimoli sperimentali e dei comportamenti emessi, i risultati però non hanno mostrato differenze statisticamente significative. Anche per quanto riguarda le sensazioni associate all’induzione (come ad esempio il grado di disagio provato di fronte agli stimoli che dovevano indurre una Not just right experience o la difficoltà nell’allontanare il pensiero dello stimolo disturbante), indagate mediante la seconda parte dell’intervista, non sono state riscontrate differenze statisticamente significative tra i due gruppi.

Questi risultati possono essere spiegati considerando il ruolo della responsabilità. Molto probabilmente, come osservato da Coles e collaboratori (2005), la responsabilità percepita dall’individuo può moderare la relazione tra Not just right experience e le reazioni associate ad esse (come ad esempio il disagio e l’impulso ad agire). Tale spiegazione è supportata anche dai modelli cognitivo-comportamentali (Salkovskis, 1985; Salkovskis et al., 2000), che affermano come sia proprio la valutazione della responsabilità, in relazione ai pensieri intrusivi, a determinare la reazione associata ad essi. Il campione di studenti ha infatti percepito una scarsa responsabilità durante l’induzione (se si osservano i valori medi del grado di responsabilità percepita durante l’induzione, questi sono molto bassi) dovuta probabilmente al contesto artificiale del laboratorio.

Per quanto riguarda la terza ipotesi, le persone con elevati livelli di Not just right experience hanno riportato valori medi di disagio, urgenza e durata maggiori durante le esperienze di Not just right, rispetto alle persone caratterizzate da bassi livelli di Not just right experience. Inoltre la presenza di questi risultati in un campione non clinico, suggerisce che le esperienze di Not just right siano comuni anche nella popolazione normale e, quindi, esperibili naturalmente nella vita quotidiana (Ghisi et al., 2010).

Dalle analisi dei risultati sono inoltre emerse delle associazioni tra alcuni domini cognitivi del Disturbo Ossessivo Compulsivo e le caratteristiche delle Not just right experiences, e nello specifico tra: la numerosità delle Not just right experiences con “perfezionismo” e “sovrastima del pericolo”; l’urgenza di agire con “perfezionismo”, “responsabilità per danno”, “sovrastima del pericolo” e “fusione pensiero e azione”; e infine il disagio con la “sovrastima del pericolo” e “fusione pensiero e azione”.

In conclusione, è possibile affermare che il fenomeno Not just right experience sia strettamente collegato con le caratteristiche sintomatologiche ossessivo-compulsive, e studi futuri potrebbero includere il fenomeno Not just right experience, all’interno dei fattori di vulnerabilità del Disturbo Ossessivo Compulsivo (Sica et al., 2013, 2015; Taylor et al., 2014). Ulteriori ricerche potrebbero inoltre indagare i substrati neuronali implicati sia nelle compulsioni effettuate per evitare una minaccia, sia in quelle effettuate con lo scopo di raggiungere uno stato di “just right” in quanto, se fossero mediate da differenti substrati, potremo avere importanti ricadute a livello del trattamento farmacologico (Ghisi et al., 2010).

Infine da un punto di vista clinico, la conferma di un ruolo fondamentale del Not just right experience nel Disturbo Ossessivo Compulsivo, metterebbe in discussione le abituali strategie terapeutiche (es. esposizione e prevenzione della risposta, ERP), in quanto proprio nei pazienti con Disturbo Ossessivo Compulsivo e con elevata Not just right experience, si è rilevata una minor risposta a questo tipo di trattamento (Foa, Abramowitz, Franklin & Kozak, 1999; Summerfeldt, 2004).

Sarà ora di infrangere qualche tabù? Gli effetti terapeutici degli allucinogeni e delle sostanze psicoattive

Hofmann lavorò a fondo per analizzare l’ LSD, i suoi effetti e i possibili danni collaterali, prima che quest’ultima diventasse una droga illegale. Studiò i principi di altre due droghe sintetiche messicane usate in contesti cerimoniali e religiosi, (il fungo teonanacati e il convolvolo magico ololiuqui); le ricerche evidenziarono lo stretto legame tra la struttura chimica di questi principi attivi isolati dalle due piante e quindi di origine naturale e dell’LSD, dimostrando, secondo lui, la “bontà” di queste sostanze (Hofmann, 1958).

Silvia Pomi, Giorgia Righi, OPEN SCHOOL Studi Cognitivi Modena

 

Allucinogeni: cosa sono e quali effetti generano

Allucinogeni, dal verbo latino alucinàri, allucinàri ovvero ingannarsi, derivante dalla radice greca alùo, alùsso, vaneggiare, esser fuori di sé, è un termine che racchiude vari gruppi eterogenei di sostanze capaci di alterare in modo netto le percezioni, i pensieri e le sensazioni. Sono sostanze, per lo più di origine vegetale, ancora oggi usate in cerimonie medico-magico-religiose presso le culture tradizionali, soprattutto dell’America Latina. Attualmente, a fianco di quelle naturali, si usano anche sostanze allucinogene semisintetiche (LSD) o sintetiche.

Allucinogeni sono gli psichedelici veri e propri come l’LSD, la mescalina, il DMT (dimetiltriptamina) o la psilocibina, i dissociativi come la ketamina, il PCP (fenciclidina) e i delirogeni (spesso anche velenosi) come lo stramonio comune o l’atropa belladonna (Rotella, 1977).
A differenza di altre sostanze psicoattive, come oppiacei e stimolanti, queste sostanze non si limitano ad amplificare gli stati usuali della mente ma inducono esperienze qualitativamente diverse da quelle della coscienza ordinaria. Queste esperienze sono spesso paragonate a stati di coscienza non-ordinari, come la trance, la meditazione, e i sogni.

[blockquote style=”1″]È considerata allucinogena la proprietà d’una sostanza (naturale o di sintesi) che, agendo sui recettori del sistema nervoso centrale (SNC), provoca delle alterazioni psicosensoriali nelle percezioni, principalmente a carico della sfera visiva e nei processi del pensiero, dell’emozione e della coscienza di durata e intensità variabile a seconda del tipo, della quantità e della modalità d’assunzione della sostanza, fino a raggiungere delle vere e proprie allucinazioni “isolate” dal contesto ambientale.[/blockquote] (Hollister, 1968)

I “funghi magici” (contenenti psilocibina e la psilocina) sono utilizzati da secoli da diverse tribù indigene nordamericane e l’uso cerimoniale risale almeno al tempo degli Aztechi e dei Maya. La loro importanza culturale è riflessa nel nome azteco dei funghi (teonanàcatl, carne degli dei). Tuttavia, in mancanza di riscontri, la scienza ufficiale ne ha per secoli disconosciuto l’esistenza (Schultes, 1940).
Si è dovuto aspettare Wasson (1958) e il suo fortunato incontro con una sciamana, per avere la certezza della loro esistenza e una descrizione dettagliata del loro uso e dei loro effetti.

 

LSD: la droga degli hippy e gli impieghi in psichiatria

La dietilammide-25 dell’acido lisergico (LSD) fu invece scoperta nel 1938 da Albert Hofmann, chimico della società farmaceutica Sandoz, nell’ambito di una ricerca sui derivati dell’acido lisergico, il nucleo dei principi attivi della Claviceps purpurea (“segale cornuta”, fungo parassita della segale). Le sue proprietà allucinogene, e la sua straordinaria potenza (l’LSD è attivo a dosi di milionesimi di grammo) furono scoperte per caso, a seguito dell’involontaria ingestione di una piccola quantità da parte dello stesso Hofmann.

Hofmann lavorò a fondo per analizzare l’LSD, i suoi effetti e i possibili danni collaterali, prima che quest’ultima diventasse una droga illegale. Studiò i principi di altre due droghe sintetiche messicane usate in contesti cerimoniali e religiosi, (il fungo teonanacati e il convolvolo magico ololiuqui); le ricerche evidenziarono lo stretto legame tra la struttura chimica di questi principi attivi isolati dalle due piante e quindi di origine naturale e dell’LSD, dimostrando, secondo lui, la “bontà” di queste sostanze (Hofmann, 1958).

Durate gli anni Sessanta l’LSD fece la sua comparsa nel panorama delle droghe, divenendo per un certo periodo di tempo, soprattutto negli Stati Uniti, una delle droghe di più largo consumo. A questo si aggiunse che l’LSD divenne una droga di culto degli hippy e di altri movimenti che contestavano il sistema. Questo e l’inquietante azione psichica che provocava, portò alla messa al bando totale dell’LSD e delle sostanze affini. (Hoffman, 1979). La produzione, il possesso, il consumo e il suo impiego in psichiatria divennero reati perseguibili.
Questo divieto dura tuttora. L’uso terapeutico venne quindi interrotto e a detta di Hofmann fino ad allora non vi erano stati pericoli dimostrati del suo utilizzo in contesto psichiatrico.

Nei primi quindici anni dalla sua scoperta, l’LSD venne impiegata esclusivamente in psichiatria e nella ricerca biologica.

La prima ricerca sistematica con LSD su soggetti umani è stata condotta presso una clinica psichiatrica dell’Università di Zurigo; Stoll pubblicò i suoi risultati nel 1947; gli esperimenti coinvolsero individui sani e schizofrenici e vennero utilizzate dosi minime (tra 0,02 e 0,13 mg) di acido lisergico. La ricerca evidenziò l’emergere di stati mentali marcatamente euforici; l’effetto straordinario e profondo dell’LSD veniva messo in relazione all’attività di sostanze presenti in quantità minime nell’organismo, considerate responsabili di alcuni disordini mentali. Un altro aspetto affrontato in questa prima pubblicazione riguardava la possibilità di utilizzare questa potente sostanza psicoattiva come strumento di ricerca psichiatrica (Stoll, 1947).

L’impiego dell’LSD in psicoterapia si basava principalmente secondo Hofmann su effetti psichici quali alterazione della normale visione del mondo, trasformazione e disintegrazione profonde. Un’altra caratteristica significativa da lui individuata era la possibilità che contenuti d’esperienza rimossi e da lungo tempo dimenticati tornassero di nuovo alla coscienza.[blockquote style=”1″] Qualora la psicoanalisi cercasse di rintracciare eventi traumatici nella vita del paziente, questi potrebbero diventare accessibili al trattamento terapeutico[/blockquote] (Hofmann, 1979).

Hofmann affermava che numerosi casi individuali esaminati in contesto analitico sotto l’azione di LSD riferivano di esperienze infantili rievocate con estrema chiarezza. Non si trattava del normale ricordo di, ma del rivivere un’esperienza passata.
Secondo lo studioso i benefici che questo farmaco apportavano in psicoanalisi e in psicoterapia derivavano da proprietà diametralmente opposte a quelle dei cosiddetti psicofarmaci ansiolítici: [blockquote style=”1″]Mentre gli ansiolitici tendono a coprire i problemi e i conflitti del paziente, riducendone la gravità e l’importanza, l’LSD, al contrario, li fa vivere in maniera più intensa[/blockquote] (Hofmann, 1979).

Hofmann inoltre aveva analizzato l’impiego dell’LSD nelle ricerche sperimentali sulla natura delle psicosi. Questo interesse nasceva dalla similitudine osservata tra gli straordinari stati psichici prodotti sperimentalmente dall’LSD in soggetti sani e le molteplici manifestazioni di certi disturbi mentali. Nei primi tempi della ricerca sull’LSD, veniva spesso sostenuto che l’alterazione indotta da questo farmaco avesse a che fare con una «psicosi modello». L’ipotesi fu comunque abbandonata, perché estese indagini comparative evidenziarono delle diversità essenziali tra le manifestazioni psicotiche e l’esperienza con LSD. Tuttavia, grazie a questo «modello» è stato possibile studiare le deviazioni dalle normali condizioni psichiche e mentali, e osservare le modificazioni biochimiche ed elettrofisiologiche associate a queste (Hofmann, 1979).
Dopo oltre trent’anni dalla morte di Hofmann, l’acido lisergico, considerato da lui stesso il suo “bambino difficile”, il più famoso tra tutti gli allucinogeni, ritorna nei laboratori di ricerca.

In diverse nazioni quali Gran Bretagna, Svizzera e Stati Uniti, ad oggi sono riprese le ricerche per capire le potenzialità terapeutiche di ayahuasca, mescalina, ma soprattutto LSD.
Tanti sono gli ostacoli.
Lo psichiatra James Rucker del King’s College di Londra ha scritto sul British Medical Journal [blockquote style=”1″]le sostanze psichedeliche dovrebbero essere riclassificate dal punto di vista legislativo affinché i ricercatori possano studiarle.[/blockquote]

Centinaia di ricerche hanno dimostrato l’utilità di LSD e psilocibina per molti disturbi psichiatrici come problemi di sviluppo della personalità, comportamenti recidivi e ansia esistenziale. Gli allucinogeni [blockquote style=”1″]hanno più restrizioni di eroina e cocaina, ma non è dimostrato che creino dipendenza e ci sono poche prove che siano dannosi in contesti controllati[/blockquote] (Rucker, 2015).

 

La somministrazione dell’ LSD ai malati terminali

Uno degli impieghi medicinali dell’LSD che tocca questioni etiche fondamentali, concerne la sua somministrazione alle persone in fin di vita. Questa pratica nacque nelle cliniche americane, quando alcuni medici si accorsero che gli stati particolarmente gravi di sofferenza nei malati di cancro, su cui gli antidolorifici convenzionali non sortivano più alcun effetto, potevano essere alleviati o addirittura soppressi tramite la somministrazione di piccole dosi di LSD. Ciò non implica ovviamente un’azione analgesica classica.

[blockquote style=”1″]La diminuzione della sensibilità al dolore può verificarsi perché i pazienti sotto l’effetto di LSD vivono uno stato di dissociazione psichica dal corpo che impedisce al dolore l’accesso alla loro consapevolezza.[/blockquote] (Dutton, 1977).

Recentemente lo psichiatra Peter Gasser (2014) ha studiato gli effetti dell’LSD sui malati terminali; i risultati mostrano una diminuzione dei livelli di ansia e paura di morire. [blockquote style=”1″]I rimpianti, le emozioni dolorose di quest’ultima fase della vita sono svanite [/blockquote]riferiscono i pazienti della ricerca. Gasser et al. (2014) stanno conducendo test con Lsd e psilocibina per trattare depressione, cefalea a grappolo, disturbi ossessivi compulsivi e disturbi post-traumatici da stress.

Ross, Bossis e Guss (2015) della New York University hanno mostrato che una sola dose di psilocibina fornisce una diminuzione immediata di ansia e depressione in pazienti oncologici e i benefici si protraggono per mesi.

La Multidisciplinary Association For Psychedelic Studies (MAPS) è l’associazione americana (Sarasota, Florida 1986) che sostiene, finanzia, pubblica informazioni, scientificamente provate, sull’argomento. Anche Amanda Feilding, contessa di Wemyss and March, attraverso la Beckley Foundation (Oxford, 1998) promuove la ricerca.

Grazie a questa fondazione sono stati finanziati diversi studi sull’LSD Di Robin Carhart-Harris (2016) del centro di neuropsicofarmacologia dell’Imperial College di Londra.

 

Studi sugli impieghi dell’ LSD

Il ricercatore inglese è stato tra i primi ricercatori a somministrare psilocibina nel trattamento della cefalea a grappolo. Robin Carhart-Harris (2016) si è dato una spiegazione sul perché l’utilizzo di queste sostanze sia efficace: [blockquote style=”1″]La depressione e le dipendenze poggiano su schemi e modelli rinforzati dell’attività cerebrale e gli psichedelici introducono un relativo caos: in pratica questi schemi si disintegrano sotto l’effetto della sostanza allucinogena. Un po’ come quando si scuote una di quelle palle di vetro con dentro la neve finta. In passato ci sono stati casi di psicosi indotte da sostanze psichedeliche, soprattutto quando venivano assunte per uso ricreazionale e non terapeutico né controllato. Non è mai successo negli studi più attuali.[/blockquote]

Il ricercatore lancia poi la provocazione: [blockquote style=”1″]Gli psichedelici fanno paura perché rivelano la mente e le persone temono di sapere quello che c’è nella propria mente?[/blockquote] (Carhart-Harris, 2016).

In uno studio della durata di 12 mesi su 10 pazienti, Gasser et al. (2014) hanno cercato di indagare, attraverso la somministrazione dello STAI (State-Trait Anxiety Inventory,1989) e di un’intervista semi strutturata (che misurano rispettivamente l’intensità dell’ansia e la qualità della vita), l’effetto dell’LSD e i cambiamenti psicologici sul lungo periodo. Gli autori hanno potuto rilevare che l’LSD, somministrata in un setting psicoterapeutico controllato, può essere sicura e generare benefici duraturi nei pazienti.

Osorio et al. (2015) in un studio in un reparto psichiatrico ospedaliero, hanno cercato di valutare gli effetti di una singola dose di AYA (ayahuasca) in sei volontari con un episodio depressivo. Sono state osservate riduzioni statisticamente significative (fino al 82%) nei punteggi di depressione al primo, settimo e 21 giorno dopo la somministrazione di AYA, misurata con l’ Hamilton Rating Scale for Depression (HAM-D), il Montgomery-Asberg Depression Rating Scale ( MADRS), e il Brief Psychiatric Rating Scale (BPRS).
Questi risultati suggeriscono che l’ayahuasca ha effetti rapidi ansiolitici e antidepressivi nei pazienti con un disturbo depressivo.

Perfino in Norvegia, Paese in cui la legislazione anti-droga è rigidissima, il neuroscienziato della Norwegian University of Science and Technology Pal-Orjan Johansen ha fondato EmmaSofia, movimento per la riabilitazione e la produzione di ecstasy e psilocibina, il cui nome tiene insieme l’iniziale di Mdma e la traduzione greca di sapienza.

Il lavoro pubblicato sul Journal of Psychopharmacology (2012) ha esaminato i dati di sei studi e più di 500 pazienti scoprendo un “significativo effetto benefico” sull’abuso di alcol, durato diversi mesi dopo l’assunzione dell’Lsd.

I ricercatori hanno analizzato studi condotti sulla sostanza tra il 1966 e il 1970. I pazienti erano tutti coinvolti in programmi di trattamento dell’alcolismo, ma alcuni hanno ricevuto una singola dose di Lsd compresa tra 210 e 800 microgrammi, altri no. Nel gruppo dei pazienti che avevano preso l’allucinogeno il 59% ha mostrato ridotti livelli di abuso di alcol rispetto al 38% dell’altro gruppo. Questo effetto è stato mantenuto per sei mesi dopo aver assunto il farmaco, ma è scomparso dopo un anno. Quelli che avevano preso Lsd hanno anche riportato livelli più alti di astinenza. Gli autori del rapporto sottolineano che [blockquote style=”1″]una singola dose di Lsd ha un effetto significativamente positivo sull’abuso di alcol: dosi più regolari potrebbero portare a benefici più duraturi. Data l’evidenza di un effetto benefico sull’alcolismo, è sconcertante che questo approccio terapeutico sia stato ampiamente trascurato.[/blockquote]

Vollenveider (2010) in un suo articolo rifletteva su come, dopo una pausa di quasi 40 anni di ricerca sugli effetti delle droghe psichedeliche, i recenti progressi della ricerca sull’LSD, psilocibina e ketamina abbiano portato ad un rinnovato interesse per il potenziale clinico di queste sostanze psichedeliche nel trattamento di vari disturbi psichiatrici. Numerose recenti ricerche di neuroimaging e su base comportamentale hanno mostrato che le sostanze psichedeliche modulano i circuiti neurali che sono stati implicati in disturbi dell’umore e affettivi e possono ridurre i sintomi clinici ad essi associati.

Recenti studi clinici hanno prodotto nuovi importanti risultati per quanto riguarda la psicofarmacologia di queste sostanze. L’utilizzo delle tecnologie di neuro-imaging moderne e delle tecniche elettrofisiologiche sta cominciando a svelare come gli allucinogeni funzionino nel cervello; nuove ricerche stanno dimostrando l’efficacia terapeutica di queste sostanze (Halberstadt, 2015).

McCall (1982) verificò come basse dosi di LSD (dietilammide-25 acido lisergico) iniettate per via endovenosa, sopprimono la ricaptazione di serotonina nei neuroni del nucleo dorsale del rafe del ratto. L’effetto inibitorio dell’LSD sembra mediato quindi dai neuroni serotoninergici, mentre i neuroni del prosencefalo che ricevono un importante contributo serotoninergico sono relativamente insensibili a LSD. Altri allucinogeni (psilocina, dimethyltryptamine, e 5-methoxydimethyltryptamine) inibiscono la ricaptazione di serotonina nel nucleo del rafe rispetto ai neuroni postsinaptici del prosencefalo.

Secondo le analisi fatte da Delgrado et al (1998), il sistema del neurotrasmettitore serotonina (5-HT) è implicato nella fisiopatologia di diverse patologie neuropsichiatriche, in particolare ad esempio nel disturbo ossessivo-compulsivo (OCD). Il blocco di ricaptazione della serotonina sembra essere un importante evento neurobiologico iniziale nel meccanismo di azione terapeutica dei farmaci per i disturbi ossessivo-compulsivi. Tuttavia, per ragioni che continuano ad essere poco note, il miglioramento clinico dopo l’inizio del trattamento con inibitori della ricaptazione della serotonina può richiedere da otto a 12 settimane, e la maggior parte dei pazienti non migliora completamente. Dati recenti suggeriscono che l’attivazione della 5-HT può essere importante per il miglioramento dei sintomi OCD. Secondo Delgrado (1998), l’attivazione dei recettori 5-HT da parte degli allucinogeni può portare alla riduzione acuta di sintomi del disturbo ossessivo compulsivo.

La ricerca di Gonzales e Sealfon (2009) sulle sostanze psichedeliche come LSD e le droghe dissociative come la fenciclidina (PCP), ha mostrato che gli effetti di queste droghe assomigliano ad alcuni dei sintomi principali della schizofrenia. Alcuni farmaci antipsicotici atipici sono stati identificati grazie alla loro elevata affinità con i recettori serotoninergici, che sembra siano anche il bersaglio degli allucinogeni. Il complesso recettore di serotonina-glutammato nei neuroni piramidali corticali è stato identificato come possibile obiettivo sia delle sostanze psichedeliche che dei farmaci antipsicotici. Recenti risultati sul meccanismo di risposta ad allucinogeni e farmaci antipsicotici, possono portare all’unificazione di serotonina e glutammato come ipotesi neurochimiche della schizofrenia.

Lambe e collaboratori invece (2007) hanno dimostrato che gli allucinogeni psichedelici e la dopamina hanno effetti opposti sul glutammato extracellulare nella corteccia prefrontale; i ricercatori hanno ipotizzato che queste due famiglie di farmaci psicoattivi avrebbero effetti opposti sulle attività di rete corticale.

In Italia, in un’intervista, Claudio Mencacci (2016), direttore del Dipartimento di Neuroscienze e Salute Mentale dell’Azienda Ospedaliera Fatebenefratelli di Milano, afferma: [blockquote style=”1″]La ricerca va ripresa e non deve avere confini. Bisogna però tenere conto del fatto che ad oggi queste ricerche riguardano numeri davvero esigui; sono necessarie valutazioni con casistiche più ampie. Le ultime ricerche suggeriscono esiti positivi nel trattamento di alcuni disturbi come l’angoscia di morire nei malati terminali, i disturbi ossessivo-compulsivi, le dipendenze da alcol e le problematiche post-traumatiche da stress. C’è un problema etico di fondo. La ripresa degli studi non deve essere letta come un semaforo verde per l’impiego ricreazionale di queste sostanze.[/blockquote]

Oggi le ricerche sono condotte in condizioni protette, che consentono di mantenere una vigilanza sui potenziali effetti negativi; è quindi interessante che siano stati ottenuti esiti positivi e duraturi con poche somministrazioni. Gli stessi ricercatori però non sono ancora in grado di dare una spiegazione convincente sul perché questo accada.

Terapia della Gestalt e Gestalt Dialogica: il contatto è sufficiente a determinare il cambiamento della personalità?

In questi ultimi anni, riesaminando la teoria della terapia della Gestalt, ci si è posti la domanda se un approccio stadiale fosse ancora contemporaneo e soprattutto se potesse rispondere alle seguenti istanze: il contatto è sufficiente a determinare il cambiamento e l’accrescimento della personalità umana?

L’uomo è spirito. Ma che cos’è lo spirito? Lo spirito è L’io. […] L’uomo è una sintesi dell’infinito e del finito, del temporale e dell’eterno, di possibilità e necessità, insomma, una sintesi.

(Kierkegaard S.)

Ogni cosa realizzata dall’uomo rappresenta una sintesi, e non c’è novità più vitale nel mondo che la sua presenza creativa attraverso la sua attività.

 

In questi ultimi anni, riesaminando la teoria della terapia della Gestalt, descritta nel suo testo fondamentale del 1951 da Perls F., Hefferline R. F. e Goodman P., ci si è posti la domanda se un approccio stadiale, focalizzato essenzialmente sul confine di contatto tra organismo e ambiente, fosse ancora contemporaneo e soprattutto se potesse rispondere alle seguenti istanze: il contatto è sufficiente a determinare il cambiamento e l’accrescimento della personalità umana? Che differenze ci sono tra “contatto” e “relazione” e in che rapporto sono tra loro?

Verificando in questi ultimi anni i numerosi casi clinici osservati durante le psicoterapie, si è giunti alla convinzione che l’approccio stadiale, le interruzioni al contatto e il concetto stesso di contatto, non potevano chiarire molti comportamenti dell’individuo e soprattutto non erano in grado di cogliere tutta la freschezza creativa che possiede la persona, le sue risorse e la sua competenza trasformativa che soltanto la relazione con l’altro può attivare.

Per giungere a tali considerazioni, si è seguito il criterio che tuttora si crede essere il più puntuale e rigoroso possibile, ovvero esporre le integrazioni teoriche attraverso i casi clinici, così da coniugare la teoria con la prassi terapeutica, per elaborare un metodo il più possibile analitico ed esplicativo.

 

Terapia della Gestalt: da una teoria stadiale ad una visione dinamica

La terapia della Gestalt del PHG (sono le iniziali degli autori del già menzionato testo: Teoria e pratica della terapia della Gestalt) considera il sé come la funzione di stabilire contatto col presente reale e transitorio. Il sé, quindi, non è né una forma rigida né tanto meno un’istanza psichica, ma una funzione. Infatti, l’attività del sé è un processo temporale inserito in stadi che vanno dal contatto preliminare al contatto, e dal contatto finale al post-contatto.

Durante questo processo, il sé può interrompere il contatto creativo con l’ambiente attraverso la confluenza, l’introiezione, la proiezione, la retroflessione e l’egotismo.

Per chiarire il più possibile il funzionamento dell’organismo in situazione, la terapia della gestalt introduce tre tipicità particolari che il sé utilizza ogni qualvolta vuole soddisfare degli scopi speciali. Tali funzioni sono: l’Es, l’Io e la Personalità.

L’Es rappresenta, nello stadio iniziale, lo sfondo costituito dalle eccitazioni organiche, la percezione indistinta dell’ambiente, le primissime sensazioni che collegano l’organismo al suo ambiente. Stiamo parlando degli aspetti corporei e sensoriali, perlopiù inconsapevoli, nello stadio del rilassamento.

La funzione dell’Io è quella d’identificare o di alienare le varie possibilità, intensificando o riducendo il contatto e mobilizzando le risorse necessarie per aggredire l’ambiente.

La Personalità è l’ultima tipicità del sé e rappresenta gli atteggiamenti assunti nei rapporti interpersonali ed è l’assunzione di ciò che l’individuo è. La visione stadiale appena descritta, con la perdita delle funzioni dell’Io e le modalità di interruzione al contatto, spesso in terapia non trova un’applicazione coerente ed efficacie, in quanto la relazione è imprevedibile e difficilmente ordinabile in stadi prestabiliti.

Anche per tale ragione, a questa visione, si è pensato di integrare una prospettiva evolutivo/dinamica con le strutture relazionali.

Tali strutture (il sé metabolico, simbolico, espressivo, metacognitivo e sincronico) sono continuamente in interazione tra loro, non sono stadi che si attivano appena quello precedente ha completato la sua maturazione, ma l’evoluzione avviene in una crescita globale e armonica. Le strutture dinamiche del sé si mescolano e si combinano tra loro creando altre strutture, senza un ordine prestabilito, ma secondo il contesto e l’interazione tra l’individuo e il suo ambiente. Usando una metafora, tale armonizzazione è come quella che accade tra i colori e i suoni, che tendono ad accordarsi o legarsi tra loro poiché questa è la loro natura, una natura relazionale. Ogni colore ha una sua identità, ma è nello stesso tempo il risultato dell’insieme di altri colori. Il singolo elemento esiste per dare forma al tutto, il quale a sua volta tende a realizzare la sua forma poiché è il tutto che determina le parti.

 

Contatto e relazione nella terapia della Gestalt

Leggendo il testo fondamentale della terapia della Gestalt, già menzionato, la parola contatto si ripete per 456 volte, quella organismo/ambiente 346, mentre il termine relazione soltanto 36. Senza dubbio, il contatto è un momento topico per la terapia della Gestalt, ma come vedremo in seguito, tale esperienza non è in grado da sola a spiegare lo sviluppo poliedrico e polifonico del sé ( il termine polifonico è una creazione di Margherita Spagnuolo Lobb, che descrive lo sviluppo dei domini come la complessità che anima il fare contatto nel presente attraverso diverse competenze armonizzate tra loro).

Se per il PHG l’unità di misura è il contatto, secondo la presente prospettiva essa è rappresentata dalla relazione. Che differenza c’è tra «contatto» e «relazione»? Perché l’essere umano è relazionale? Da dove ha origine l’intenzionalità relazionale, la tensione al «tra»? Cosa avviene e cosa diviene l’essere umano in rapporto con l’altro? Cosa ci rende persone, ovvero esseri pensanti capaci di discernere?

Per cercare di rispondere a tali questioni ci si potrà avvalere del noto avvenimento di Victor, il ragazzo selvaggio dell’Aveyron alla periferia di Parigi nel 1800.

Victor rappresenta un caso davvero molto raro ed interessante di un essere umano cresciuto senza nessun tipo di relazione con i propri simili. Affidato alle cure di Jean Itard, un medico francese, che tentò attraverso un programma di rieducazione di introiettare nel ragazzo quei tratti culturali tipicamente umani (come il linguaggio e saper discernere tra bene e male) che non poteva aver appreso senza la relazione con altri esseri umani. Dopo circa cinque anni di tentativi, Itard fu costretto ad abbandonare l’impresa e Victor non imparò mai a parlare.

Questo particolarissimo evento ci mostra chiaramente che il contatto con l’ambiente non basta a determinare il salto evolutivo necessario allo sviluppo delle nostre funzioni psichiche superiori. L’ambiente ci stimola ad un tipo di adattamento molto limitato rispetto a quello offerto dalla relazione con l’altro, poiché è soltanto la relazione a tradurre in atto ciò che nel nostro profondo è ancora in potenza. Il rapporto con l’ambiente non è sufficiente a determinare la crescita esponenziale che può trasformate un essere vivente in persona con una cultura e una storia.

La differenza tra contatto e relazione è immensa: il primo è in grado di far sviluppare le nostre capacità fisiologiche, conducendoci sulla soglia dell’intelletto, ma è la relazione a fornire l’energia necessaria per superare la nostra stessa soggettività, attivando la creatività del pensiero umano.

 

Segno, simbolo e pensiero

Quali sono le radici del pensiero e come si sviluppa la mente creativa? Osserviamo, ad esempio, il bambino di alcuni mesi: egli vede per la prima volta un oggetto, lo indica spontaneamente alla madre, con la tensione del braccio e delle dita della mano, perché lo vuole raggiungere.

L’intenzionalità, la coscienza “rivolta a …” è già presente, ma le sue conoscenze sono ancora incomplete. Lui vede l’oggetto di fronte a sé, ma questo ancora non ha un senso, poiché non ha nome. L’oggetto concreto – il bicchiere per esempio– rappresenta la cosa in sé, qualcosa che ancora non può essere concepito dal bambino perché non è concepibile; il piano della conoscenza si rivoluziona quando l’adulto indicando o prendendo l’oggetto, gli assegna un nome: bicchiere. La cosa in sé diviene la cosa per l’altro (per la madre), e lo rende conoscibile al bambino per mezzo di una etichetta verbale. L’oggetto-bicchiere si unisce così al segno-parlato che l’adulto ha prodotto, rendendolo identificabile. Ma è soltanto nell’ultimo passaggio, in cui la cosa per l’altro diviene la cosa per sé, cioè quando il bambino introietta la parola pronunciata dalla madre, che ciò che era esterno e senza significato, diviene interno e simbolico (sìmbolo s. m., dal lat. symbŏlus e symbŏlum, gr. σύμβολον «accostamento», «segno di riconoscimento», «simbolo», der. di συμβάλλω «mettere insieme, far coincidere»; comp. di σύν «insieme» e βάλλω «gettare»), psicologico e pensabile. In questa fase, il bambino non solo incomincia ad acquisire un codice linguistico, ma interiorizza simboli (vocaboli) contenenti un frame, un’icona relazionale. Per usare una metafora, possiamo immaginarci la parola come un treno con tanti vagoni di cui uno di essi è sempre costituito dalla relazione.

Ciò che si vuole dire è che la crescita della persona e delle sue funzioni psichiche superiori può avvenire solo in relazione con un altro essere umano e soltanto il rapporto intersoggettivo può attivare gli aspetti peculiari che gli sono propri; la creatività, che permette all’individuo, in modo deliberato e completamente affrancato da necessità vitali, di produrre difficoltà e problematicità per bisogni di fatto “non-bisogni”, non è determinata dal contatto con l’ambiente, ma dalla relazione con un proprio simile. Ogni essere vivente ha come scopo quella di adattarsi al proprio ambiente per sopravvivere, ma soltanto il soggetto umano può mettere in atto comportamenti creativi che non hanno nulla a che fare con tali necessità. Egli crea per il piacere di creare, e tali attività sono il mezzo per comprendere se stesso e la sua esistenza.

I contatti creati dall’interazione con l’ambiente esterno (problematicità oggettive), derivanti dai nostri bisogni primari, ci permettono di adattarci al contesto, ma quelli che si attuano in rapporto a rappresentazioni mentali, cioè a “problemi” creati ad hoc ed esclusivamente umani, s’instaurano soltanto con il rapporto con l’altro, attivando le strutture dinamiche relazionali che, grazie al costante rapporto intersoggettivo, divengono sempre più complesse.

L’edificazione di questi ultimi determina lo sviluppo degli altri, in un rapporto evolutivo, in cui quelli “inferiori e più vecchi nella storia dello sviluppo non vengono messi da parte, ma continuano a funzionare in un contesto più comprensivo, come istanze subordinate sottoposte al dominio di quelle superiori” (Vygotskij L. S., 1931, Storia dello sviluppo delle funzioni psichiche superiori), specializzandosi sempre più.

È la relazione che precede il contatto, non viceversa: il rapporto intersoggettivo dà origine allo sviluppo di particolari capacità adattive che, esperienza dopo esperienza, si “complessificano” fino a trasformarsi completamente.

Il contatto avrebbe in sé un valore secondario, se non ci fosse la relazione umana, tale da trasformarlo da semplice adattamento in “molecola creativa” relazionale. In conclusione, per quanto riguarda l’individuo il processo adattivo e quello creativo sono capacità separate e con uno sviluppo altrettanto indipendente; il primo, come per tutte le altre specie viventi è determinato dal contatto con l’ambiente, l’altro dalla relazione con un altro essere umano.

VAI ALLA SECONDA PARTE DELL’ARTICOLO

­­La stimolazione cerebrale non invasiva può alleviare la sintomatologia bulimica

Recentemente, i ricercatori del King’s College di Londra hanno messo in luce come i principali sintomi legati alla Bulimia Nervosa si riducano notevolmente grazie alla stimolazione elettrica non invasiva (tDCS) di determinate aree del cervello.

 

La bulimia nervosa

La bulimia nervosa è un disturbo del comportamento alimentare per cui una persona affetta ingerisce una quantità eccessiva di cibo, definita abbuffata, per poi ricorrere a diverse condotte di eliminazione, come autoinduzione di vomito, utilizzo di lassativi o intenso esercizio fisico, nel tentativo di non metabolizzare quanto mangiato. Generalmente, alle abbuffate si alternano periodi di rigide restrizioni alimentari, fino al digiuno, motivate da un voler tenere sotto controllo il proprio peso; a questo tipo di comportamento, però, conseguono ulteriori abbuffate e così via in un circolo vizioso che, nel tempo, diviene a tal punto compulsivo da essere, per certi aspetti, paragonabile ad una dipendenza.

In linea di principio, quindi, tre sono gli aspetti che caratterizzano una persona affetta da bulimia nervosa: la persona deve avere frequenti abbuffate, durante le quali mangia grandi quantità di cibo in presenza di un senso di perdita di controllo; la persona in seguito deve ricorrere a uno o più metodi estremi di controllo del peso e, infine, la persona deve sovrastimare l’importanza della propria forma fisica o peso corporeo, giudicando se stessa in larga parte nei termini della propria capacità di controllare forma e peso del corpo (Fairburn, 1996).

Tipicamente, la bulimia nervosa si sviluppa durante l’adolescenza e riguarda più comunemente le donne. Secondo alcuni dati, infatti, l’1-2% delle donne soddisferebbe i criteri per la bulimia nervosa in un qualche periodo della propria vita. Oltre a riguardare la sfera dell’alimentazione, inoltre, questo disturbo porta molto spesso ad ulteriori disturbi sia mentali, come depressione e ansia, sia fisici, come insufficienza cardiaca e renale, fino a portare a morte prematura in circa il 4% delle persone affette.

 

Il trattamento della bulimia nervosa

A livello terapeutico, la psicoterapia cognitivo-comportamentale (CBT) è considerata essere il trattamento d’elezione nella cura della bulimia nervosa, per quanto spesso venga messa in atto parallelamente ad una terapia farmacologica con antidepressivi. Nonostante questo, però, una buona percentuale di pazienti con bulimia nervosa non risulta essere responsiva alla psicoterapia, anche per questioni di compliance riguardanti l’assunzione di farmaci.

Nel tentativo di aumentare l’efficacia di questo tipo di trattamenti, la comunità scientifica è, negli ultimi anni, alla ricerca di nuove alternative di cura, facendo riferimento anche a tecnologie di derivazione neuroscientifica, proprio con lo scopo di trovare terapie specifiche che possano essere in grado di agire in modo specifico sulle basi neurali dei disturbi dell’alimentazione, che si ritiene essere legate all’autocontrollo e all’elaborazione della ricompensa. Ad esempio, l’essere di cattivo umore potrebbe portare ad una abbuffata andando ad alterare il valore del cibo come ricompensa e diminuendo il grado di autocontrollo. Infatti, all’interno della letteratura scientifica sono presenti evidenze circa l’esistenza di un’associazione tra la bulimia nervosa e l’alterazione in regioni cerebrali implicate proprio nei processi di autocontrollo (Marsh et al., 2009); è quindi possibile che un intervento volto a normalizzare l’attività in queste aree possa apportare dei benefici a livello della sintomatologia bulimica.

 

La stimolazione cerebrale nella cura dei sintomi della bulimia nervosa

A tal proposito, recentemente, Kekic e collaboratori hanno condotto una ricerca con lo scopo di indagare se la stimolazione elettrica della Corteccia Prefrontale Dorsolaterale (DLPFC), notoriamente coinvolta nei processi di autocontrollo e di elaborazione della ricompensa, potesse apportare dei benefici nella sintomatologia di pazienti affetti da bulimia nervosa.

Per poter far ciò, gli autori hanno utilizzato la tDCS (stimolazione transcranica a corrente diretta), una tecnica di facile applicazione che permette di stimolare diverse parti del cervello in modo non invasivo, indolore e senza effetti collaterali significativi (le percezioni più frequenti sono lieve pizzicorio, prurito e calore all’inizio della stimolazione nei punti in cui sono posizionati gli elettrodi). La stimolazione consiste in una corrente elettrica continua a bassa intensità (1-2 mA), non percepita dalla persona, per periodi prolungati di tempo (5-30 minuti). La corrente viene applicata allo scalpo tramite una coppia di elettrodi (uno eccitatorio, anodo, e uno inibitorio, catodo) e permette così di influenzare l’eccitabilità corticale, e quindi l’attività neuronale, della regione posta sotto gli elettrodi stessi. Estremamente rilevante a livello clinico è il fatto che, ripetendo la stimolazione più volte nel corso del tempo, si può dar luogo a modificazioni dell’attività cerebrale in modo stabile e duraturo (Bolognini et al., 2009).

Studi precedenti avevano già dimostrato come la stimolazione anodica (eccitatoria) della DLPFC, destra o sinistra, e catodica (inibitoria) dell’area controlaterale riducessero il rischio di comportamento impulsivo durante compiti di presa di decisione (Fecteau et al., 2007). Ulteriori ricerche hanno anche messo in luce come la stimolazione magnetica transcranica ripetuta (rTMS) applicata alla DLPFC riducesse, dopo una sola sessione, il desiderio di cibo (definito craving, analogamente alle dipendenze) e il numero di abbuffate nelle 24 ore successive in persone affette da bulimia nervosa (Van den Eynde et al., 2010). Inoltre, la stimolazione con tDCS a livello della DLPFC ha collezionato negli anni una serie di riscontri positivi per quanto riguarda il trattamento di pazienti obesi, con anoressia nervosa e anche con binge eating disorder (Sauvaget et al., 2015; Kekic et al., 2014; Khedr et al., 2014).

 

Effetto della stimolazione transcranica sui pazienti affetti da bulimia nervosa

Per poter indagare per la prima volta in modo specifico l’effetto della tDCS su pazienti affetti da bulimia nervosa, Kekic e collaboratori (2017) hanno coinvolto un campione di 39 adulti affetti da bulimia nervosa, sottoponendoli a tre diverse sessioni di stimolazione, a 48 ore di distanza l’una dall’altra, in ordine randomizzato, controbilanciato e utilizzando una procedura in doppio cieco: anodica destra/catodica sinistra, anodica sinistra/catodica destra e sham. I soggetti partecipanti sono stati inoltre valutati con batterie neurocognitive e psicologiche sia prima sia dopo ogni sessione per valutare i livelli di autostima e autocontrollo, il desiderio di abbuffarsi e il grado di preoccupazioni riguardo al peso, alla forma corporea e alla quantità di cibo consumato. Un’ulteriore misurazione è stata fatta relativamente alla frequenza dei comportamenti bulimici nelle 24 ore successive al trattamento.

Dalle analisi è emerso che la stimolazione elettrica cerebrale su pazienti con bulimia nervosa porta, in confronto alla stimolazione sham, ad una diminuzione del bisogno di abbuffarsi e ad un aumento dei livelli di autocontrollo. Più nello specifico, dopo la stimolazione con tDCS è stato possibile rilevare una diminuzione del 31% dei punteggi riguardanti le scale sul bisogno di abbuffarsi. Per quanto riguarda l’autocontrollo, poi, i partecipanti sono stati sottoposti ad un compito decisionale di tipo economico, nel quale veniva chiesto loro di scegliere tra il ricevere immediatamente una piccola quantità di denaro e il ricevere dopo tre mesi una grande quantità di denaro. Dopo le sessioni tDCS, non sham, i soggetti risultavano essere più propensi a posporre la gratifica, scegliendo quella differita nel tempo e dimostrando così un miglioramento a livello della presa di decisioni, più controllate e lungimiranti.

 

La riduzione dei sintomi della bulimia nervosa tramite stimolazione cerebrale

In conclusione, quanto emerso dallo studio suggerisce che le tecniche di stimolazione cerebrale non invasiva siano effettivamente in grado di diminuire, se non sopprimere, il bisogno di abbuffarsi, riducendo anche la gravità dei tipici sintomi della bulimia nervosa, per lo meno in modo temporaneo. Secondo gli autori, questo sarebbe possibile grazie all’aumento dei livelli di controllo cognitivo, dato dalla stimolazione della DLPFC, che permetterebbe di controbilanciare gli aspetti compulsivi che caratterizzano questo tipo di disturbo alimentare.

Inoltre, questa nuova prospettiva terapeutica per il trattamento della bulimia nervosa risulta essere estremamente vantaggiosa e di facile applicabilità. La tDCS, infatti, è una delle tecniche di stimolazione cerebrale tra le più economiche e facilmente trasportabili. Questo apre così anche la strada alla possibilità di un futuro trattamento per la bulimia nervosa auto-somministrabile dai pazienti stessi in parallelo ad interventi psicoterapeutici.

Per quanto lo studio di Kekic e collaboratori sia stato il primo ad indagare gli effetti della stimolazione tramite tDCS in pazienti con bulimia nervosa e per quanto, quindi, i risultati ottenuti siano ancora di entità modesta e necessitino di ulteriori conferme, in generale quanto emerso mostra chiaramente un miglioramento a livello della sintomatologia bulimica e delle abilità decisionali dopo solo una sessione di stimolazione. Gli autori ritengono quindi che l’implementazione dello studio svolto, coinvolgendo un campione di persone più ampio e utilizzando sessioni di trattamento multiple effettuate lungo un prolungato periodo di tempo, potrebbe portare, con buone probabilità, a miglioramenti più solidi e consistenti.

Il Disturbo D’ansia Sociale: la Validazione Italiana Della Liebowitz Social Anxiety Scale (Lsas) – Partecipa alla ricerca

L’ansia sociale è una condizione che ognuno di noi vive quotidianamente, ma quando diventa invalidante e non ci permette di vivere la vita al meglio delle nostre possibilità diventa un vero e proprio disturbo, il disturbo d’ansia sociale.

 

Caratteristiche del disturbo d’ansia sociale

Il disturbo d’ansia sociale (prima chiamato fobia sociale) è molto comune tra la popolazione. Secondo alcuni studi, la percentuale di persone che ne soffre va dal 3% al 13% e sembra insorgere più frequentemente tra le donne che tra gli uomini. L’età di esordio si colloca generalmente durante l’adolescenza o nella prima età adulta.

Questo disturbo si caratterizza per la paura marcata e persistente di una situazione sociale, prevista o da affrontare, in cui si è esposti al giudizio degli altri, come ad esempio parlare in pubblico. Nelle situazioni sociali temute, gli individui con disturbo d’ansia sociale sono preoccupati di apparire imbarazzati e, soprattutto, sono timorosi che gli altri li giudichino ansiosi, deboli o stupidi. Possono quindi temere di parlare in pubblico per la preoccupazione di dimenticare improvvisamente quello che devono dire o per la paura che gli altri notino il tremore delle mani o della voce, oppure possono provare ansia estrema quando conversano con gli altri per paura di apparire loro poco chiari o, ancora, quando si trovano a magiare, bere o scrivere in pubblico per timore che gli altri possano vedere, ad esempio, le loro mani tremare.

Spesso le persone con problematiche di ansia sociale, al fine di abbassare i livelli d’ansia, evitano le situazioni temute, ma tale comportamento è un rinforzatore molto potente e mantiene il disturbo. Inoltre mettono in atto comportamenti protettivi quali mettersi le mani sul viso per nascondere il rossore o indossare maglioni per evitare che si noti la sudorazione sulla camicia. Queste strategie sono controproducenti e mantengono il circolo vizioso del disturbo d’ansia sociale.

 

Disturbo d’ansia sociale: la ricerca per la validazione italiana della Liebowitz Social Anxiety Scale (LSAS)

Il nostro gruppo di lavoro in collaborazione con IPSICO – Istituto di Psicologia Psicoterapia Cognitivo Comportamentale e l’Associazione Italiana per i Disturbi dell’Ansia Sociale (AIDAS) sta conducendo una ricerca, coordinata dal Dott. Nicola Marsigli, che ha un duplice obiettivo: promuovere la conoscenza del disturbo d’ansia sociale e dei suoi possibili trattamenti da un lato, aiutare a ridurre i pregiudizi che lo accompagnano all’interno della società dall’altro.

Per questo conduciamo con impegno attività di ricerca scientifica al fine di ampliare la conoscenza del disturbo e contribuire alla messa a punto di trattamenti sempre più efficaci.

Attualmente il progetto di cui ci occupiamo riguarda la rilevazione delle emozioni e dei pensieri tipici delle persone con disturbo d’ansia sociale. Stiamo procedendo infatti, alla validazione italiana della Liebowitz Social Anxiety Scale (LSAS), un breve questionario, sviluppato da Michael Liebowitz (da cui abbiamo ottenuto l’autorizzazione a procedere), utile alla diagnosi di disturbo d’ansia sociale.

Se vuole aiutarci in questa ricerca basta cliccare qui e sarà indirizzato ad un questionario completamente anonimo su come si sente abitualmente. Qualora volesse partecipare la ringraziamo per il suo contributo sia a nome del nostro gruppo sia da parte dell’intera comunità scientifica.

Se ha più di 18 anni soffre di un disturbo di ansia sociale o di una forte timidezza, e di conseguenza si riconosce in quanto potrà leggere in questa pagina, la invitiamo a partecipare all’indagine dedicandoci 20 minuti di tempo nel rispondere a una serie di questionari online, totalmente anonimi, cui potrà accedere cliccando qui:

https://it.surveymonkey.com/r/validazionelsas

 

Liberi di essere felici: credere nel libero arbitrio porta ad essere più felici

Le ricerche dimostrano che credere nel libero arbitrio è connesso al sentirsi più felici e questo avverrebbe non solo nelle popolazioni occidentali, ma anche in quelle orientali, suggerendo che il fenomeno possa essere considerato universalmente valido e non legato a differenze culturali.

 

Si è più felici se si crede nel libero arbitrio

Per libero arbitrio si intende, a livello teorico, l’abilità di poter fare scelte in completa autonomia, senza permettere che l’esito di queste scelte possa essere influenzato, se non totalmente deciso, da eventi passati. Credere nel libero arbitrio, quindi, comporta anche il credere che le persone possano agire liberamente per perseguire i propri obiettivi e migliorare la qualità della propria vita.

Per felicità si considera, invece, una generale sensazione di benessere percepita a livello soggettivo. Secondo Li e collaboratori (2017), autori di un recente articolo sul tema, credere nel libero arbitrio potrebbe portare ad un incremento di questa sensazione di benessere attraverso due diversi meccanismi. Infatti, il possedere questa credenza potrebbe portare, da un lato, ad un maggior livello di autonomia percepita e, dall’altro, al voler esercitare maggior autocontrollo, prendendo in mano la propria vita e impegnandosi per fare del proprio meglio.

Precedentemente, già molti altri studi avevano dimostrato quanto effettivamente risulti essere utile nella vita di tutti i giorni credere nell’esistenza del libero arbitrio, piuttosto che nel determinismo. Ad esempio, Vohs & Schooler (2009) hanno mostrato a livello empirico come le persone sembrino avere la tendenza a comportarsi in modo migliore quando credono di avere libero arbitrio, ovvero quando credono di potersi comportare liberamente; al contrario, la sfiducia nel libero arbitrio produrrebbe una sorta di segnale implicito inerente la futilità di fare lo sforzo di comportarsi correttamente, in quanto sarebbe già stato tutto stabilito a priori in base alle esperienze passate. Il credere nel determinismo, insomma, ridurrebbe la sensazione di responsabilità individuale.

Analogamente, Baumeister e colleghi (2009) hanno notato che il credere nell’effettiva esistenza del libero arbitrio possa essere cruciale nel motivare le persone a controllare i propri impulsi ad agire egoisticamente e in modo aggressivo, in quanto questo richiederebbe un notevole sforzo di volontà e di auto-controllo.

Se una persona crede fermamente di poter agire con libertà e senza restrizioni per ottenere quanto desidera, sarà anche più facile che essa deliberatamente si sforzi e si controlli per poter ottenere ciò nel miglior modo possibile; comportamento, questo, che inevitabilmente porterà al successo, innalzando così, come conseguenza ultima, anche il livello di benessere personalmente percepito.

Per quanto gli studi svolti nel tentativo di indagare il legame tra libero arbitrio e felicità siano ancora limitati, essi mostrano proprio l’esistenza di una correlazione positiva tra questi due costrutti (Crescioni et al., 2016), suggerendo così quanto credere nel libero arbitrio possa essere fondamentale anche a livello emotivo e personale, oltre che comportamentale.

 

Il legame tra felicità e libero arbitrio può variare a seconda delle culture?

Purtroppo però, gli studi relativi al tema si sono esclusivamente limitati a prendere in considerazione l’effetto che le credenze sul libero arbitrio hanno su popolazioni occidentali, precisamente utilizzando campioni americani.

Sarebbe quindi estremamente interessante indagare se questa correlazione sia valida anche per altre popolazioni, ovvero se possa considerarsi una caratteristica generale inerente la natura umana o se, al contrario, sia specifica della cultura occidentale contemporanea.

Secondo diversi studi, e anche secondo il sapere comune, infatti, le culture occidentali concettualizzano il libero arbitrio in modo differente rispetto a quelle orientali. Più nello specifico, all’interno della cultura occidentale, di stampo più individualista, si tende ad attribuire maggiore importanza alla libertà individuale, alle scelte personali e all’indipendenza. Al contrario, nelle culture orientali, di norma più collettiviste, vi è la tendenza a dare più valore alle norme sociali, agli obiettivi comunitari e all’interdipendenza, lasciando meno spazio a concetti quali la libertà personale, e quindi il libero arbitrio (Nisbett, 2010). È perciò possibile che anche gli outcome comportamentali derivati dal credere al libero arbitrio, invece che al determinismo, si differenzino in base alla cultura di appartenenza.

Proprio a tal proposito, Li e collaboratori (2017) hanno recentemente svolto due studi con lo scopo di indagare l’associazione tra libero arbitrio e benessere soggettivo all’interno di una popolazione di cultura orientale. Per poter fare ciò hanno coinvolto, nel complesso, più di 2,000 studenti cinesi, con un’età media di 16 anni, chiedendo loro di completare diverse misurazioni riguardanti il libero arbitrio e il benessere soggettivo, inteso sia a livello cognitivo (soddisfazione della vita) sia a livello affettivo (emozioni positive e negative).

Dalle analisi gli autori hanno potuto notare come più dell’80% degli adolescenti riportasse di credere nell’esistenza del libero arbitrio, nonostante l’appartenenza ad una cosiddetta cultura collettivista, e come questo sembri essere associato ad una maggiore soddisfazione della propria vita, alla tendenza a provare maggiori emozioni positive e minori emozioni negative, soprattutto se comparata con la credenza nel determinismo.

Sembra quindi che, in generale, per quanto non si possa ancora parlare di legami di tipo causale, chi riporta di credere nell’esistenza del libero arbitrio, tende a considerarsi anche più felice, andando a replicare quanto rilevato per le popolazioni occidentali e suggerendo, quindi, che questa credenza possa considerarsi una caratteristica universale del genere umano.

Come concludono gli autori, il libero arbitrio non può più essere considerato come un mero concetto filosofico fatto solo per dibattiti teorici ed astratti, ma è un concetto che influenza quotidianamente la vita di ognuno di noi.

Il ruolo delle distorsioni cognitive nella trasmissione intergenerazionale dell’ansia 

Trasmissione intergenerazionale dell’ansia: come dimostrano ormai numerosi studi, i figli di genitori ansiosi hanno una maggior probabilità di sviluppare un disturbo d’ansia, in età di sviluppo o successivamente in età adulta.

 

La trasmissione intergenerazionale dell’ansia

Secondo il modello cognitivista della psicopatologia, i disturbi d’ansia sono attribuibili ad errori di ragionamento sistematici che occorrono nella valutazione degli eventi esterni o mentali. Tali errori di ragionamento sistematici, in età adulta così come nei bambini e negli adolescenti causano risposte emotive coerenti con essi, ad esempio l’ansia.

Come dimostrano ormai numerosi studi, i figli di genitori ansiosi hanno una maggior probabilità di sviluppare un disturbo d’ansia, in età di sviluppo o successivamente in età adulta. Ad esempio la meta analisi di Micco e colleghi (2009) ha evidenziato come i figli di genitori con una diagnosi di disturbo d’ansia abbiano il doppio delle probabilità di sviluppare un disturbo d’ansia rispetto ai figli di genitori con altri disturbi psicologici (ad esempio depressione o abuso di sostanze), e il quadruplo delle probabilità rispetto a bambini che hanno genitori senza alcun disturbo psicopatologico.

Non sono ancora chiari i fattori che portano a tale trasmissione intergenerazionale dell’ansia. Per molti anni si è sopravvalutata l’influenza di fattori genetici ed ereditari ma gli studi più recenti evidenziano come tali fattori spieghino soltanto in parte tale tendenza: seppure l’ereditarietà genetica contribuisca a predisporre l’individuo in termini di vulnerabilità ai sintomi d’ansia, il peso dei fattori ambientali sembra essere maggiore.

Nello studio su coppie di gemelli di Gregory ed Heley (2007), ad esempio, è stato evidenziato come soltanto un terzo della varianza nell’ansia infantile sia spiegata da fattori genetici, mentre i restanti due terzi siano attribuibili ad influenze ambientali. Con riferimento a quest’ultimo ambito di fattori, numerosi sono stati i tentativi teorici e sperimentali di individuazione dei meccanismi di trasmissione intergenerazionale dell’ansia: attaccamento, stile parentale, esperienze di apprendimento e distorsioni nell’elaborazione dell’informazione. Ad esempio, con riferimento alla teoria dell’attaccamento, sono stati condotti studi sperimentali in cui sono state riscontrate delle relazioni forti tra un comportamento di cura sensibile della figura di riferimento e la sicurezza di attaccamento dei bambini e, al contrario, un attaccamento di tipo insicuro nei genitori e nei bambini sembra essere associato all’ansia infantile.

Rispetto allo stile parentale diversi studi evidenziano come uno stile genitoriale controllante sia associato ad ansia nei bambini (Wood, McLeod, Sigman, Hwang, & Chu, 2003; McLeod, Wood & Weisz, 2006). Rapee (2005) ha teorizzato questa relazione causale ipotizzando che l’iper-controllo genitoriale possa trasmettere ripetutamente al bambino due messaggi: 1) il mondo è pericoloso; 2) non hai la capacità di affrontare efficacemente situazioni nuove e/o pericolose. Secondo l’autore inoltre il comportamento controllante può ridurre le esperienze del bambino di padroneggiamento indipendente efficace e rafforzare la dipendenza dagli altri e il dubbio rispetto alle proprie capacità.

In linea con questa ipotesi è uno studio di Thirlwall e Creswell, del 2010, su un campione non clinico di 24 madri con i loro figli di 4/5 anni di età, in cui le autrici ipotizzavano che quando le madri adottano comportamenti più controllanti (e meno favorenti l’autonomia), i bambini mostrano maggiori livelli di ansia in un nuovo compito, leggermente stressante, e questo effetto viene moderato dall’ansia di tratto del bambino. Ai bambini, con il supporto delle madri, era stato chiesto di preparare e successivamente tenere due brevi discorsi, sulla famiglia e su un giorno divertente. Le madri erano state formate da uno psicologo per tenere in alcuni casi con il figlio, durante la preparazione del discorso, un comportamento iper-controllante e in altri casi un comportamento maggiormente favorente l’autonomia del bambino. Tutte le interazioni tra madri e bambini e i discorsi dei bambini sono stati videoregistrati e successivamente codificati da psicologi, con il metodo del doppio cieco (gli psicologi coinvolti esaminavano o i discorsi o le interazioni e non avevano informazioni circa le ipotesi dello studio). Lo studio ha evidenziato che nei casi in cui le madri adottavano un comportamento controllante durante l’interazione con i figli, questi ultimi esprimevano un maggior numero di predizioni negative rispetto alla loro performance prima di consegnare i loro discorsi e riportavano sentimenti meno positivi sul compito. Tale relazione era moderata dall’ansia di tratto del bambino. Inoltre, i bambini con una più elevata ansia di tratto mostravano un significativo aumento nell’ansia durante la presentazione del discorso.

Alcuni autori (Creswell e coll,, 2010) hanno proposto un modello di comprensione delle relazioni dinamiche esistenti tra diversi fattori coinvolti nella trasmissione intergenerazionale dell’ansia, sostenendo che le distorsioni cognitive dei genitori ansiosi interagirebbero con i loro stili parentali, portando i loro figli a sviluppare a loro volta distorsioni cognitive che li predisporrebbero al successivo sviluppo di disturbi d’ansia. Le distorsioni cognitive dei genitori condizionano secondo gli autori il loro comportamento con i bambini secondo un duplice percorso: da un lato, in modo diretto, trasferendo verbalmente le distorsioni cognitive (ad esempio contrassegnando un certo stimolo come pericoloso) e con le reazioni emotive di ansia e paura che verranno poi apprese dai figli; dall’altro lato, in modo indiretto, andando ad influenzare le loro stesse aspettative rispetto a come i loro figli risponderanno ad un determinato stimolo percepibile come minaccioso. Tali aspettative si manifestano attraverso comportamenti che limitano l’autonomia di bambini impedendogli di esplorare i contesti e gli stimoli percepiti come minacciosi dai loro genitori, e quindi si confermano le loro credenze di pericolosità e minaccia. Le aspettative dei genitori rispetto alle reazioni dei figli di fronte ad uno stimolo minaccioso plasmerebbero altresì secondo gli autori le loro comunicazioni ai bambini circa le loro capacità di coping (le loro capacità di affrontarli efficacemente). Il risultato di tali comunicazioni dirette ed indirette sarebbe lo sviluppo di distorsioni dell’informazione nei bambini, ad esempio la tendenza ad interpretare sistematicamente stimoli ambigui come minacciosi e quella a sottostimare le proprie capacità di coping.

Rispetto al ruolo svolto dalle distorsioni cognitive di madri e figli nello sviluppo di ansia nei bambini, nello Studio di Podina e colleghi (2013) a 423 madri e ai loro figli sono stati somministrati dei questionari di valutazione dell’ansia (Il Social Phobia Inventory alle madri, lo screen for child anxiety disorder ai bambini). In seguito sono state proposte ai bambini delle situazioni ipotetiche, che potevano essere interpretate come minacciose o come non minacciose, ad esempio “Sei a casa di un amico e i loro genitori sembrano essere molto arrabbiati), i bambini dovevano scegliere tra due alternative quella che più vicina al loro modo di interpretare la situazione ad esempio: 1) Hanno avuto una lite e sono arrabbiati tra di loro o 2) Non vogliono che tu sia qua e sono arrabbiati con te. Allo stesso modo, per misurare gli errori di ragionamento delle madri, sono state loro proposte dodici situazioni ambigue in relazione alle quali, similmente alla procedura usata con i figli, dovevano scegliere tra due possibili interpretazioni, quella più vicina al loro modo di interpretare la situazione. I risultati di tale studio mostravano come le interpretazioni negative delle madri mediassero in modo significativo la relazione tra ansia sociale materna e ansia nei bambini. Similmente, le interpretazioni negative dei bambini mediavano la relazione tra ansia sociale dei genitori e ansia nei bambini. Si è verificato inoltre come le interpretazioni negative delle madri fossero in correlazione diretta con le interpretazioni negative dei bambini.

 

Conclusioni e possibilità di intervento per interrompere la trasmissione intergenerazionale dell’ansia

Tutti gli studi presentati hanno importanti implicazioni cliniche, sottolineando l’importanza di intervenire sui diversi fattori coinvolti quando si trattano i disturbi d’ansia in età evolutiva, ad esempio con una terapia di stampo cognitivista standard per quanto riguarda le distorsioni cognitive delle madri e quelle dei bambini, con un parallelo lavoro sulla qualità della relazione di attaccamento e proponendo training di sostegno e sviluppo alla genitorialità alle coppie di genitori coinvolti.

Valore atteso e rischio nel processo decisionale: quali i correlati neuronali?

Affrontare un processo decisionale, dal più banale al più complesso, richiede la capacità di anticipare e soppesare adeguatamente le possibili conseguenze delle proprie scelte. Dalla neurofisiologia alle neuroscienze cognitive, numerosi ricercatori sono oggi in cerca dei sistemi cerebrali che prendono parte all’elaborazione della grandezza e della probabilità degli esiti, e che spingono il decisore ad accettare o rifiutare le opzioni proposte.

Raffaele Guido – OPEN SCHOOL Psicoterapia Cognitiva e Ricerca, Milano

 

La vita di ciascuno di noi è costellata di situazioni in cui è necessario scegliere tra varie alternative: che si tratti del colore di un vestito o dell’apertura o meno di un mutuo, ogni via percorsa e ogni processo decisionale porta a conseguenze differenti. È, quindi, auspicabile essere in possesso oltre che di una buona capacità previsionale, anche di un metodo oggettivo per il calcolo del valore delle opzioni da esaminare.

 

La teoria delle decisioni

Questa necessità ha dato vita alla teoria delle decisioni, che, fin dagli albori, ha cercato di sostituire  ad ogni alternativa disponibile un numero, in modo da semplificare il processo decisionale alla sola scelta dell’opzione col valore più alto.

La prima formulazione della teoria delle decisioni risale al XVII secolo, quando Pascal e Fermat cercano di formalizzare in linguaggio matematico le proprie aspettative circa l’occorrenza di eventi. Tale iniziativa ottiene una eco considerevole nell’aristocrazia del tempo, fortemente interessata sia a migliorare i propri risultati nel gioco d’azzardo, che ad assicurare i preziosi carichi in partenza, con grandi rischi, dai porti europei. Le fondamenta della teoria si basano sull’intuizione che due elementi siano essenziali per determinare le nostre scelte: quanto ardentemente si desideri qualcosa (il valore v) e quante probabilità si abbiano di ottenerla (la probabilità p). Per la teoria delle decisioni risulta quindi possibile misurare e confrontare il valore delle diverse alternative attraverso la semplice moltiplicazione del valore v con la probabilità p, ottenendo il cosiddetto valore atteso (EV dall’inglese expected value). Chiave di volta di questo costrutto teorico risulta, quindi, la scelta dell’opzione con il più alto valore atteso.

L’uomo “in carne ed ossa”, però, non segue rigorosamente questi dettami nel processo decisionale tra più opzioni. La teoria razionale si basa sulla massimizzazione del valore atteso, atteggiamento adottato non così frequentemente quanto si creda.

Già a cavallo tra XVII e XVIII secolo, infatti, Bernoulli e Huygens si accorgono di quanto sia ampia la distanza tra aspettative razionali e reale comportamento umano, sottolineando in particolare la naturale propensione delle persone all’avversione al rischio. Per esempio, la maggioranza della gente preferisce la certezza di ricevere un pagamento di 49 euro piuttosto che scommettere sull’eventuale vincita di 100 euro con una probabilità del 50%, nonostante il valore atteso della seconda opzione sia superiore a quello della prima. Nella prima metà del 1700, quindi, la teoria viene riformulata con l’introduzione del concetto di utilità (U), un valore dalla forte connotazione soggettiva (chiameremo questa teoria EUT, dall’inglese expected utility theory). La differenza rispetto al “valore” descritto sopra è sottile, ma cruciale. La funzione dell’utilità, infatti, presenta incrementi non lineari a seconda del livello di ricchezza iniziale: ad esempio, un aumento da 0 a 10 euro ha un impatto maggiore di uno tra 100 e 110. Tali incrementi, inoltre, sono associati a livelli di utilità differenti in base al patrimonio di cui si dispone: maggiore è quest’ultimo, minore sarà l’effetto dell’incremento monetario (Fig.1).

Valore atteso e rischio nel processo decisionale quali i correlati neuronali _ FIGURA 1

Fig. 1 – Rappresentaziona grafica dell’andamento dell’utilità in funzione dei guadagni

 

L’accorgimento teorico permette quindi di salvare sia l’aspetto razionale del decisore, sia l’applicazione realistica della teoria agli effettivi comportamenti.

 

La teoria della scelta razionale

Infatti, la nozione di utilità porterà, due secoli dopo, a quella che ancora oggi è considerata la teoria della scelta razionale nell’economia neoclassica. Questa svolta si verifica nella prima metà del ‘900, quando Von Neumann e Morgenstern, un fisico e un economista, partendo dalle basi teoriche fin qui descritte, costruiscono un modello normativo del comportamento razionale, che preveda anche la valutazione di alternative in condizioni di rischio o di incertezza. Questo modello riconosce all’attore del processo decisionale, intento a selezionare l’opzione con la più alta utilità attesa, la capacità di stimare le probabilità di stati del mondo, trattandoli secondo le regole del calcolo delle probabilità (e in particolare, nella loro teoria con una visione frequentista della probabilità). Tale modello si fonda su alcuni assiomi che caratterizzano la razionalità delle scelte di un ipotetico decisore, e che si basano soprattutto sulla coerenza nelle sue preferenze.

 

La teoria del prospetto

Nel 1979 Amos Tversky e Daniel Kahneman espongono, in un articolo divenuto poi un classico, la “teoria del prospetto” (dall’originale inglese “Prospect Theory”). Trenta pagine scarse, ma che nel 2002 frutteranno il premio Nobel a Kahneman, e che sin da subito bastano a scuotere il mondo dell’economia neoclassica, puntando i riflettori su una serie di sistematiche violazioni della EUT nella descrizione dei comportamenti umani. La caduta del costrutto teorico della EUT equivale alla fine del dominio dell’iper-razionale “Homo Oeconomicus” e lascia spazio a decisioni influenzate da considerazioni cognitive non razionali (oggi, come vedremo, ne conosciamo i risvolti emotivi) ma decisamente più realistiche.

Tra gli apporti teorici più innovativi della teoria del Prospetto vanno sicuramente menzionati l’effetto di incorniciamento e l’avversione alla perdita. Il primo, meglio noto come “framing effect”, dimostra come descrizioni alternative di un problema decisionale possano mettere in luce aspetti differenti dei risultati e condurre, quindi, a preferenze diverse. Con avversione alla perdita definiamo, invece, la tendenza a preferire l’evitamento di una perdita all’acquisizione di un guadagno. Alcuni studi suggeriscono che la perdita abbia un impatto psicologico doppio rispetto al guadagno (Kahneman D. e Tversky A., 1984).

Ne segue, quindi, che due diverse modalità di esporre un problema decisionale, pur logicamente equivalenti, conducono gli individui a scelte differenti a causa della loro maggiore sensibilità alle perdite, rispetto ai guadagni. Tutto ciò porta gli attori del processo decisionale a valutazioni differenti del rischio di una situazione, con una tendenza a comportamenti “conservatori” in condizioni di vincita e “avventurieri” in condizioni di perdita.

 

Il rischio nel processo decisionale

In particolare dagli studi di Kahneman e Tvesky emergono quattro possibili attitudini al rischio, ovvero comportamenti che tendiamo ad attuare in quelle situazioni in cui sono note le probabilità di un’eventuale vincita o perdita e in cui ci si discosta regolarmente dalle predizioni basate sulle regole del valore atteso. Tali attitudini sono suffragate da una grossa mole di osservazioni sperimentali.

Andremo adesso a vedere nello specifico queste quattro situazioni, ma prima è necessaria una precisazione. Le scommesse sono principalmente di due tipi, pure e miste. La scommessa pura offre $x con una probabilità p e 0 con una probabilità 1-p. Una scommessa mista offre invece due esiti: nel primo l’opportunità di vincere x con una probabilità p (e quindi di non vincere nulla con una probabilità 1-p), nel secondo la possibilità di perdere y con una probabilità m (e ovviamente di non perdere nulla con una probabilità 1-m). Le scommesse miste, quindi, espongono potenzialmente a un rischio più alto, ma le probabilità degli esiti sono comunque note.

Con l’espressione C(x,p)=$q, si indica che q è la quantità di denaro che in media un campione rappresentativo della popolazione ritiene ugualmente attraente ad una vincita x con probabilità p.

Utilizzando tali definizioni le quattro attitudini citate in precedenza possono essere espresse come segue:

  • (a) C($100,0.05)=$14
  • (b) C($100,0.95)=$78
  • (c) C($-100,0.05)=$-8
  • (d) C($-100,0.95)=$-84

Vediamo in che modo queste equivalenze violano i dettami della EUT.

(a) indica che 14 dollari rappresenta il quantitativo di denaro ritenuto in media ugualmente attraente a una scommessa che offra la possibilità di vincere 100 dollari con una probabilità del 5%. Tuttavia, la EUT prevede che:

EV(a)=100*0.05=5

Nella sostanza un’offerta sicura di 14 dollari non dovrebbe solo eguagliare la scommessa, ma addirittura essere molto più desiderabile. In questo caso di potenziale guadagno ,quindi, la somma ritenuta equa è superiore al suo reale valore atteso. Bisogna capire perché la EUT non sia in grado di generare delle corrette previsioni sul valore atteso e spiegare il fondamentale apporto teorico della PT in questo senso. Poniamo che $14 sia C (sta per certezza) e la scommessa in (a) sia S (scommessa). La predizione del valore atteso è che C>S, ovvero che 14 dollari dovrebbero essere sempre preferiti alla scommessa in (a). Ciò che invece osserviamo è che C=S, ovvero che si tenda a essere indifferenti nella scelta tra una e l’altra, senza una reale preferenza. Sono due le potenziali ipotesi che entrano in gioco nella spiegazione del fenomeno: la prima è che C sia sottostimata e la seconda è che S sia invece sovrastimata. La sottostima di C spiegherebbe la propensione al rischio dei soggetti, ma per poter sostenere appieno questa ipotesi è necessario che sia soddisfatta almeno una tra due condizioni: o vi sia una qualche distorsione soggettiva delle probabilità in gioco oppure un effetto dato dalla concavità della funzione dell’utilità attesa.

La prima condizione è facilmente trascurabile, essendo l’impatto delle probabilità praticamente nullo in caso di certezza del risultato. La seconda d’altro canto predice il fenomeno opposto: la somma di 14$ dollari dovrebbe sempre essere preferita alla scommessa in (a). Ricordiamo infatti che una funzione concava prevede che un aumento da 0 a 14 abbia un peso maggiore di un aumento da 86 a 100. Le previsioni teoriche della EUT sono quindi in disaccordo coi fatti. Nel dominio dei guadagni ci si aspetta infatti un comportamento di avversione al rischio, qui vediamo esattamente il contrario: con basse probabilità di guadagno si osserva una marcata propensione al rischio.

Esclusa quindi la prima ipotesi, è necessario testare anche la seconda, la sovrastima di S. Nuovamente vanno prese in considerazione le due condizioni già vagliate per C: l’effetto della funzione concava dell’utilità o l’eventuale distorsione della percezione soggettiva delle probabilità. Come nel caso precedente, la concavità della funzione spinge verso l’esito opposto, attribuendo un peso maggiore agli incrementi più vicini allo zero. Va quindi presa in considerazione la percezione soggettiva delle probabilità, che risultano, in questo caso, sovrastimate. In situazioni di rischio moderato, rimanendo nel dominio del potenziale guadagno, i soggetti tendono ad attribuire a probabilità basse (per esempio 0.05) un impatto psicologico maggiore rispetto a quello del loro equivalente previsto dalla EUT.

In parole povere si sentono fortunati e spronati a rischiare. Quanto appena analizzato presenta delle somiglianze con il caso (c). In questa situazione, nel dominio delle potenziali perdite, dovremmo preferire l’accettazione della scommessa, come si evince da EV=-100$*0.05=-5$, piuttosto che una perdita sicura di 8 dollari. La convessità della funzione del valore atteso per le perdite non è da annoverare tra le possibili spiegazioni poiché tende a privilegiare l’accettazione della scommessa, che presenta un valore ponderato più basso (-5$), rispetto alla sicura sottrazione di 8$. L’ipotesi più plausibile è che, nel processo decisionale, un’eventuale distorsione nella percezione delle probabilità contrasti con il comportamento di propensione al rischio, atteso in questo contesto dalla EUT.

L’aspetto comune ai due contesti è la valutazione di probabilità molto basse, che vengono sistematicamente sovrastimate dalla maggior parte dei soggetti. Tale sovrastima agisce in direzione opposta alla funzione del valore atteso, concava nel dominio dei guadagni e convessa in quello delle perdite, generando, contrariamente alle attese, un comportamento di propensione al rischio in caso di potenziali guadagni poco probabili e di avversione al rischio in condizioni di possibili perdite, anch’esse scarsamente probabili.

Passiamo ad analizzare il caso (b), che presenta aspetti diversi rispetto ai due precedenti. Nel primo, infatti, la somma dell’equivalente certo (78$) è più bassa del potenziale valore della scommessa: EV=100$*0.95=95$. La possibilità, anche se minima (5%) di non vincere, spinge i soggetti ad accettare una somma meno rilevante, generando un comportamento di avversione al rischio nel dominio delle vincite. A differenza di (a) e (c), in (b) l’andamento concavo della funzione del valore atteso può giustificare la sovrastima del valore di C, agendo, come vedremo anche in (d), in sinergia con la sottostima della probabilità di S. In (d), infine, si ritiene equo un valore certo (-84$) più basso del valore della scommessa S: EV(d)=-100$*0.95=95. In questo caso interviene, quindi, un effetto di sottostima della probabilità di S.

Le osservazioni da (a) a (d) costituiscono quattro diverse attitudini al rischio: vi è una marcata propensione al rischio nel caso di guadagni poco probabili (a) o perdite altamente probabili (d), mentre si tende a preferire un comportamento di avversione al rischio qualora si faccia fronte a guadagni molto probabili (b) o perdite scarsamente probabili (c).

Alla luce di tali considerazioni la PT introduce due nuove variabili nella canonica equazione del valore di una scommessa che offra x con probabilità p ( e nulla con probabilità 1-p):

V(x,p)=v(x)*w(p)

Dove v rappresenta il valore soggettivo di x, quindi descrive la funzione valore (Fig.2) e w misura l’impatto della probabilità p sul grado di attrazione di un’opzione e determina la cosiddetta “funzione di ponderazione” (Fig.3) ( dall’inglese weighting function).

Valore atteso e rischio nel processo decisionale quali i correlati neuronali_FIGURA 2

Fig.2 – Concava per i guadagni e convessa per le perdite

 

Valore atteso e rischio nel processo decisionale quali i correlati neuronali_FIGURA 3

Fig.3 – Dalla curva ad S invertita si nota la sovrastima di probabilità basse e la sottostima di probabilità medio-basse fino all’annullamento della distorsione con P=1

 

La forma della weighting function descrive al meglio le quattro diverse attitudini appena viste. La curva tende ad essere concava verso zero (impossibilità) e convessa verso uno (certezza). Ciò sta ad indicare che probabilità basse vengono costantemente sovrastimate, come accade in (a) e (c) e che probabilità medie o tendenti ad uno sono di norma sottostimate, come osservato in (b) e (d). Restando nel dominio dei guadagni, notiamo che la curva della weighting function presenta una pendenza maggiore andando da 0.99 verso 1 rispetto all’incremento che va, per esempio, da 0.10 a 0.11. Infine si può notare come la funzione valore sia più ripida nel dominio delle perdite che in quello delle vincite: ciò indica che nelle cosiddette scommesse miste (in cui si può contemporaneamente perdere e vincere una data somma), si riscontreranno alti livelli di accettazione delle stesse qualora le vincite offerte superino di almeno 2.25 volte le possibili perdite.

L’innovazione cardine della PT è, in sintesi, quella di aver fornito un quadro teorico in grado di descrivere e prevedere accuratamente il reale comportamento di qualsiasi agente in procinto di scegliere tra varie opzioni, accantonando il mito dell’essere umano iper-razionale.

Una così efficace predizione dei comportamenti di scelta da parte della PT, ha spinto la ricerca a cercare di identificare traccia di eventuali correlati neurali nel processo decisionale delle stesse variabili della teoria del Prospetto.

 

Le basi cerebrali del processo decisionale

Ricapitolando, affrontare i processi decisionali della vita quotidiana, dai più banali ai più complessi, richiede la capacità di anticipare e soppesare adeguatamente le possibili conseguenze delle proprie scelte.

Sin dalla sua origine, la Teoria della decisione ha previsto che questa anticipazione coinvolga innanzitutto, come variabili decisionali basilari, la grandezza (magnitude) di ciò che vogliamo, la probabilità di ottenerlo, e il loro prodotto, il valore atteso. Proprio quest’ultimo, “sintesi pesata” del valore degli esiti e della loro probabilità, costituisce nella teoria normativa del processo decisionale, il criterio guida basilare per la scelta ottimale. Non stupisce, quindi, che tali parametri, e la loro elaborazione, siano divenuti oggetto di studio di molti settori delle neuroscienze. Dalla neurofisiologia alle neuroscienze cognitive, numerosi ricercatori sono oggi in cerca dei sistemi cerebrali che prendono parte all’elaborazione della grandezza e della probabilità degli esiti, e che spingono infine il decisore ad accettare o rifiutare le opzioni proposte, modulando quindi quei comportamenti di approccio vs. evitamento che costituiscono le modalità basilari del comportamento umano.

Nell’ampia letteratura di studi sulle basi cerebrali del processo decisionale, è centrale in questo senso quel sottogruppo di studi che hanno indagato la cosiddetta “decision utility”, ossia la pura anticipazione degli esiti senza l’aspettativa della conoscenza immediata degli stessi. Oggetto principale di questi studi, infatti, è proprio l’anticipazione delle variabili di base, ossia guadagni e perdite.

In estrema sintesi, i risultati di questi studi hanno mostrato che l’anticipazione di esiti positivi è associata all’attività dello striato ventrale (Tobler et al., 2005), mentre l’anticipazione di eventuali perdite è associata a un’attivazione dell’amigdala (Canessa et al., 2009, 2011; Yacubian et al., 2006), ma senza una visione unanime. Uno studio, in particolare, suggerisce che l’anticipazione delle perdite sia associata alla deattivazione di quelle stesse aree mesocorticolimbiche coinvolte nella valutazione delle vincite (una risposta “bidirezionale”), senza tuttavia alcuna attivazione specifica di regioni “emotive” come insula e amigdala (Tom et al., 2007).

 

I correlati neurali del valore atteso e del rischio nel processo decisionale

Per approfondire le conoscenze sui correlati neurali del processo decisionale, ci siamo concentrati sull’anticipazione del valore atteso e del rischio, variabili sovraordinate e più complesse rispetto a guadagni e perdite, ma comunque cruciali ai fini dell’esito del processo decisionale. 56 soggetti hanno partecipato ad un “gambling task” che richiede l’anticipazione di guadagni e perdite di reali somme di denaro. Il compito consisteva nell’accettare o rifiutare, durante sessioni di risonanza magnetica funzionale attraverso la pressione di due tasti, una scommessa “mista”, cioè composta sia da una lotteria “vincente”, che avrebbe potuto portare alla vincita di una somma di denaro M+ con probabilità P+ (o a nessuna vincita con la probabilità complementare 1-P), che da una lotteria “perdente”, che avrebbe potuto portare alla perdita di una differente somma di denaro M- con probabilità P- (o a nessuna perdita con probabilità 1-P-). Le due lotterie venivano presentate simultaneamente in video, l’una sopra l’altra.

Inoltre, in linea con la complessità delle analisi neurofisiologiche sul profilo di scarica di singoli neuroni (es. Padoa-Schioppa e Assad, 2006; Rolls et al., 2008), si è indagata sia una componente lineare, ovvero quelle regioni cerebrali in cui l’attività aumenta linearmente all’aumentare di rischio e valore atteso, che una componente quadratica, per individuare quelle aree cerebrali che mostrano un’attività massima per valori intermedi dei parametri in esame, e minima per valori estremi.

L’esistenza di profili di attività “lineare” e “quadratica” riflette plausibilmente sotto-tipi differenti di elaborazione del segnale. E, in particolare, una relazione quadratica tra stimolo e attività cerebrale suggerisce una forma di valutazione delle variabili decisionali in cui i valori estremi vengono sistematicamente accettati o rifiutati (perché di più facile valutazione), mentre l’attività massima legata a valori intermedi, rispecchia il tentativo di dirimere un conflitto decisionale da parte di queste regioni. Alla luce di queste considerazioni, i nostri risultati mostrano un mosaico di regioni cerebrali che sembrano specificamente coinvolte nell’elaborazione del valore atteso dell’opzione di scelta, del suo rischio intrinseco ed infine nella scelta finale di accettazione vs. rifiuto.

In particolare, l’elaborazione del valore atteso riflette attivazioni cerebrali che crescono linearmente con esso in un ampio insieme di regioni, e precisamente striato ventrale bilaterale, talamo, area supplementare motoria, e la parte dorsale della corteccia del cingolo anteriore. Alla luce delle conoscenze disponibili (Croxson et al., 2009), è plausibile un quadro del processo neurale sottostante in cui valori attesi più elevati, associati ad una più intensa anticipazione di una gratificazione, hanno maggior probabilità di condurre all’implementazione di programmi di approccio alla posta in palio (mediata dall’area supplementare motoria), in seguito ad analisi costi-benefici favorevoli mediate dalla corteccia del cingolo anteriore.

L’analisi della componente quadratica del valore atteso mette in luce, invece, un interessamento della corteccia orbitofrontale, che mostra un’attività massima per valori intermedi, ossia quelli nei quali la differenza tra potenziali guadagni e perdite è ridotta. Come accennato in precedenza, e in linea con precedenti dati neurofisiologici (Padoa- Schioppa, 2009, 2011), questo dato mette in luce l’elaborazione di un conflitto tra criteri di scelta differenti. Un valore atteso molto elevato o estremamente negativo, infatti, richiede un minimo carico cognitivo per, rispettivamente, accettare o rifiutare la scommessa. Al diminuire della differenza tra possibili vincite e perdite, invece, aumentano la difficoltà e, al contempo, l’importanza di un’attenta valutazione a carico della corteccia orbitofrontale (Fig.4).

Valore atteso e rischio nel processo decisionale quali i correlati neuronali_FIGURA 4

Fig.4 – Regioni coinvolte nell’elaborazione del valore atteso:in giallo la componente lineare, in verde quella quadratica

 

Queste considerazioni possono probabilmente essere estese alla curva di risposta quadratica dell’elaborazione del rischio, che coinvolge il network esecutivo (Fig.5).

Valore atteso e rischio nel processo decisionale quali i correlati neuronali_FIGURA 5

Fig.5 Regioni attive durante l’elaborazione del rischio

 

Per valori di rischio intermedi, infatti, il controllo cognitivo richiesto per il processo decisionale è maggiore, rispetto a valori estremi associati, rispettivamente, al rifiuto del rischio (e quindi al rifiuto) per valori molto alti o all’accettazione del rischio (e quindi della scommessa) per valori di rischio molto bassi. Infine, un’ulteriore segregazione si osserva per i sistemi cerebrali che sottendono il processo di selezione dell’azione, ossia la scelta finale di accettazione vs. rifiuto.

Questo contrasto, che segna la fase finale della catena “stimolo-risposta” nel compito decisionale qui usato, evidenzia ancora una volta una netta distinzione tra sotto-processi differenti quali quelli che sottendono comportamenti di approccio vs. evitamento (Fig.6).

Valore atteso e rischio nel processo decisionale quali i correlati neuronali_FIGURA 6

Fig.6 Aree coinvolte nell’elaborazione della risposta: in magenta accettazione, in blu rifiuto

 

In particolare, l’accettazione della scommessa attiva strutture frontomediali quali la porzione anteriore della corteccia del cingolo media e l’area supplementare motoria, già associate ad analisi costi-benefici (Croxson et al., 2009). All’opposto, il rifiuto della scommessa coinvolge strutture somatosensoriali nel giro postcentrale e limbiche (ippocampo e l’amigdala), che plausibilmente riflettono la generazione di segnali avversativi e di “pericolo” (LeDoux, 2012). In estrema sintesi, questi dati sembrano suggerire la necessità di riconsiderare il coinvolgimento della corteccia orbitofrontale nel processo decisionale.

Il ruolo di questa regione, a lungo ritenuta il “direttore d’orchestra” del comportamento umano (Goldberg, 2004) può oggi essere ri-descritto in termini più specifici, e in particolare nell’integrazione dei parametri decisionali basilari quali vincite e perdite (si veda anche Basten et al.,2010) Tale integrazione, però, confluisce in una funzione di risposta cerebrale quadratica (e non lineare) di valutazione del valore atteso. Un altro dato cruciale è rappresentato dal fatto che, se la corteccia orbitofontale integra e gestisce conflitti tra differenti criteri decisionali, la scelta finale sembra, invece coinvolgere altre regioni, coinvolte nel controllo cognitivo e nell’implementazione dell’azione. Del resto, quell’ampio settore di studio che indaga la presa di decisione in termini computazionali, nell’ottica della Teoria dell’apprendimento del rinforzo, afferma ormai senza alcun dubbio che “decidere” equivale a “selezionare un’azione”, e che i sistemi motivazionali localizzati nello striato costituiscono un’interfaccia tra percezione e azione, volta a massimizzare le gratificazioni minimizzando, al contempo, le punizioni (Rolls, 2008).

È ancora lunga la strada che ci separa dalla piena comprensione dei meccanismi che sono alla base del processo decisionale nell’uomo. Qualcuno può considerare lo studio di poche variabili e della loro integrazione come un approccio troppo semplicistico, rispetto alla complessità del tema trattato.

Come diceva, però, Jean Perrin “compito della scienza è sostituire invisibili semplici a visibili complessi” e in questo atto non bisogna intravedere un’opera di riduzionismo, bensì un tentativo di portare alla luce, attraverso l’individuazione dei costituenti primitivi, i meccanismi cognitivi e cerebrali del processo decisionale. Processi che, con il procedere della ricerca, scopriamo sempre più emotivi e sempre meno ”freddamente razionali” come amiamo credere.

Le fiabe per insegnare le regole. Un aiuto per grandi e piccini (2016), di Elisabetta Maùti – Recensione

Anche i più piccini devono comprendere le regole, a partire da quelle più semplici come lavarsi o salutare, e il libro di Elisabetta Maùti, Le fiabe per insegnare le regole, ha un preciso scopo: far sì che gli adulti riescano a far apprendere le regole ai bambini tramite un metodo piacevole, ossia mediante il racconto delle fiabe.

 

Mamma mi racconti una storia?”.

Quante volte un genitore si è sentito ripetere una frase del genere da parte di suo figlio? E con pazienza o con piacere il genitore in questione apre il libro di fiabe e inizia a raccontare quella favola che al suo bambino piacerà.

Talvolta farà affidamento sulla propria memoria, raccontando quella storia che conosce bene, magari la stessa che gli veniva raccontata da piccolo affinché potesse prender sonno la sera. “Cappuccetto Rosso”, “Biancaneve”, “Riccioli d’Oro”. Questi solo alcuni dei titoli delle fiabe più famose che vengono narrate ai bambini.

 

Perché si raccontano le fiabe?

Ma qual è l’obiettivo del raccontare una favola?

Sicuramente far felice il bambino, il quale sarà gratificato della compagnia di mamma o di papà che per vari minuti si siederanno accanto a lui dedicandogli del tempo.

Ma la verità è che le fiabe hanno uno scopo ben chiaro. Innanzitutto devono parlare il linguaggio dei piccoli, nel senso che l’adulto ha il compito di adattare tutti i termini in questione affinché il bambino possa comprenderli; senza dimenticare che è richiesto anche un certo coinvolgimento da parte del narratore, facendo sì che il bimbo non si annoi nell’ascolto. Tutto ciò consentirà di mettere in stretto contatto empatico genitore e figlio in un’attività piacevole.

E una volta che ciò è avvenuto perché non far sì che la favola in questione non rappresenti un mezzo volto a far imparare le regole al proprio figlio?

 

Le fiabe per insegnare le regole di Elisabetta Maùti

Il libro di Elisabetta Maùti, Le fiabe per insegnare le regole, ha un preciso scopo: far sì che gli adulti riescano a far apprendere le regole ai bambini tramite un metodo piacevole, ossia mediante il racconto delle fiabe.

I bambini apprendono le regole osservando, talvolta per imitazione. Oppure ascoltando le indicazioni dei propri adulti di riferimento. Ma qualcosa può sempre sfuggire, o invece venire interpretata nel modo sbagliato, soprattutto quando si tratta di bambini molto piccoli.

È fondamentale che i bimbi apprendano determinate regole fin da subito, specialmente quelle che riguardano la propria incolumità.

Ma fino a che punto l’adulto che dirige autorevolmente il bambino verrà ascoltato e preso in considerazione? Spesso i bambini fanno di testa loro. Talvolta si è costretti a utilizzare le famose punizioni affinché i piccoli rispettino le regole. E ciò sicuramente non è piacevole, né per i grandi né per i piccini.

Elisabetta Maùti, con il suo libro Le fiabe per insegnare le regole ci addestra al fine di farci usare un metodo alternativo ma soprattutto divertente.

Nel testo troviamo un buon numero di fiabe per insegnare le regole simpatiche e di facile interpretazione.

Il libro è diviso in capitoli a seconda della fascia d’età del bambino. Anche i più piccini devono comprendere le regole, a partire da quelle più semplici come lavarsi, salutare, dire grazie.

Tesoro di mamma stasera ti racconto una bella favoletta: la fiaba della manina maleducata”. Il bambino sarà stupito di fronte ad un titolo simile, mai sentito prima, sicuramente sarà curioso. E il genitore ha un ottimo trucchetto per fargli conoscere e rispettare le regole.

Sono molte le storie contenute in Le fiabe per insegnare le regole, ed ognuna può essere adattata al bambino di riferimento: il genitore può scegliere di raccontare le storia che maggiormente rispecchia le proprie esigenze.

Se ad esempio bambino ha problemi con le regole della scuola, vi sono varie favole che riguardano la risoluzione di problematiche di questo tipo: andare a scuola senza far capricci, fare i compiti, rispettare le maestre, socializzare nel giusto modo con i compagni.

Le fiabe per insegnare le regole si presenta come un buon rimedio per il bambino ma anche un’ottima guida per il genitore. Elisabetta Maùti ci permette di esplorare il mondo delle regole infantili in maniera completa, consentendo anche all’adulto di riflettere su quelle regole a cui magari potrebbe aver dato meno importanza.

I genitori spesso insistono affinché il proprio figlio non faccia capricci e sia quieto. Ma hanno mai pensato a quanto sia altresì importante preparare il bambino ad affrontare al meglio imprevisti e novità? O far superare al bambino delle fobie, come ad esempio la paura del buio?

Un accenno importante lo merita l’ultima parte del libro: il capitolo dedicato alle favole per pensare. Esse hanno lo scopo di aiutare il bambino a cambiare il suo punto di vista e a guidarlo verso dei ragionamenti evoluti.

Si tratta di fiabe rivolte a bambini che hanno specifiche difficoltà, come ad esempio disabilità, fobie, problemi dell’emotività. La lettura di determinate storie potrebbe aiutarli nel guadagnare la fiducia in se stessi e incrementare la loro autostima. Anche in questo caso la fiaba aiuta a sviluppare le condotte appropriate, stavolta facendo capire al bambino che tutto si risolve, sbagliare è umano, l’importante è reagire adeguatamente, c’è una regola anche per quello.

E una volta chiuso il libro anche l’adulto si sentirà coinvolto. Sarebbe assurdo non esserlo a seguito di una lettura così. Tutti noi siamo stati bambini e abbiamo ascoltato le fiabe. Per quanto mi riguarda leggere il libro di Elisabetta Maùti è stato quasi un proiettarmi nella mia infanzia, dove ascoltavo appassionatamente le fiabe che mi venivano raccontate e i personaggi continuavano a vivere nella mia fantasia anche dopo il racconto.

Perché la favola è creatività, divertimento, immaginazione, ma soprattutto è creazione di un legame tra adulto e bambino che farà sì che tra di essi possa crearsi il corretto clima conoscitivo ed educativo.

La percezione d’intelligenza nei bambini: questione di genere?

In una ricerca pubblicata sulla rivista Science sull’intelligenza nei bambini, è stato scoperto che bambine dell’età di 6 anni iniziano a credere che alcune attività non siano adatte a loro, poiché esse pensano di non essere abbastanza intelligenti per svolgerle. La ricerca suggerisce che i bambini americani crescono con stereotipi culturali riguardo all’intelligenza, fin dalla più tenera età. Sfortunatamente, questi stereotipi si basano sull’idea che le donne non siano intelligenti quanto gli uomini.

 

Intelligenza nei bambini e stereotipi culturali

Se pensassimo a personaggi intelligenti di libri o di show televisivi, ci verrebbero in mente persone come Sherlock Holmes, Mr. Spock, Sheldon Cooper, o altri uomini. Esistono sicuramente delle eccezioni, come Hermione Granger in “Harry Potter” o Lisa Simpson. Tuttavia, la maggior parte delle volte, i nostri stereotipi culturali promuovono l’idea che essere intellettualmente dotati sia una qualità che appartiene agli uomini.

Anche se i genitori non sostengono esplicitamente questo stereotipo, le evidenze suggeriscono che esso condiziona le loro aspettative sui figli. Un report del 2014 ha dimostrato che i genitori Americani digitassero su Google la domanda “Mio figlio è un genio?” più di due volte più spesso di quanto digitassero la domanda “Mia figlia è un genio?”.

Di contro, domande riguardo all’aspetto fisico erano relativamente più comuni per quanto riguarda le figlie femmine: i genitori digitavano “Mia figlia è in sovrappeso?” il 70% circa più spesso rispetto a quanto digitassero “Mio figlio è in sovrappeso?”.

Tuttavia, in realtà, i bambini sarebbero più propensi ad essere in sovrappeso rispetto alle bambine. E anche se i professori, così come i genitori, tendono a credere che i bambini abbiano il più delle volte un “talento naturale”, in realtà le bambine vanno mediamente meglio a scuola.

Ci si è chiesti allora, se le bambine crescano con un’idea sulla propria intelligenza, simile a quella che hanno genitori e insegnanti.

 

Gli studi sugli stereotipi sull’intelligenza nei bambini

In una recente ricerca condotta dallo psicologo Lin Bian, sono stati studiati 400 bambini di età compresa tra 5 e 7 anni, reclutati, in molti anni, da una comunità di classe media e vicina all’Università dell’Illinois.

In uno studio, a 96 bambini (metà maschi e metà femmine) erano raccontate due storie su una persona il cui genere non era specificato. Era detto ai soggetti che una storia riguardava una persona “molto, ma molto intelligente“, e l’altra riguardava una persona “molto, molto gentile”. In seguito, ai bambini erano mostrati quattro disegni (due maschi e due femmine) e veniva chiesto loto di indicare quale di loro potesse essere la persona di ciascuna storia.

All’età di 5 anni, i maschi e le femmine erano ugualmente propensi ad associare l’intelligenza nei bambini al loro genere di appartenenza, ma questa tendenza cambiava rapidamente. All’età di 6 anni, le bambine erano significativamente meno propense ad associare l’intelligenza al proprio genere. Molte di loro sceglievano un personaggio maschile per identificare la persona molto intelligente descritta nelle storie, più di quanto lo facessero i bambini.
Queste risposte erano date indipendentemente dall’etnia di appartenenza e non sembrava variare a seconda dell’educazione genitoriale e del reddito familiare.

Quando veniva chiesto ai soggetti quale dei quattro bambini in figura, due maschi e due femmine, andasse meglio a scuola, le femmine indicavano più frequentemente altre femmine. In altre parole, le bambine ritenevano che le femmine andassero meglio dei maschi a scuola, ma questo fatto non cambiava le loro credenze su chi fosse più intelligente.

La ricerca suggerisce anche che questi stereotipi potrebbero avere effetti duraturi. Una volta interiorizzati, essi potrebbero iniziare ad orientare gli interessi delle bambine lontano da cose considerate “non alla propria portata”.

In un’altra parte della ricerca, a 64 bambini di 6 e 7 anni di età (metà maschi e metà femmine), erano mostrati due giochi da tavolo sconosciuti e veniva detto loro che erano adatti solo a bambini che fossero molto intelligenti, o solo a bambini che mettessero molto impegno nello svolgerli. In seguito, venivano poste ai soggetti quattro domande per misurare il loro grado d’interesse nei giochi.

Quando veniva detto ai bambini che i giochi erano per persone molto intelligenti, le femmine mostravano un interesse e una motivazione minori rispetto ai maschi. Il risultato non era dovuto alla natura stessa dei giochi: quando, infatti, i giochi venivano descritti in maniera esattamente uguale, ma veniva detto ai bambini che erano adatti a persone che s’impegnavano molto, le femmine risultavano interessate esattamente quanto i maschi.

La differenza tra bambini e bambine di 6 anni, appare quindi essere legata all’emergere di stereotipi: è stato scoperto che i bambini di 5 anni, sia maschi che femmine, in cui le credenze riguardo all’intelligenza non erano ancora differenziate, risultavano essere ugualmente interessati ai giochi per bambini molto intelligenti.

 

Le conseguenze degli stereotipi sull’intelligenza nei bambini

Più avanti, queste differenti percezioni nei bambini potrebbero comportare delle conseguenze. Infatti, in un articolo pubblicato sulla stessa rivista nel 2015, è stato scoperto che le donne sono sottorappresentate nei campi in cui per fare carriera è richiesta intelligenza, come le scienze e l’ingegneria.

Come provvedere? La psicologa Carol Dwech sostiene che enfatizzare l’importanza dell’apprendimento e dei tentativi, piuttosto che delle abilità innate, potrebbe orientare le donne contro questi stereotipi. Altre ricerche indicano che fornire alle donne modelli femminili di successo, potrebbe indirizzarle positivamente, potenziandone la motivazione e proteggendole dall’idea di non essere intellettualmente competitive.

Da cosa nascono le paure per l’altro sesso? – Le risposte di fluIDsex

Da cosa nascono le paure per l’altro sesso?

Circe

 

Cara Circe,

le persone che riportano paure nei confronti dell’altro sesso, molto spesso fanno riferimento a timori più specifici, come per esempio paura del rifiuto, paura o estrema timidezza nell’intavolare conversazioni o nell’avere rapporti sessuali. In generale, sembrerebbe che questi timori siano legati ad ansie sociali o relazionali. Chi prova queste paure, di solito è attratto ma al tempo stesso non riesce a superare un inspiegabile timore al semplice confronto con il sesso in questione; un po’ come l’attrazione/paura che, nell’Odissea, Euriloco prova nei confronti della bella maga Circe (come il suo nome ci ricorda).

In termini medici, viene usato il termine Sexophobia o Heterophobia per descrivere una serie di sintomi ansiogeni legati proprio alla paura per il sesso opposto. Le cause di queste paure, come per la maggior parte delle fobie, andrebbero ricercate dalla combinazione di fattori ambientali e fattori genetici/ereditari.

Nonostante l’origine di questa fobia particolare non sia stata ben delineata, vorrei proporle di soffermarci sulla semantica: spesso sentiamo espressioni come “il genere opposto” o “l’altro sesso”, ma esiste davvero un genere “opposto”? In cosa consiste questa opposizione? E quando parliamo di altro sesso, a quale stiamo facendo riferimento? Comunemente tendiamo ad avere una visione binaria dei generi: ne esistono due ed essi sono diametralmente diversi, MASCHIO/FEMMINA.

Mi domando quindi, se queste paure, ansie e contrasti non possano derivare dalla definizione stessa a cui le categorie sono soggette? La stessa psicologia sociale ha riscontrato che basti una semplice divisione categoriale “Noi/Voi” per generare discriminazioni e contrasti fra due gruppi (Tajfel,1978).

Ironicamente, l’origine di queste paure potrebbero proprio essere quei libri di autoaiuto che perpetrano stereotipi come: “le donne vengono da Venere e gli uomini da Marte”.

Lorena Lo Bianco

 

 


 

HAI UNA DOMANDA? 9998 Clicca sul pulsante per scrivere al team di psicologi fluIDsex. Le domande saranno anonime, le risposte pubblicate sulle pagine di State of Mind.

La rubrica fluIDsex è un progetto della Sigmund Freud University Milano.

Sigmund Freud University Milano

Ma quanto sono stato bravo?! Come si valuta l’efficacia di uno psicoterapeuta?

In primo luogo dobbiamo tenere distinto il campo della valutazione dell’ efficacia in psicoterapia da quello della sensazione di efficacia. Se il primo è molto studiato anche perché coinvolge importanti aspetti economici (ad es. assicurativi) e si cerca di andare verso una sempre maggiore oggettività, il secondo merita più attenzione soprattutto come acquisizione di consapevolezza del terapeuta sui propri criteri interni che necessariamente finiscono per influenzare il suo operato.

 

Valutare la propria efficacia in psicoterapia

Se devo costruire una sedia la risposta è facile e dipende dal collaudo: se regge ho fatto un buon lavoro, altrettanto se devo montare un mobile di Ikea e alla fine non avanzano pezzi. Fin qui, almeno in apparenza, il compito di valutare la propria efficacia, che sia più o meno connessa nella mente del soggetto al valore personale, sembra piuttosto facile e sposta immediatamente il problema sulla valutazione del risultato, per cui si tratta di stabilire i criteri molteplici per definire una buona sedia o una buona scrivania.

Più complesso è fare la stessa valutazione rispetto ad una psicoterapia per due motivi. Il primo è che il risultato ( riduzione dei sintomi e/o benessere del paziente) è decisamente più impalpabile di una sedia e difficile la messa a punto di strumenti di misura. Il secondo è che trattandosi di un lavoro tra due persone il risultato dipende da entrambi.

Questa seconda constatazione può portare all’estremo a due posizioni opposte. Da un lato in terapeuti affetti da sicumera perniciosa ad attribuire la responsabilità delle difficoltà e degli insuccessi al paziente grazie a quel costrutto salva stima, non a caso condiviso da quasi tutti gli approcci, che è “la resistenza”, il cui utilizzo può diventare iatrogeno scaricando colpe sul paziente. Dall’altro in terapeuti iperresponsabili a ritenere che aver attivato una resistenza nel paziente è comunque segno di non averne previsto adeguatamente il funzionamento il che è compito precipuo del terapeuta. Questi terapeuti pensano di essere o, peggio, che si potrebbe e dovrebbe essere onnipotenti trascurando il fatto che l’ora di terapia è soltanto uno dei fatti che capitano al paziente durante la settimana e infinite sono le altre perturbazioni che possono attivare o impedire un cambiamento.

Fin qui ci siamo mossi nel dominio della valutazione reale di efficacia della psicoterapia che è ormai da anni oggetto di studio e dibattito nel mondo della psicoterapia dopo l’avvento della evidence-based medicine (EBM). Talmente vasto l’argomento che ce ne distanziamo immediatamente per rifugiarci in un molto più ristretto e “intimistico” argomentino che riguarda “la sensazione soggettiva di efficacia”. Ci chiediamo cosa ci faccia a volte dire “ oggi ho fatto proprio un buon lavoro” e ci accompagni fino a casa soddisfatti e desiderosi di ampliare la nostra attività ed altre volte ci faccia sentire “ di essere un disastro, di aver danneggiato il paziente” impegnandoci nottetempo in defaticanti rimuginii sul senso della nostra professione e sulla necessità di rilevare il negozio di frutta e verdura sottocasa per occuparsi più di broccoli e rape che di cristiani.

Credo che questo vissuto, positivo o negativo che sia, abbia ben poco a che fare con l’efficacia reale e quindi possa essere studiato distintamente da essa.

E’ esperienza comune avere netta l’impressione di aver risolto brillantemente un importante nodo problematico del paziente e di ritrovarselo di fronte tale e quale senza neppure una scalfittura mentre eravamo ancora impegnati nel complimentarci con noi stessi per la genialata.

Di contro talvolta i pazienti ci ringraziano per un nostro intervento che reputano decisivo nel loro cambiamento e che ricordano minuziosamente tanto lo ritengono significativo mentre noi non ne abbiamo alcuna memoria.

 

Distinguere la valutazione di efficacia in psicoterapia dalla sensazione di efficacia

Dunque in primo luogo dobbiamo tenere distinto il campo della valutazione di efficacia da quello della sensazione di efficacia che riguarda queste poche righe. Se il primo è molto studiato anche perché coinvolge importanti aspetti economici ( ad es. assicurativi) e si cerca di andare verso una sempre maggiore oggettività, il secondo merita più attenzione soprattutto come acquisizione di consapevolezza del terapeuta sui propri criteri interni che necessariamente finiscono per influenzare il suo operato. Una ricerca descrittiva avrebbe, a mio avviso, lo scopo di sollecitare questo tema all’attenzione del formatore e del supervisore.

Per dare il buon esempio cerco di elencare cosa mi fa sperimentare la soddisfazione di aver fatto un buon lavoro in seduta o meno, consapevole che ciò nei contenuti specifici vale solo per me mentre il metodo può essere utile per tutti. Da qui in avanti dunque mi riferisco a me stesso e mi rendo conto di quanto questi criteri siano perniciosi. Comunque meglio saperlo che lasciarli agire indisturbati.

In primo luogo è importante l’impressione di aver capito, di aver risolto un rompicapo. Lo stesso piacere lo provo nel trovare la soluzione ad un problema di matematica, un indovinello complicato o nell’individuare l’assassino in un giallo. Per me è una vera goduria quando si fa luce, quando tutto torna, quando finalmente ho capito. Mi rendo conto che tale vissuto è molto simile all’eureka dell’esordio delirante e che per non rinunciare a questo piacere epistemico rischio di trascurare i dati incongruenti che rovinerebbero la festa. Per non imbrattare la limpidezza della soluzione metto sotto al tappeto quanto mi costringerebbe ad una spiegazione meno semplice ed elegante ma più complessa e vera.

In secondo luogo mi sembra importante che il paziente stia bene o meglio non soffra nel tempo che sta con me. Quanto questa attenzione a non provocargli disagio immediato sia dannosa mi sembra inutile argomentare, basterà pensare ai disastri che causerebbe un chirurgo mosso dalla stessa preoccupazione. Forse per dare dignità teorica a questo atteggiamento sono anche vistosamente contrario all’idea di molti terapeuti e anche pazienti che una psicoterapia per essere efficace e profonda debba comportare lacrime e sangue. In proposito ricordo come la stessa convinzione in campo medico porti spesso a preferire la terapia iniettiva rispetto a quella orale anche quando ciò non ha alcun razionale e addirittura le aziende farmaceutiche aggiungono sostanze urticanti nelle fiale secondo la regola della fata turchina a Pinocchio che “la medicina se è cattiva e fa male vuol dire che è efficace”.

In terzo luogo, attenzione perché questo è gravissimo e pericolosissimo, mi sembra importante e credo di darmi da fare perché si realizzi che il paziente mi trovi simpatico, in gamba e, in estrema sintesi, mi voglia bene. E’ facile spacciare ciò come l’attenzione alla creazione di una positiva relazione terapeutica e avere il consenso in quanto ciò compare sempre tra gli obiettivi terapeutici ma se devo essere sincero credo che la mia motivazione sia prevalentemente autoreferenziale. Voglio intendere che lo farei anche se fossi alla cassa del negozio di frutta e verdura che prima o poi mi deciderò a rilevare dai pakistani sotto casa.

E’ interessante notare quanto poco conti nella mia sensazione di essere stato bravo la riduzione sintomatologica a meno che il pazienti non me la riferisca con gratitudine. Sembra infatti che basta che capisco, loro non soffrono e ci stiamo simpatici che tutto va bene. Sulla riduzione sintomatologica, il primo motivo per cui viene in terapia devo mettere consapevolmente l’attenzione perché spesso il paziente continua a portare ciò che non va, poco importa se comunque è ridotto rispetto ad un tempo.

Attendere con interesse la prossima seduta e magari lavorarci mentalmente per prepararla al meglio è indicatore del fatto che con quel paziente mi sento bravo perché se vogliamo come topini da esperimento, premere spesso la leva di quel paziente vuol dire che esso ci da una gratificazione validando la nostra identità professionale.

Se al contrario facciamo novene perché non venga e alla notizia di una buca esultiamo scompostamente con lingue di Menelik e nacchere evidentemente quel paziente ci rimanda che non siamo bravi terapeuti.

Se poi, piuttosto che liquidare la faccenda dicendoci che “è un paziente non collaborativo, traboccante di resistenze”, ci dicessimo che lui fa solo la sua parte da matto potremmo prendere in considerazione l’ipotesi che magari davvero non siamo con lui stati bravi e potremmo vedere perché.

Ansia, paura e rischio di infarto: quale relazione?

Ansia e rischio di infarto: Ma perché il paziente, tra tanti timori, “sceglie” di concentrare tutta la sua attenzione sul cuore? Perché teme proprio che il suo cuore possa essere vittima dei pensieri ansiogeni? Esiste effettivamente un legame tra e ansia e rischio di infarto o malattie cardiache?

Claudia Rizza, Claudia Tropeano OPEN SCHOOL STUDI COGNITIVI MILANO

 

Paura, ansia e il timore del rischio di infarto

Pz: “Dottoressa è da circa sei mesi che mi sento preoccupato per la mia salute. Mi capita infatti di continuare a pensare che il mio cuore non funzioni bene soprattutto da quando a mio padre è stato diagnosticata un’insufficienza della valvola mitralica”.
T: Mi racconta un episodio in cui ha pensato che il suo cuore non funzionasse bene?
Pz: mi capita durante la giornata, senza un motivo preciso, di avvertire delle vampate di calore, mi tremano le mani, sudo e il cuore mi batte alla velocità della luce. A quel punto penso… anzi, sono convinto, che mi sta per venire un infarto e mi sento ancora peggio.
T: in questa situazione che mi ha appena descritto, come si sente? che emozione prova?
Pz: ho paura che il mio cuore stia impazzendo e che da un momento all’altro possa smettere di battere…è tremendo…sono anche andato a farmi visitare da più cardiologi che hanno escluso il rischio di infarto ma io sono perennemente in ansia. Questa cosa mi spaventa, non riesco a sopportarlo…dottoressa, si può morire di ansia?

Con questa richiesta di aiuto, il paziente esprime una grande paura associata ad una sintomatologia chiara sperimentata dapprima sul corpo per poi essere alimentata da una serie di pensieri che stanno condizionando il normale svolgimento della sua vita. Il paziente teme che, da un momento all’altro, il suo cuore “possa smettere di battere” e che, improvvisamente, possa presentarsi il rischio di infarto interpretando in maniera allarmata alcuni sintomi corporei specifici.

In questo articolo abbiamo intenzione di comprendere l’effettiva possibilità che tale paura si possa verificare focalizzando l’attenzione su quella letteratura scientifica e medica che correla ansia e il rischio di infarto o malattie cardiache.

L’infarto miocardico acuto è una sindrome clinica che si verifica conseguentemente all’occlusione di un ramo arterioso delle coronarie e che determina la morte (necrosi) delle cellule miocardiche a causa dell’assenza di ossigeno. L’ infarto miocardico è caratterizzato da un senso di oppressione e da una sensazione di forte peso a livello retrosternale; alcuni possono sentire il dolore irradiarsi verso la spalla e al braccio sinistro, alla bocca dello stomaco o al collo e alla mandibola. Talvolta può essere associato a dispnea, sudorazione e senso di nausea. Ciò che è importante ricordare è che nell’attacco anginoso che segnala l’infarto, il senso di oppressione percepita dal paziente è atroce e si ha la sensazione di morte imminente che perdura per circa 15-30 minuti (Goldberger, 1993).

Quindi, alla luce delle informazioni sopraccitate e analizzando i dati che il ‘nostro’ paziente ci riferisce, appare opportuno focalizzare l’attenzione su alcuni aspetti:

  • le visite mediche. Il paziente ha eseguito differenti visite mediche specialistiche (“sono anche andato a farmi visitare da più cardiologi” ) i quali hanno escluso il rischio di infarto o malattie cardiovascolari. Questo aspetto è da non sottovalutare perché permette a noi clinici di fare una diagnosi differenziale e di lavorare cognitivamente riducendo al minimo i dubbi.
  • la sintomatologia. Il paziente non sperimenta angina e, malgrado i sintomi presentati siano simili a quelli cardiaci, essi non sembrano possedere la stessa intensità che contraddistingue l’infarto. Oltre a ciò, vengono riferite convinzioni e pensieri che alimentano i sintomi fisici (..sono convinto che corra il rischio di infarto e mi sento ancora peggio) e che sembrano quasi dissolversi improvvisamente senza che l’infarto si sia mai effettivamente verificato.
  • l’origine del problema. Se proviamo a prestare attenzione alle parole iniziali, notiamo subito il tentativo del paziente di individuare l’origine del problema (“da quando a mio padre è stato diagnosticata…”) che è diventato, per il paziente, fonte di minaccia alla propria sopravvivenza nonché oggetto del suo rimuginio ansioso.

Avendo escluso la possibilità medica che possa essere esposto a rischio di infarto cardiovascolare, ciò che il paziente ci porta in seduta è una sintomatologia ansiosa che necessita di un intervento clinico accurato. Egli parla di “preoccupazioni e paure” che, sebbene abbiano in comune alcuni aspetti, si differenziano per altri.

 

Paura e ansia: la sovrastima dei pericoli e la terribilizzazione delle emozioni

Paura e ansia sono in qualche modo “imparentate” le une con le altre e si caratterizzano: da un aspetto cognitivo, che riguarda la percezione di pericolo incombente, e da una reazione somatica specifica.

La paura ci segnala un pericolo reale e imminente che sta minacciando un nostro scopo e, pertanto, necessita che tutto il corpo sia preparato ad affrontarlo: il cuore batte più velocemente, la frequenza respiratoria aumenta, l’apparato digerente si blocca e il sangue si dirige verso le estremità del corpo.

Le reazioni fisiche, pur essendo uguali a quelle dell’ansia, quando proviamo paura si presentano in modo più intenso e assumono un carattere di emergenza di fronte ad un oggetto specifico (Lorenzini e Sassaroli, 1987,1991,1992).

L’ansia è dovuta all’interpretazione della realtà intesa come minacciosa e della percezione di incapacità di fronteggiamento degli eventi. Questi due aspetti espongono maggiormente l’individuo a sperimentare ansia, a mantenere uno stato di allerta e di ipervigilanza allo scopo di “scandagliare” l’ambiente nel tentativo di individuare anche solo il più piccolo segnale di pericolo. L’attenzione rivolta all’ambiente esterno è selettiva: la nostra mente è più predisposta ad individuare e a sovrastimare i segnali negativi e a trascurare completamente quei segnali positivi che invece potrebbero rassicurarci (Butler, Mathews, 1983; Clark, 1988; Ehlers, 1992). E’ come se il paziente ansioso iniziasse ad esplorare l’ambiente esterno e, per ogni dettaglio che compone quell’ambiente, vedesse lampeggiare il segnale (sia esterno che interno) di pericolo e di morte imminente accompagnato da un pensiero tipo: “ è terribile, non sono capace di affrontarlo”. Tale pensiero, altro non fa che incrementare i sintomi fisici dell’ansia e condizionare il modo con cui interpretiamo l’ambiente esterno che verrà percepito in modo sempre più pericoloso. Si verifica un errore metacognitivo che consiste nell’interpretare un’ attivazione emotiva come un pericolo reale piuttosto che come un segnale di allarme semplicemente percepito. Questo è quello che ci permette di discriminare tra ansia, intesa come emozione adattiva, e un disturbo d’ansia (Lorenzini, Sassaroli 2000;Sassaroli et al., 2006).

L’errore metacognitivo non basta per comprendere come si sviluppa un sintomo ansioso. Un paziente chiede una consulenza psicologica non dopo aver sperimentato un solo episodio di ansia, ma dopo aver acquisito una ‘ lunga esperienza’ che lo conduce, poi, a sentirsi inefficace di fronte agli eventi percependoli sempre più minacciosi.

 

Il rimuginio: un meccanismo di mantenimento dell’ansia

Un fenomeno mentale che accompagna l’ansia e che contribuisce al suo mantenimento è il rimuginio. Tale termine, introdotto da Borkovec (Borkovec, Inz, 1990; Borkovec et al 1993), è la continua autoripetizione del timore del danno che viene interpretato come irreparabile, incontrollabile e che viene rappresentato mentalmente in forma verbale e astratta. Nel rimuginio (worry) si assiste ad una predominanza del pensiero verbale negativo dove, il soggetto, tende a prevedere gli eventi futuri in termini catastrofici coinvolgendo poco l’immaginazione concreta e futura (Freeston, Dugas, Ladoucer, 1996, Molina, Borkovec, Peasley, 1998).

Infatti, quando si rimugina, non ci si limita solo a preoccuparsi e a pensare in forma verbale agli scenari negativi che potrebbero verificarsi ma si è impegnati in un’attività impegnativa e dispendiosa, il rimuginio appunto. E’ come se si continuasse a ripetersi mentalmente che “le cose non stanno andando bene, che qualcosa non va, che da un momento all’altro potrebbe accadere qualcosa di terribile, definitivo e irreversibile e che non sarò in grado di gestire tali eventi nefasti”. L’esito di tale distorsione del processo interpretativo si traduce nel comportamento di fuga o di evitamento che ha l’effetto immediato di ridurre i sintomi ansiosi ma che, a lungo termine, alimenta la convinzione di pericolosità dell’ambiente e di reale inefficacia nel fronteggiamento.

 

Le credenze patologiche dell’ansia

L’analisi sulle credenze psicopatologiche dell’ansia ci permettono di identificare i contenuti disfunzionali sottesi ai disturbi e comprendere meglio che cosa effettivamente il paziente teme. Nello specifico, le principali credenze cognitive sono (Sassaroli et al, 2006):
– timore eccessivo del danno e tendenza alla previsione negativa o pensiero catastrofico, ovvero la tendenza dei pazienti ad immaginare conseguenze negative e ad interpretare il mondo esterno come pericoloso;
– timore dell’errore o perfezionismo patologico, definito come la preferenza a prestare attenzione agli errori piuttosto che ai risultati positivi e a temere che, in seguito a tale errore, si manifesti una catastrofe;
– intolleranza dell’incertezza, ovvero la tendenza a non poter sopportare la presenza del dubbio o della possibilità di non conoscere esattamente tutti i possibili scenari che potrebbero presentarsi;
– autovalutazione negativa definita come la valutazione in termini negativi delle proprie capacità di fronteggiamento e la derivante situazione catastrofica come esito delle proprie fragilità.
– bisogno di controllo e l’illusione di poter prevedere esattamente come andrà il futuro (anche attraverso il rimuginio);
– intolleranza delle emozioni, definita come la tendenza ad interpretare ogni stato emotivo come negativa o perché sottolinea la convinzione di fragilità/incapacità o perché ritenuta prova dell’imminente catastrofe;
– eccessivo senso di responsabilità, ovvero la tendenza ad interpretare in maniera catastrofica e a porsi come unici responsabili di tale situazione.

Secondo Sassaroli et al (2006), il pensiero catastrofico, sebbene sia un costrutto ampio e vago, rappresenta lo stato ansioso mentre l’intolleranza dell’incertezza, il perfezionismo e il bisogno di controllo riproducono in maniera più dettagliata e sovraordinata la gerarchia dell’ansia. Ciò che invece alimenta e cronicizza il disturbo ansioso sono l’autovalutazione negativa e l’intolleranza delle emozioni, così come riscontrabile nello stralcio del nostro colloquio.

 

L’imprevedibile ci fa paura

Ritornando per un momento al nostro caso, che cosa spaventa il nostro paziente? Nell’ansia, così come nella paura, ciò che viene minacciato è uno scopo ma, cosa è considerato davvero minaccioso?
Kelly (1955) sostiene che è minaccioso ciò che è imprevedibile e che l’ansia segnala la presenza di eventi che si verificano al di là dei propri sistemi di costrutti. L’imprevedibile fa paura perché non si riesce ad immaginare una vita così diversa da come normalmente la viviamo. Questo significa che anche solo pensare alla possibilità di avere un problema al cuore, che è l’organo deputato alla vita, spaventa molto e immaginiamo che la nostra vita possa essere compromessa alla sola idea di pensarlo danneggiato.
L’ignoto fa paura, ma non è detto che l’oggetto della nostra paura sia veramente così terribile.
La medicina ci dimostra quotidianamente che è possibile continuare a svolgere la vita normalmente pur avendo le arterie danneggiate o dopo aver sostituito una valvola cardiaca.

Un altro aspetto che terrorizza il paziente è la sensazione di impotenza e di imprevedibilità di fronte all’evento. L’idea che possa accadere qualcosa di spiacevole e che, malgrado i tentativi di previsione, esso sfugga dal nostro controllo, genera e alimenta la sensazione di minaccia percepita che si traduce con un ipermonitoraggio dei segnali corporei ed esterni. Il continuo ipercontrollo, nell’illusione che possa servire ad evitare l’evento temuto, impedisce l’accettazione che questo possa effettivamente verificarsi (Sassaroli et al., 2006).

In tutti i casi e indipendentemente dal fatto che l’evento minaccioso sia poco prevedibile o incontrollabile, ciò che spaventa il paziente è l’esito finale, è il non riuscire a rappresentare se stessi subito dopo che l’evento terrificante sia accaduto (Sassaroli et al., 2006). Quindi, quando il paziente arriva in seduta, egli porta con sé un bagaglio ricco di preoccupazioni e timori legati alla possibilità di non poter riuscire a sopravvivere alla catastrofe imminente.

 

Il collegamento tra ansia e il rischio di infarto o malattie cardiache

Ma perché il ‘nostro’ paziente, tra tanti timori, “sceglie” di concentrare tutta la sua attenzione sul cuore? Perché teme proprio che il suo cuore possa essere vittima dei pensieri ansiogeni? Esiste effettivamente un legame tra e ansia e rischio di infarto o malattie cardiache?

La risposta è rintracciabile in alcuni studi fisiopatologici che potrebbero essere alla base dell’associazione tra ansia e rischio di infarto o patologie cardiovascolari (Molinari et al., 2007).

Nello specifico:

– la trombogenesi: I soggetti sani sottoposti a condizioni di stress mentale mostrano livelli più alti di catecolamine (epinefrina e norepinefrina) comportando un conseguente aumento di attivazione piastrinica e di coagulazione. Quindi, elevati livelli di ansia possono concorrere all’aggregazione piastrinica e alla formazione di trombi (Frasure-Smith, Lesperance e Talajic, 1995; Markovitz e Matthews, 1991).

– l’aritmogenesi: L’aumento dell’attivazione simpatica, che può essere causata anche dall’ansia, può portare ad un aumento dell’aritmia cardiaca in pazienti già cardiopatici. I risultati delle ricerche evidenziano inoltre che le situazioni di stress mentale nei pazienti aventi già patologia cardiaca li espongono maggiormente ad aritmia ventricolare rispetto ai periodi non stressanti (Gavazzi, Zotti e Rondanelli, 1986);

– l’aumento della richiesta miocardica di ossigeno: Lo stress aumenta la frequenza cardiaca e altera l’equilibrio tra la quantità di ossigeno richiesta dal cuore e quella fornita dal sistema circolatorio (Rozanski, Krantz e Bairey, 1991). Nei pazienti con patologia cardiaca si assiste ad un aumento della resistenza vascolare presente sia durante uno sforzo fisico sia durante il periodo di stress mentale, quale potrebbe essere quello dato dagli stati d’ansia (Goldberg et al., 1996);

– l’ ischemia miocardica (Krantz et al., 1996; Mittleman, Maclure, Sherwood et al, 1995). Mittleman e coll. (1995) hanno riscontrato che i pazienti che hanno avuto un infarto miocardico acuto erano più ansiosi immediatamente prima del verificarsi dell’episodio rispetto a quanto riscontrato nelle 24-26 ore successive (Mittleman et al., 1995). Inoltre, un’ulteriore ricerca ha dimostrato che l’ansia può causare rapidi cambiamenti della pressione sanguigna, una conseguente rottura delle placche arteriosclerotiche e un aumento della richiesta di ossigeno da parte del cuore (Rubzansky, Lawachi, Weiss et al, 1998);

– l’anormalità del sistema nervoso autonomo. La funzione cardiaca è regolata da due componenti del sistema nervoso autonomo ovvero il sistema nervoso simpatico e il sistema nervoso parasimpatico (Kamarck e Jennings, 1991; Krantz, Kop, Santiago et al, 1996). Gli agenti fisiologici dello stress attivano il sistema nervoso simpatico, provocando il rilascio di due catecolamine: l’epinefrina e la norepinefrina. In situazioni di distress e di alti livelli di ansia si assiste ad un eccessivo rilascio di catecolamine, sia nelle persone sane che in quelle con patologia cardiaca che arrivano direttamente al cuore. Nei pazienti cardiopatici, sottoposti a stress mentale, è stata riscontrata una positiva correlazione tra i livelli di epinefrina nel plasma e i cambiamenti della frequenza, della gittata cardiaca e della pressione sanguigna (Goldberg, Becker, Bonsall et al, 1996). Inoltre, tra i pazienti con disturbi cardiaci che hanno avuto almeno un infarto miocardico acuto, coloro che presentano livelli di ansia più elevati mostrano livelli maggiori di norepinefrina nel sangue rispetto alla popolazione di controllo (Kamarck e Jennings,1991; Krantz, Kop, Santiago et al, 1996). L’attivazione del sistema nervoso simpatico e dell’asse ipotalamo-ipofisi-surrene sembra essere coinvolta in condizioni ansiose e costituisce un significativo fattore di rischio di infarto per pazienti che hanno avuto episodi di infarto miocardico acuto (Sirois e Burg, 2003).

Un ulteriore modello fisiopatologico per spiegare la relazione tra fattori psicologici acuti, episodici e cronici e la malattia coronaria è stato fornito da Kop (1999). Secondo tale modello, l’ansia stimola l’attività del sistema nervoso autonomo che, a sua volta, stimola la produzione di catecolamine, aumentando la frequenza cardiaca e la pressione sanguigna, restringendo le arterie coronariche, e, conseguentemente, aumentando la richiesta cardiaca, l’attività delle piastrine, la coagulazione del sangue e l’infiammazione. Tutte queste variazioni a cascata portano ad avere una maggiore probabilità di sviluppare trombi e aritmie, o un’ alterazione del battito cardiaco, ad un aumento della domanda di ossigeno da parte del miocardio, ad ischemia miocardica e ad una ridotta funzione ventricolare (Molinari et al., 2007);

Avendo preso in esame gli aspetti fisiopatologici è possibile comprendere come esista una correlazione tra ansia e rischio di infarto. Tale associazione è stata indagata in letteratura, tenendo in mente due grandi filoni: il primo prende in esame l’ansia come un fattore predisponente per le malattie cardiologiche; il secondo, invece, considera pazienti cardiopatici e il ruolo dell’ansia come precipitante nella manifestazione di recidive di malattia.

Nel primo caso gli studi eziologici eseguiti su pazienti sani hanno dimostrato come una varietà di disturbi d’ansia (come ad esempio gli attacchi di panico e l’ansia fobica), siano in grado di predire casi di mortalità dovuti a patologie cardiovascolari e gli episodi di infarto miocardico acuto nel corso di lunghi periodi di follow-up (20 anni). Questa relazione è risultata essere indipendente dall’impatto di altri importanti fattori di rischio di infarto cardiovascolare tradizionali (Eaker, Pinsky e Castelli, 1992; Haines, James e Meade, 1987; Kawachi, Coldtiz, Ascherio et al, 1994; Kawachi, Sparrow, Vokonas et al, 1994).

Il secondo filone di studi ha preso in esame pazienti aventi già una diagnosi di malattia cardiaca. Alcuni studi prognostici si sono occupati dell’associazione tra l’ansia ed il rischio di infarto nei pazienti che avevano già una diagnosi di patologia cardiovascolare ma i risultati appaiono, però, contrastanti. Alcune ricerche hanno dimostrato che un elevato livello di ansia prediceva successivi episodi cardiaci, mentre altre non hanno evidenziato alcuna associazione; alcune ricerche hanno addirittura mostrato che l’ansia era associata a maggiori probabilità di sopravvivenza (Molinari et al, 2007).

Nonostante queste contraddizioni, dovute alla specificità delle patologie cardiache considerate dai diversi studi, grande è l’accordo relativo al fatto che l’ansia costituisca, primariamente, un ostacolo per la guarigione fisica. La ricerca di Moser e Dracup (1996) ha dimostrato che i disturbi d’ansia, in seguito all’episodio di infarto, sono associati ad un gran numero di complicanze durante il periodo di ricovero in ospedale quali aritmia letale, ischemia permanente e recidiva dell’infarto. Inoltre, in questi casi, i pazienti con più elevati livelli di ansia trascorrono periodi più lunghi in ospedale o nelle unità di riabilitazione cardiologica (Lane, Carroll, Ring et al, 2001; Legault, Joffe e Armstrong, 1992).

Altre ricerche dimostrano come l’ansia sia un fattore predittivo del rischio di infarto e altri eventi coronarici futuri e dei tempi di sopravvivenza a seguito dell’infarto (Denollet e Brutsaert, 1998; rasureSmith et al., 1995; Thomas, Friedman, Wimbush et al, 1997). Inoltre, i pazienti con cardiopatia coronarica che riportano ansia patologica soffrono di un maggior numero di sintomi a prescindere dalla loro condizione fisica e, oltre a ciò, si avvalgono di un maggior numero di risorse volte alla cura della salute riferendo una più bassa qualità della vita (Brown, Melville, Gray et al, 1999; Lane et al., 2001;Mayou, 2000; Sullivan, La Croix, Baum et al, 1997; Sullivan, LaCroix, Spertus et al,2000).

I pazienti con patologie cardiovascolari e alti livelli di ansia, riprendono le loro attività lavorative meno frequentemente rispetto ai pazienti non ansiosi e, inoltre, presentano maggiori problemi nel riprendere l’attività sessuale a seguito di un episodio acuto (Rosal, Downing, Littman e Ahern, 1994).

L’ansia costituisce un ostacolo anche per l’adattamento psicosociale alla malattie cardiovascolari, impedendo al paziente di aderire al trattamento e quindi di prendersi cura di sé: i pazienti ansiosi risultano scarsamente in grado di apprendere le nuove informazioni riguardanti i cambiamenti legati allo stile di vita, non riuscendo, così a tradurle in effettivi cambiamenti e, ciò li espone maggiormente a rischi di recidiva di malattia (Moser e Dracup, 1996; Rose, Conn e Rodeman, 1994). La condizione d’ansia prolungata e cronica possono condurre i pazienti a soffrire della cosiddetta “invalidità cardiaca”. Questo termine viene utilizzato per descrivere un sottoinsieme di pazienti con malattie cardiovascolari il cui grado di debilitazione o disabilità in seguito alla diagnosi o ad un episodio acuto, non può essere spiegato dalla gravità della loro condizione fisica (Sykes, Evans, Boyle et al, 1989; Sullivan et al., 1997; Sullivan et al., 2000).

Una recente revisione della letteratura ha concluso che i disturbi relativi ad ansia, depressione e ostilità sono molto associati fra loro e possono essere considerati, nel loro insieme, dei fattori di rischio di infarto o  malattie cardiovascolari (Suls e Bunde, 2005). Precedentemente anche la revisione effettuata su studi prospettici (Rutledge, Hogan, 2002) aveva evidenziato come i fattori di ansia, depressione e rabbia fossero collegati, al netto dell’effetto delle variabili di tipo biomedico, con le diverse malattie cardiovascolari, anche l’ipertensione.

Recentemente Tully et al. (2013) hanno dimostrato come il disturbo d’ansia generalizzato (GAD) non è secondo alla depressione come motivo di richiesta di supporto psicologico nei pazienti con patologie cardiache. In particolare, diversi studi hanno rilevato che l’ansia è comune tra gli individui affetti da malattie cardiovascolari e anche tra i pazienti ricoverati in riabilitazione cardiaca a seguito di un evento dove il tasso di prevalenza è compreso fra il 70% e l’80% tra i pazienti che soffrono di un episodio cardiaco acuto, e persiste in maniera cronica in circa il 20-25% degli individui con patologie cardiovascolari che abbiano avuto o meno un episodio cardiaco acuto.

Moser e Dracup (1996) hanno sottolineato che nei pazienti con infarto miocardico, un tasso fra il 10% e il 26% manifesta livelli di ansia più elevati rispetto a quelli di pazienti con diagnosi di disturbo psichiatrico. Un’ulteriore più recente ricerca ha rilevato che la prevalenza di ansia a seguito di infarto del miocardio è maggiore nelle donne rispetto agli uomini, riscontrando questa differenza in diversi gruppi culturali, appartenenti sia al mondo occidentale che asiatico (Moser, Dracup, Doering et al., 2003).

Elisabeth J. Martens e collaboratori del Dipartimento di Psicologia Medica presso l’Università di Tilburg in Olanda (2010) hanno, infine, di recente descritto che i pazienti con malattia coronarica stabile e disturbo d’ansia generale presentavano un 74% di rischio di infarto o altri eventi cardiovascolari, come ictus e morte, nettamente maggiore rispetto a quelli con sola malattia coronarica.

 

Concludendo: il legame tra ansia e rischio di infarto

L’ansia può essere una reazione normale ad un evento traumatico quale può essere un evento cardiaco, ma nei casi in cui raggiunge livelli estremi o persiste nel tempo può avere conseguenze molto negative per la salute fisica e mentale (Molinari et al, 2007).Tali risultati, di certo, devono condurre a riconoscere i disturbi d’ansia come un importante fattore di rischio di infarto cardiovascolare modificabile ed essere di monito al clinico per non trascurare l’indagine emotiva e relativa allo stato dell’umore dei propri pazienti nella sua pratica professionale.

L’ansia, come abbiamo visto, è un emozione naturale che garantisce la sopravvivenza in quanto ‘sorella’ della paura. Ma non per questo va sottovalutata. Se i livelli di preoccupazione raggiungono livelli elevati e se si mettono in atto degli evitamenti nel tentativo di riduzione della sintomatologia, questi, con il tempo, limitano notevolmente la vita del soggetto costringendolo poi a dover alzare sempre di più la posta in gioco per far fronte alla minaccia che vede presentarsi di giorno in giorno. Tale percezione della minaccia accompagnata anche dall’idea di non riuscire a gestire quanto sta accadendo, mina notevolmente l’autostima della persona e a sentirsi preoccupato e senza via di fuga. Ridurre i livelli di intensità dell’ansia rendendola tollerabile è fondamentale anche per far sì che il disturbo d’ansia non diventi un fattore precipitante nella malattia cardiovascolare.

Pertanto, imparando a riconoscerla, a denominarla e a comprendere le sue componenti, sarà possibile ipotizzare un intervento cognitivo- comportamentale efficace per il suo trattamento.

 

 

Qualcuno volò sul nido del cuculo: la rivoluzione psichiatrica di Basaglia – Recensione del film

Qualcuno volò sul nido del cuculo ” è un film del 1975 diretto da Milos Forman e tratto dal romanzo di Ken Kesey in seguito all’esperienza come volontario nell’ospedale Veterans Administration di Palo Alto, California. Con visione poco distaccata descriveva nel romanzo Qualcuno volò sul nido del cuculo l’orrore degli ospedali psichiatrici. Nel film la cruda realtà lancia un messaggio di speranza e libertà, che troverà realizzazione in Italia nel 1978, con la legge 180 di Franco Basaglia.

 

Franco Basaglia: biografia

Franco Basaglia nacque a Venezia, l’11 marzo 1924. Dopo aver conseguito la maturità classica, si iscrisse alla facoltà di Medicina e chirurgia dell’Università di Padova. Laureatosi nel 1949, si specializzò, nel 1953, in malattie nervose e mentali. Lo stesso anno sposò Franca Ongaro, con la quale ebbe due figli e stabilì inoltre una collaborazione anche professionale, soprattutto nella stesura di libri e saggi.

Nel 1958 ottenne la libera docenza in Psichiatria. In quel tempo prestava la sua attività lavorativa a Padova, dove era assistente presso la Clinica di malattie nervose e mentali. Pro-rettore dell’ateneo padovano era all’epoca Massimo Crepet, pioniere della medicina del lavoro ed amico personale di Basaglia, il quale già allora veniva visto, come una ‘testa calda’ .

Nel 1961, questo stato di cose indusse Basaglia a rinunciare alla carriera universitaria e ad andare a Gorizia, dove aveva vinto un concorso per la Direzione dell’Ospedale psichiatrico. L’impatto con la realtà del manicomio fu durissimo. Nel manicomio c’erano cancelli, inferriate, porte e finestre sempre chiuse; catene, lucchetti e serrature ovunque. Le terapie più comuni erano la segregazione nei letti di contenzione, la camicia di forza, il bagno freddo, l’elettroshock, la lobotomia (asportazione dei lobi parietali).

Per Basaglia questo metodo non era rilevante ai fini di guarigione, indipendenza e percorso di ogni singolo malato. Per poter affrontare degnamente la malattia mentale dunque, si convinse che ogni pregiudizio terapeutico doveva essere sospeso. Solo in questo modo il malato poteva cominciare un percorso che portasse ovunque ma non li…in una situazione di immobilità inutile. Sartre, Foucault e Goffman furono la sua ispirazione soprattutto nella critica all’impostazione psichiatrica.

 

L’ARTICOLO CONTINUA DOPO IL TRAILER DI QUALCUNO VOLÒ SUL NIDO DEL CUCULO:

 

La rivoluzione psichiatrica di Basaglia e la denuncia della psichiatria esistente nel film Qualcuno volò sul nido del cuculo

Nel manicomio di Gorizia erano ricoverati circa 650 pazienti: con la direzione Basaglia cominciò, una vera e propria rivoluzione. Vennero eliminati tutti i tipi di contenzione fisica e le terapie di elettroshock, furono aperti i cancelli, facendo si che i malati potessero passeggiare nel parco e consumare i pasti all’aperto ecc. Per i pazienti non dovevano esserci più solo terapie farmacologiche, ma anche rapporti umani rinnovati con il personale della ‘comunità”. I pazienti dovevano essere trattati come uomini.

Nel 1969 lo psichiatra lasciò Gorizia e, dopo due anni passati a Parma alla direzione dell’ospedale di Colorno, nell’agosto del 1971, divenne direttore del manicomio di Trieste, il San Giovanni, dove c’erano quasi milleduecento malati. Basaglia istituì subito, all’interno dell’ospedale psichiatrico, laboratori di pittura e di teatro. Nacque anche la cooperativa dei pazienti, che così cominciavano a svolgere lavori riconosciuti e retribuiti.
Questa volta però Basaglia sentiva il bisogno di andare oltre la trasformazione della vita all’interno dell‘ospedale psichiatrico: il manicomio andava chiuso ed al suo posto andava costruita una rete di servizi esterni, per provvedere all’assistenza della persone affette da disturbi mentali.

La psichiatria, non aveva compreso fino ad allora i problemi del malato mentale, non aveva attuato nessun percorso né riabilitativo né assistenziale o rivolto a guarigione alcuno aveva solo creato un recipiente dove contenere chi soffriva di malattia mentale. Nel 1973 Trieste venne designata “zona pilota” per l’Italia nella ricerca dell’Oms sui servizi di salute mentale. Nello stesso anno Basaglia fondò il movimento Psichiatria Democratica.

Nel gennaio 1977, in una affollatissima conferenza stampa, Franco Basaglia e Michele Zanetti, presidente della Provincia di Trieste, annunciarono la chiusura del San Giovanni entro l’anno e l’anno successivo, il 13 maggio 1978, fu approvata in Parlamento la Legge 180 di riforma psichiatrica.

Nel 79 Basaglia fece un viaggio in Brasile, dove incontrò psichiatri, psicologi, infermieri e studenti, ai quali, attraverso una serie di seminari raccolti poi nel volume “Conferenze brasiliane”, riferì l’esperienza nei manicomi.

La psichiatria democratica doveva allora andare oltre la chiusura dei manicomi ed affrontare quel disagio sociale attraverso il quale miseria, indigenza, tossicodipendenza, emarginazione, delinquenza, conducono alla follia.

Nel novembre del 1979 Basaglia lasciò la direzione di Trieste e si trasferì a Roma, dove assunse l’incarico di coordinatore dei servizi psichiatrici della Regione Lazio. La situazione psichiatrica romana era allora rappresentata da un manicomio enorme e da innumerevoli case di cura private.
Nella primavera del 1980 però un tumore al cervello in pochi mesi lo portò alla morte, avvenuta il 29 agosto 1980.

[blockquote style=”1″]E’ nel silenzio di questi sguardi che egli si sente posseduto, perduto nel suo corpo, alienato, ristretto nelle sue strutture temporali, impedito di ogni coscienza intenzionale. Egli non ha più in sé alcun intervallo: non c’è distanza fra lui e lo sguardo d’altri, egli è oggetto per altri tanto da arrivare ad essere una composizione a più piani di sé, posseduto dall’altro in tutti i piani possibili del suo volto e in tutte le possibili immagini che di volta in volta possono derivare dai vari atteggiamenti che si possono cogliere. Il corpo perché sia vissuto è dunque nella relazione di una particolare distanza dagli altri, distanza che può essere annullata o aumentata a seconda della nostra capacità di opporci. Noi desideriamo che il nostro corpo sia rispettato; tracciamo dei limiti che corrispondono alle nostre esigenze, costruiamo un’abitazione al nostro corpo.[/blockquote]

[blockquote style=”1″]Un malato di mente entra nel manicomio come ‘persona’ per diventare una ‘cosa’. Il malato di mente non è una cosa ma una persona che deve essere aiutata a riprendere in mano la sua vita là dov’è possibile![/blockquote]

Molti film sono stati realizzati sull’argomento ma credo che ancora oggi “ Qualcuno volò sul nido del cuculo ” rimanga il film che meglio racconta una realtà che comunque non si è chiusa nel 1978, ma che continua ad esistere forse trattata con la dignità che merita.

Il Disturbo Oppositivo Provocatorio: gli interventi comportamentali

Il Disturbo Oppositivo Provocatorio (DOP) è caratterizzato da un pattern ricorrente di comportamenti ostili, negativistici, provocatori verso le figure di autorità con irritabilità e scoppi d’ira tali da compromettere la sfera scolastica, familiare e relazionale.

 

Introduzione: chi sono i bambini con Disturbo Oppositivo Provocatorio?

Chi sono i bambini provocatori? Spesso, nella pratica clinica per i professionisti, nel contesto scolastico per gli insegnanti, capita di venire in contatto con bambini particolarmente vendicativi, facilmente irritabili e che sfidano gli adulti. Il Disturbo Oppositivo Provocatorio (DOP), infatti, è caratterizzato da un pattern ricorrente di comportamenti ostili, negativistici, provocatori verso le figure di autorità con irritabilità e scoppi d’ira tali da compromettere la sfera scolastica, familiare e relazionale. I genitori di questi bambini ne sanno qualcosa.

I comportamenti messi in atto possono portare a delle reazioni disfunzionali da parte delle figure educative, reazioni dettate dall’impulsività che non fanno altro che alimentare un circolo vizioso che, di fatto, continua a rinforzare gli atteggiamenti negativi e crea nel bambino con Disturbo Oppositivo Provocatorio della sofferenza. Infatti si tratta di bambini che spesso non hanno amici, sono l’incubo dei loro insegnanti e ricevono da parte dei genitori un enorme quantitativo di punizioni e rimproveri. La loro autostima è molto bassa e l’idea che hanno di se stessi è estremamente svalutante.

Cosa fare dunque per aiutarli e per non arrivare all’esasperazione? Di seguito si riportano alcune strategie per intervenire efficacemente su i comportamenti-problema dei bambini con Disturbo Oppositivo Provocatorio.

 

Gli Interventi in caso di Disturbo Oppositivo Provocatorio

L’Osservazione

Il primo intervento da mettere in atto, al fine di comprendere in maniera individualizzata i comportamenti del bambino, è l’osservazione. Attraverso griglie appositamente strutturate, il clinico potrà registrare frequenza, intensità e durata di ogni comportamento in un contesto naturale per il bambino, come la propria abitazione o la scuola. Contestualmente, con l’aiuto dell’esperienza di insegnanti e genitori, si effettuerà l’analisi funzionale dei comportamenti-problema tramite il modello ABC. In una scheda verranno annotati gli antecedenti di tale comportamento, il comportamento nello specifico e le conseguenze in modo tale da individuare gli elementi sui quali intervenire.

Le terapie comportamentali

Per sostituire i comportamenti disadattivi dei bambini con Disturbo Oppositivo Provocatorio con comportamenti funzionali o per procedere con l’instaurazione del processo del rispetto delle regole possono essere utili le terapie comportamentali. Ne esistono di diverse tipologie a seconda dell’obiettivo che si vuole raggiungere o dei comportamenti che si vogliono rinforzare. Si riportano di seguito le strategie più comuni:

  • La token economy

La token economy è un sistema strutturato di rinforzi positivi per incrementare i comportamenti adeguati.

Tramite un accordo preliminare fra clinico, genitore e bambino si utilizzano dei gettoni che il bambino con Disturbo Oppositivo Provocatorio dovrà “collezionare” per arrivare ad un premio finale. L’uso dei gettoni favorisce il monitoraggio dei comportamenti che si vuole cambiare, e per tale motivo, sono previsti dei rinforzi di intermezzo quando i gettoni raggiungono una determinata quota. La durata complessiva di questa metodologia è limitata e deve essere sostenuta da un intervento clinico individualizzato in quanto il rinforzo fornito è estrinseco e pre-determinato.

  • Il rinforzo dei comportamenti adeguati

Questa strategia consiste nel fare focus sui comportamenti adeguati del bambino con Disturbo Oppositivo Provocatorio, anziché su quelli disfunzionali, e ad incentivarli rinforzandoli positivamente. Una variante di questo rinforzo prevede di rinforzare in egual modo anche i comportamenti incompatibili con il comportamento-problema.

  • Il time-out

Il time out è una metodologia da utilizzare con estrema cautela e solo nei casi in cui è assolutamente necessario bloccare un comportamento aggressivo. Consiste nel porre il bambino, per un tempo non superiore ai 3-4 minuti, in uno stato di isolamento nel quale egli non può sperimentare alcun tipo di rinforzo. Gli spazi devono essere asettici, come una sedia e un punto ben definito della casa, ma mai disturbanti per il bambino (stanze buie o simili). Si consiglia inoltre di non superare mai il limite di tempo consigliato per evitare che la metodologia diventi controproducente.

 

Disturbo Oppositivo Provocatorio: consigli pratici per i genitori

Infine è doveroso riportare alcuni consigli pratici che i genitori di bambini con Disturbo Oppositivo Provocatorio possono mettere in atto per meglio gestire i comportamenti-problema:

  • Rimproverare sempre privatamente, mai pubblicamente;
  • Disorientare il bambino con azioni impreviste in modo tale da affrontare gli atteggiamenti provocatori con comportamenti stravaganti;
  • Premiare i comportamenti positivi;
  • Sostituire le punizioni (obblighi) con le perdite di “privilegi”;
  • Non utilizzare mai punizioni che prevedono la violenza fisica;
  • Essere sempre coerenti;
  • Rimuovere il rinforzo che deriva dall’attenzione ai comportamenti teatrali del bambino ignorandoli;
  • Essere chiari quando si fanno i complimenti (per esempio anziché dire “Oggi sei stato bravo”  preferire formule più concrete come “Oggi hai aiutato la nonna ad apparecchiare la tavola. Bravo!”)

Il legame tra split brain e “coscienza divisa”: un’evidenza smentita?

Un nuovo studio contraddice l’evidenza consolidata che il cosiddetto “split brain” produca nei pazienti una “coscienza divisa”. Invece, i ricercatori dello studio, condotto da Yair Pinto, psicologo dell’Università di Amsterdam, hanno rilevato forti evidenze che mostrano che, nonostante questa operazione produca da una scarsa a un’assente comunicazione tra l’emisfero destro e sinistro, lo split brain non provoca due percezioni coscienti indipendenti in un solo cervello.

 

Split brain: il cervello diviso dopo la resezione del corpo calloso

Split brain” è un termine utilizzato per descrivere il risultato di una resezione del corpo calloso, una procedura chirurgica che è stata eseguita per la prima volta negli anni ’40 per alleviare le forme di epilessia gravi nei pazienti. Durante questa procedura, il corpo calloso, un fascio di fibre neurali che connette gli emisferi destro e sinistro, viene sezionato per prevenire il diffondersi dell’attività epilettica tra le due metà. Se da un lato questa procedura è nella maggioranza dei casi utile ad alleviare l’epilessia, dall’altro lato essa elimina anche la possibilità che i due emisferi cerebrali comunichino, così da avere come risultato un “cervello diviso” (da qui “split brain“).

Questa condizione è stata resa celebre dal lavoro del premio Nobel Roger Sperry e di Michael Gazzaniga. Nello svolgimento del proprio lavoro, Sperry e Gazzaniga hanno scoperto che i pazienti con “split brain“, potevano rispondere solo con la mano destra a stimoli all’interno del campo visivo destro e viceversa. Questo fatto è stato utilizzato come prova per affermare che la resezione del corpo calloso causasse una consapevolezza separata per ciascun emisfero.

Per la propria ricerca, Pinto e altri ricercatori hanno condotto una serie di test su due pazienti che erano stati sottoposti ad una resezione del corpo calloso. In uno dei test, i pazienti erano posti di fronte ad uno schermo e gli erano mostrati vari oggetti disposti in diverse posizioni. Ai pazienti quindi veniva chiesto di confermare se un oggetto comparisse e di indicare la sua posizione. In un altro test, essi dovevano denominare correttamente l’oggetto che avevano visto, un compito di nota difficoltà per i pazienti in condizione di split brain.

 

Ma lo split brain implica davvero una coscienza divisa?

[blockquote style=”1″]Il nostro obiettivo principale era di determinare se i pazienti avrebbero avuto performances migliori rispondendo con la mano sinistra, rispetto alla mano destra, a stimoli nel loro campo visivo sinistro e viceversa[/blockquote] afferma Pinto, professore di Psicologia Cognitiva.

[blockquote style=”1″]Questa domanda era basata sulla nozione da manuale che esistano due agenti coscienti e indipendenti: uno che processa il campo visivo sinistro e controlla la mano sinistra, l’altro che processa il campo visivo destro e controlla la mano destra.[/blockquote]

Con stupore dei ricercatori, i pazienti riuscivano a rispondere agli stimoli in tutto il campo visivo con tutti i tipi di risposta: mano destra, mano sinistra e verbalmente.

Pinto afferma: [blockquote style=”1″]I pazienti potevano indicare accuratamente se un oggetto fosse presente nel campo visivo sinistro e definire con precisione la sua posizione, anche quando rispondevano con la mano destra o a livello verbale. Questo a dispetto del fatto che i loro emisferi cerebrali potessero comunicare difficilmente tra loro e farlo alla velocità di trasmissione di circa 1 bit al secondo, che è meno di una normale conversazione. Ero così sorpreso che ho deciso di ripetere gli esperimenti diverse altre volte con tutti i tipi di controllo.[/blockquote]

Secondo Pinto, i risultati evidenziano chiaramente l’unità della consapevolezza nei pazienti con “split-brain“.

[blockquote style=”1”]L’opinione affermata dei pazienti con split-brain, implica che le connessioni che trasmettono un’enorme quantità di informazioni siano indispensabili per una “coscienza unificata cioé, un agente consapevole in un solo cervello. I nostri risultati, tuttavia, svelano che anche quando i due emisferi sono completamente isolati l’uno dall’altro, l’intero cervello è ancora capace di produrre un solo agente conscio.[/blockquote]

Nell’immediato futuro Pinto condurrà delle ricerche su altri pazienti con resezione del corpo calloso, per appurare se questi risultati potranno essere replicati. Il fenomeno, infatti, è sempre più raro ma rappresenta l’unico modo per comprendere cosa accada quando dei sistemi cerebrali importanti non comunicano più gli uni con gli altri.

Anziani alla guida: e se avessi l’Alzheimer?

Dato l’espandersi dell’uso delle autovetture come mezzi di trasporto e data una società come quella italiana con la presenza di 13,4 milioni di ultra sessantacinquenni, risulta necessario domandarsi quali provvedimenti sia necessario intraprendere con un così alto numero di anziani alla guida.

Sciore Roberta – OPEN SCHOOL Studi Cognitivi San Benedetto del Tronto

 

Nella nostra società, guidare è un’attività caratterizzante dell’autonomia e della dinamicità di ciascun cittadino adulto. Tale rilevanza è dimostrata dall’importante numero di patenti di guida richieste ogni anno in Italia e dalla presenza, sempre maggiore, di autoveicoli a due o a quattro ruote, circolanti  nel nostro territorio.

L’espansione di tale comune modalità di trasporto alimenta un dibattito affine a più discipline sul giudizio di idoneità dei profili dei conducenti degli autoveicoli. In particolare, in una società come quella italiana che in linea con le altre nazioni europee, vede la propria popolazione invecchiare progressivamente, data la presenza di 13,4 milioni di ultra sessantacinquenni pari al 22% dell’intera popolazione (DATI ISTAT 2014), risulta necessario domandarsi quali provvedimenti sia necessario intraprendere con un così alto numero di anziani alla guida.

In tal senso, i temi chiave di preoccupazione non dovrebbero essere circoscritti allo stabilire un’età limite indifferenziata per tutti ma dovrebbe procedere verso una valutazione multidimensionale delle abilità fisiche e cognitive di ciascun driver.

 

Anziani alla guida: quali rischi per la capacità di guida?

La capacità di guida viene definita infatti come una “competenza di alto livello” che richiede la simultaneità di attivazione di più funzioni intellettive quali: l’attenzione selettiva nel direzionarsi verso stimoli rilevanti, la reattività nel rispondere ai mutevoli cambiamenti provenienti dall’ambiente e la capacità di prevedere i pericoli (Adler et al., 2006).

Sono numerosi i fattori e le patologie conclamate presenti in misura predominante nelle persone anziane che possono minare tale competenza di alto livello, con rischio aumentato di sinistrosità stradale superiore a 1,5 per le persone malate rispetto alla popolazione sana.

Tra le più frequenti si possono trovare: le patologie neurologiche, le patologie psichiatriche, le apnee del sonno, i problemi di abuso di alcol o droghe ed il diabete mellito, così come anche i più generici deficit visivi, i disturbi del movimento o i problemi cardiovascolari che possono rappresentare un possibile rischio di compromissione dell’idoneità degli anziani alla guida (Charlthon et al., 2004).

Tra queste patologie, quelle neurologiche di tipo dementigeno risultano particolarmente predisponenti ad un rischio incrementale di incorrere in un incidente stradale, poiché determinano, nelle persone affette in misura variabile ma ingravescente e deterministica, una diminuzione nella risposta motoria e nella velocità di elaborazione (Duchek et al., 2003, Brown et al., 2005, Perkinson et al., 2005).

Avere una guida sicura significa poter svolgere movimenti abituali, divenuti con il tempo automatici (come ad esempio cambiare le marce o armeggiare con i pedali dell’acceleratore o della frizione), ma anche avere la prontezza di rispondere ai mutevoli cambiamenti che l’ambiente propone, aggiornando le informazioni in corso di elaborazione in tempi brevi e con una complessità variabile.

Guidare bene richiede pertanto buone capacità cognitive di memoria e di apprendimento le quali sono soggette a diminuzione di potenzialità nelle persone con demenza. Si è stimato quindi che gli anziani alla guida, con una diagnosi di deterioramento cognitivo, hanno una probabilità di essere coinvolti in un incidente stradale di  2-2,5 volte superiore ai propri coetanei sani (Hogan et al., 2008).

 

Alzheimer e guida: quando avviene il ritiro della patente?

Tuttavia, una diagnosi di Alzheimer non può e non deve essere subito considerata un marker discriminatorio per il ritiro immediato della patente. Come dimostrato dalla ricerca un po’ datata ma significativa  di Cox et al., del 1998, in cui è stata comparata la capacità di guida degli anziani tra popolazione sana e con Alzheimer, le persone con deterioramento cognitivo alla guida possono avere performance molto diversificate seppur globalmente peggiori rispetto alle persone sane.

In particolare, comparando prove effettuate mediante l’ausilio di un simulatore di guida, si è riscontrato che rispetto agli anziani sani, gli anziani con demenze andavano con il loro veicolo virtuale più volte fuori strada; guidavano per più tempo più lentamente rispetto ai limiti di velocità; non si fermavano agli stop ed impiegavano di più per stabilire le precedenze nella svolta a sinistra.

Tali errori presenti in pattern differenziali nel gruppo con patologia, confermavano non solo una pervasività della malattia diversa nei partecipanti con demenza, ma anche un’importante disomogeneità nei profili di guida. Questi risultati supportano l’idea che una diagnosi di Alzheimer non necessiti di un immediato ritiro della licenza di guida ma mette in allerta rispetto all’imprescindibile bisogno di approfondimento diagnostico caso per caso.

 

Anziani alla guida: i test di valutazione cognitiva

Inoltre, la demenza è una patologia neurodegenerativa in evoluzione continua per cui tale accertamento delle capacità psicofisiche degli anziani alla guida deve essere stabilito in una timeline definita di monitoraggio continuo. Molto spesso, nell’esplicare questa prassi valutativa degli anziani alla guida, vengono utilizzati test brevi di valutazione cognitiva globale come il Mini Mental State Examination (Folstein et.al., 1975), ma tale procedura rischia di essere poco sensibile nella valutazione dell’idoneità e della sicurezza alla guida (Crizzle et. al., 2012).

Anche le guidelines di altri paesi, come quelle proposte dall’American Medical Association (AMA) e dalla Canadian Medical Association (CMA), suggeriscono che anche altri test di valutazione globale, quali il test dell’orologio (Tuokko et al., 1995) o il Trial Making Test B (Givagnoli et al., 1996), apparentemente più complessi, non risultano essere esaustivi per tale compito.

Tali linee guida, supportate da dati significativi come quelli riportati dallo studio di Roy e Molnar del 2013, indicano che nessuno di questi strumenti ha sufficiente sensibilità e profondità da risultare predittivi delle capacità degli anziani alla guida e dell’abilità di conduzione di un autoveicolo.

Se i test di valutazione globale non risultano essere indicativi di una buona prassi valutativa dell’idoneità alla guida, si potrebbe partire, come è stato fatto in letteratura, dal considerare quelli che sono i maggiori errori commessi durante la guida dalle persone con demenza ed individuare quali sono le funzioni cognitive ad essi collegati.

 

I contributi dalla letteratura scientifica

I due importanti lavori di Uc et al., 2005 e di Rizzo et al.,1993, hanno permesso di confrontare anziani alla guida sani con persone con demenza di tipo Alzheimer ed  hanno identificato per questa attività errori importanti riconducibili ai domini cognitivi delle abilità visuo-spaziali e dell’attenzione nei campioni con patologia. Inoltre, questi studiosi hanno riscontrato nello specifico un deficit nel Useful Field of View (UFOV) (Ball et al., 1988) che è un compito che indaga l’attenzione visuo-spaziale. Tale task risulta essere strettamente correlato non solo ai generici errori su strada, ma ad un rischio incrementale di imbattersi in incidenti stradali.

Dopo aver descritto la natura multifattoriale dell’abilità di guida, definito i domini cognitivi specifici coinvolti e deficitari nei driver con Alzheimer e sottolineato i limiti dell’uso esclusivo di test di valutazione globale in tale contesto, potrebbe risultare chiarificatore indagare la forza dell’associazione tra tali indicatori del comportamento di guida e strumenti neuropsicologici, applicati nei contesti valutativi riferiti alle abilità visuo-spaziali ed attentive.

Tale finalità la troviamo in un recente studio di Yamin, Strinchombe e Gagnon del 2015. In particolare, questi autori hanno voluto esaminare il ruolo dell’attenzione, delle abilità visuo-spaziali e della cognizione globale nel predire il comportamento di anziani alla guida con diagnosi di Alzheimer moderato, mediante l’ausilio di un simulatore di guida. A questo studio, hanno partecipato 41 anziani con più di 65 anni con regolare patente di guida: metà di questi (gruppo sperimentale) avevano una diagnosi di Alzheimer moderato mentre gli altri, con funzionamento cognitivo nella norma, sono stati inseriti nel gruppo di controllo.

Coloro che appartenevano al gruppo sperimentale sono stati sottoposti alla Global Deterioration Rating Scale (Reisberg et al., 1982)  al fine di verificare se si trovassero ad una fase moderata della malattia, mentre per tutti è stato fatto il Mini Mental State Examination (Folstein et al., 1975) come screening d’inclusione. Le sessioni specifiche per la ricerca hanno previsto l’utilizzo della Mattis Dementia Rating Scale (DRS-2) (Jurica et al., 2001)  per il funzionamento globale, il Visual Object and Space Percepetion Test (VOSP) (Warrington et al., 1991) per le abilità visuo-spaziale, il test of Everyday Attention (TEA) (Robertson et al., 1994) e l’Useful Field of View (UFOV) (Ball et al., 1988), per l’attenzione.

I due gruppi hanno inoltre partecipato ad una sessione di guida simulata in cui veniva chiesto loro di guidare come erano soliti fare nella vita reale, rispettando le regole e i segnali stradali. Come atteso, i risultati hanno mostrato che i drivers con demenza hanno una performance con il simulatore di guida più povera rispetto agli anziani sani. In particolare, le persone con deterioramento cognitivo rispettavano meno i limiti di velocità ed i semafori e mantenevano con maggiore difficoltà il margine della strada.

Tale diversificazione di risultati ovviamente si riscontra anche nelle prove cognitive in cui gli anziani sani hanno ottenuto punteggi significativamente più alti. L’obiettivo fondamentale di questo studio è stato quello di valutare il contributo dei test neuropsicologici nel predire  il comportamento di guida nelle persone con demenza.

Di conseguenza, gli autori hanno calcolato il coefficiente di Pearson  tra i punteggi di ciascun test neuropsicologico e due indicatori presi dalla performance di guida simulata: il numero degli incidenti e il totale degli errori. I risultati non hanno mostrato nessuna relazione significativa tra i test di funzionamento globale (MMSE e DRS) e le misure di guida simulata. Al contrario, correlazioni significative con gli indicatori di guida sono stati trovati per le misure visuo-spaziali (VOSP) ed attentive (TEA ed UFOV).

Gli esiti hanno quindi mostrato come nessuna delle misure di funzionamento globale sono risultate significativamente correlate con la performance di guida negli anziani con demenza. Dati i risultati, il funzionamento cognitivo è legato alla guida anche se questa ricerca riporta come solo alcune delle abilità cognitive risultano essere maggiormente salienti per tale pratica (attenzione e capacità visuo-spaziale). I test di funzionamento globale come il MMSE, spesso molto usato nei servizi pubblici, risultano non essere sufficientemente sensibili ad individuare abilità fondamentali nella guida ed oggetto di deterioramento nelle persone con demenza.

Nel dettaglio, questo importante contributo sottolinea come negli anziani alla guida nonostante l’ Alzheimer, i deficit nelle abilità visuo-spaziali sono correlati con possibili incidenti stradali simulati. Questo può accadere poiché evitare un incidente richiede una rapida percezione degli stimoli, una veloce elaborazione delle informazioni ed un’appropriata risposta motoria: tutto questo spesso in contesti di guida complessi.

A queste complicazioni, a causa della patologia neurodegenerativa, si sommano le difficoltà nel recupero delle eventuali informazioni necessarie e pertinenti alle decisioni di guida, dovute a problemi nella memoria e alla aggiuntiva complessità di implementare le risposte elaborate, a causa dei deficit a carico delle funzioni esecutive.

In questo studio emerge inoltre come l’attenzione sia determinante nell’idoneità di guida. Questa infatti risulta essere strettamente correlata nei partecipanti con demenze al numero di errori totali commessi nella prova di guida simulata. Nel dettaglio proprio il test TEA mostra con quest’ultimi una correlazione importante, a sostegno dell’idea che sia proprio l’attenzione sostenuta ad avere un ruolo chiave nella sicurezza degli anziani alla guida ed è pertanto questo aspetto della cognizione da considerare centrale nei giudizi di idoneità nei drivers con deterioramento cognitivo.

 

Conseguenze psicologiche e sociali del ritiro della patente sugli anziani

Le conclusioni di questo recente studio identificano i deficit attentivi e visuo-spaziali e non i punteggi nei test di funzionamento globali, come marker predittivi degli errori alla guida negli anziani con demenza. Pertanto, un’esaustiva valutazione cognitiva dell’idoneità di guida può passare solo per la costruzione di protocolli neuropsicologici che approfondiscano tali domini cognitivi e non si fermino a punteggi globali non sensibili e poco indicativi della reale sicurezza.

Un iter valutativo così progettato deve essere di tipo multidirezionale poiché deve andare a quantificare sia i deficit presenti, mediante protocolli e test, sia le risorse di rete di supporto al paziente, optando per dei colloqui con i familiari ma sfruttando anche la conoscenza del territorio.

Questo approccio non riduttivo garantirebbe sicurezza per il malato e per gli altri, serenità per la famiglia e qualora fosse possibile, stabilire prima il momento di recesso dalla guida. Tale modus operandi  potrebbe permettere di trovare, in maniera concordata con il malato, modalità di trasporto alternative all’autovettura. Pertanto, l’importanza dell’autonomia e l’inclusione sociale delle persone con demenza devono essere riconosciute come aspetti fondamentali nella concettualizzazione del paziente.

Tale rilevanza deve investire non solo i professionisti che si occupano degli aspetti valutativi dell’idoneità di guida, ma anche l’opinione pubblica, i familiari e chi non affronta tutti i giorni queste difficoltà. La persona a cui viene tolta la patente si trova ad avere da un giorno all’altro un’indipendenza ridotta, una mobilità limitata che gli rende affannoso svolgere le attività essenziali per se o per la propria famiglia. Le conseguenze di questa decisione possono portare l’anziano a limitare le attività sociali e ricreative. Questi cambiamenti possono condurre a modificare il senso di identità personale, la soddisfazione per la propria vita ed il ruolo che la persona si sentiva di ricoprire all’interno della comunità di riferimento.

Tra le conseguenze psicologiche, a volte invasive, che possono far seguito al ritiro della patente di guida, ci può essere la comparsa di una vera e propria sintomatologia depressiva. In uno studio Ragland et.al, nel 2005,  hanno trovato la presenza di depressione clinicamente significativa in anziani a cui era stata tolta la patente tre anni prima e la pervasività di questa era maggiore in coloro per cui la guida aveva rappresentato un pilastro nella loro vita come ad esempio ex autisti di autobus o piloti. Bisogna inoltre sottolineare come lo studio considerato non era specifico per anziani con demenza.

Pertanto particolare attenzione deve essere data al contributo di questo studio in una popolazione con patologia dementigena, in cui la presenza di depressione è spesso presente ed oggetto di indagine diagnostica. Sicuramente l’autonomia data dall’utilizzo dell’autoveicolo rappresenta un punto di forza supportivo per il mantenimento di un possibile equilibrio psichico ed emozionale degli anziani alla guida.

Quindi un accurato esame neuropsicologico ampliamente argomentato precedentemente deve essere accompagnato da un accertamento motivazionale e valutativo dell’importanza che per quella persona riveste la possibilità di guidare, nei limiti sempre del mantenimento della sicurezza propria e degli altri. Anche la presenza di un coniuge o di  una persona vicina che guida e che propone la propria disponibilità, non sembra attenuare l’impatto emotivo forte causato dal ritiro della patente (Stearns, Sussman, e Skinner, 2004).

Il quadro psicologico già molto labile della persona con demenza viene aggravato dalle diminuite competenze che questi anziani sani hanno di far fronte alla incipiente scarsa autostima e alla crescente dipendenza. La persona con demenza può anche negare la propria difficoltà di guida: può non riconoscere il reale pericolo. Questa forma di negazione può far seguito anche al ritiro della licenza e può essere causa di forti conflitti con il caregiver di riferimento.

Pertanto potrebbe essere una buona prassi che il clinico spieghi al paziente, nel momento della comunicazione del giudizio di idoneità, le motivazioni che hanno portato ad esprimersi negativamente, favorendo in questo modo l’accettazione della decisione e della complessa situazione della malattia. Inoltre, il ritiro della patente di guida può influenzare il caregiver del malato di Alzheimer in altri modi. In primis i familiari si trovano spesso in un vuoto assistenziale per cui devono personalmente organizzare i viaggi, soprattutto quelli frequenti per le necessità sanitarie. Inoltre può accadere che il familiare non abbia lui la patente di guida e che fino a quel momento era il proprio coniuge a garantire il trasporto, per cui è il caregiver stesso, spesso improvvisamente, ad aver perso la mobilità personale se non è presente nel nucleo un altro adulto idoneo.

Quando le persone con deterioramento cognitivo smettono di guidare, per la maggior parte dipendono infatti dai propri parenti, solo una percentuale molto piccola utilizza i mezzi pubblici (Adler et al., 2006). Questo accade soprattutto in contesti, come quello italiano, in cui le città sono complesse, con molto traffico e in cui ancora non c’è una mentalità di pianificazione di una urbanistica protesica per persone con limitate possibilità di movimentazione autonoma, causate da deficit fisici e/o cognitivi.

Questi sono gli aspetti neuropsicologici e psicosociali salienti relativi all’idoneità di guida nella persona anziana con demenza. Tali peculiarità rendono la decisione di ritiro della patente per i professionisti un momento molto delicato e complesso. Solamente un’ adeguata preparazione e competenza da parte dell’equipè di clinici, coinvolta nella gestione di questo momento di transizione,  può rendere quello che apparentemente viene visto come una decisione di  limitazione una possibilità di cambiamento di stile di vita e di gestione diversificata delle risorse di rete presenti per la persona con morbo di Alzheimer, per la famiglia che se ne prende cura e per il contesto sociale più ampio.

cancel