Centri Clinici

Dilution effect: quando prendiamo delle decisioni consideriamo anche le informazioni che dovrebbero essere ignorate?

Il Dilution Effect è un bias di giudizio con cui i soggetti sottostimano le evidenze diagnostiche se presentate con evidenze non-diagnostiche

ID Articolo: 121005 - Pubblicato il: 11 maggio 2016
Dilution effect: quando prendiamo delle decisioni consideriamo anche le informazioni che dovrebbero essere ignorate?
Messaggio pubblicitario SFU 2020
Condividi

Quanto è importante valutare correttamente le informazioni che riceviamo? Davvero molto, ed è facile intuire quanto sia importante studiare i processi di stima di probabilità che le persone fanno, affinché si arrivi a riconoscere gli errori di ragionamento che gli individui compiono inconsciamente, tra cui il dilution effect.

Giulia Rodighiero – OPEN SCHOOL, Studi Cognitivi Bolzano

 

 

Quanto è importante valutare correttamente le informazioni che riceviamo? Davvero molto, più di quanto possiamo immaginare. Si pensi ad esempio quanto è importante che un medico dia il giusto peso alle informazioni che gli diamo riguardo la nostra sintomatologia, o quanto è fondamentale che un giudice pesi correttamente le prove portate a processo. Se pensiamo a queste situazioni possiamo facilmente intuire quanto sia importante studiare i processi di stima di probabilità che le persone fanno, affinché si arrivi a riconoscere gli errori di ragionamento che  gli individui compiono inconsciamente. Di questo si occupa la psicologia del ragionamento.

Nonostante nel linguaggio comune il termine probabile assuma il significato di ‘avvenimento che, in base a seri motivi (i quali però non costituiscono vere prove e non danno quindi certezza), si è propensi a credere che accada‘, nel linguaggio matematico e scientifico, questo temine, indica un valore (grado di verosimiglianza) che può oscillare in un continuum tra impossibile (zero) e certo (uno).

 

 

Psicologia del ragionamento e statistica

Nella vita di tutti i giorni, la maggior parte delle volte che inferiamo qualcosa, lo facciamo basandoci su informazioni che condizionano i nostri ragionamenti. Si pensi, ad esempio, a quando ci viene domandato se siamo dell’opinione che nel pomeriggio possa piovere. Il nostro ragionamento si baserà sulle evidenze che abbiamo a disposizione: se nel cielo splende il sole e non c’è traccia di una nuvola saremo propensi a concludere che nel pomeriggio non pioverà, mentre, se il cielo è coperto da nuvole minacciose allora saremo più propensi ad affermare il contrario.

Dalla formula statistica della probabilità condizionata è stato tratto un principio matematico noto con il nome di teorema di Bayes che permette di calcolare la probabilità a posteriori, cioè la probabilità che un’ipotesi si verifichi alla luce di evidenze in nostro possesso.

Le evidenze di cui disponiamo quando dobbiamo calcolare la probabilità a posteriori di un’ipotesi non hanno sempre valore diagnostico, cioè, non sempre aumentano la probabilità che l’ipotesi si verifichi. In statistica, infatti, le evidenze, possono essere di tre tipi:

  1. Evidenza diagnostica con impatto positivo: accresce la probabilità che si verifichi l’ipotesi.
  2. Evidenza diagnostica con impatto negativo: fa diminuire la probabilità che si verifichi l’ipotesi.
  3. Evidenza non-diagnostica (o neutrale): non fa né aumentare né diminuire la probabilità dell’ipotesi.

La ricerca scientifica ha mostrato ripetutamente come le persone, se chiamate a compiere delle stime di probabilità, siano soggette a errori, rispetto al riferimento normativo, indipendentemente dal grado di esperienza di cui dispongono (Kahneman, Tversky 1973; Dawes, Corrigan 1974). Questi studi si sono concentrati su come gli individui valutano le informazioni che ricevono, ma si sono sempre limitati a fornire informazioni diagnostiche. In realtà, nella vita di tutti i giorni, le persone sono chiamate a compiere predizioni e a trarre delle conclusioni avendo a disposizione non solo informazioni diagnostiche, ma anche evidenze non-diagnostiche.

 

 

Evidenza diagnostica

Come già spiegato precedentemente con il termine ‘evidenza diagnostica‘ s’intende un’informazione che ha un certo peso rispetto all’ipotesi. Essa può avere un impatto positivo e negativo sull’ipotesi. Facciamo un esempio utilizzando uno scenario di tipo rich, ossia uno scenario di vita reale: se chiediamo a dei soggetti che probabilità c’è che lo studente X sia femmina, loro risponderanno che c’è il 50% delle possibilità. Questo ragionamento è corretto perché non sapendo nulla sullo studente X, si assume che ci sia la stessa probabilità che sia di sesso maschile o di sesso femminile. Se però aggiungiamo un’evidenza diagnostica, il valore probabilistico della conclusione cresce: che probabilità c’è che lo studente X sia femmina dato che ha i capelli lunghi? Ora, la probabilità che lo studente X sia femmina aumenta poiché avere i capelli lunghi è una caratteristica più tipica delle ragazze piuttosto che dei ragazzi.

Messaggio pubblicitario Adesso analizziamo meglio cosa sono, invece, le evidenze non-diagnostiche. Come si è visto precedentemente, un’evidenza è detta non-diagnostica quando non ha alcun legame con l’ipotesi e che quindi non rafforza né indebolisce la probabilità che essa si verifichi. Vediamo un esempio: riconsideriamo l’esempio fornito sopra dello studente X, ma questa volta invece che dire ai soggetti che ha i capelli lunghi, forniamo loro un’altra informazione, cioè che ha i capelli castani. Ora, poiché non esiste nessuna correlazione tra il colore dei capelli e il sesso di una persona, possiamo affermare che la probabilità che lo studente X sia femmina rimane del 50%.

Adesso che è ben chiaro cosa sono le evidenze diagnostiche e quelle non-diagnostiche, è facile capire che se presentassimo a dei soggetti due evidenze, una diagnostica e l’altra non-diagnostica allora, a rigor di logica, dovrebbero considerare soltanto la prima poiché la seconda non ha alcun impatto sulla conclusione. Prendiamo nuovamente in considerazione l’esempio citato sopra. Nello scenario di tipo rich: chiedendo ai partecipanti che probabilità c’è che lo studente X sia femmina dato che ha i capelli lunghi e castani, essa dovrebbe coincidere alla probabilità che i soggetti forniscono quando viene detto loro soltanto lo studente X ha i capelli lunghi.

Alcuni autori (Nisbett, Zukier, Lemley 1981; Tetlock, Lerner, Boettger 1996) hanno studiato l’effetto delle informazioni non-diagnostiche. Essi hanno voluto indagare se i soggetti, a cui vennero presentate evidenze diagnostiche insieme a evidenze non-diagnostiche, rispettavano la regola normativa sopraccitata. I ricercatori si sono accorti che i partecipanti non rispettavano questa semplice e intuitiva regola statistica, ma anzi, che tendevano ad abbassare la stima di probabilità quando un’evidenza diagnostica veniva loro presentata assieme a un’evidenza non-diagnostica.

 

 

Psicologia del ragionamento e bias di giudizio: il dilution effect

Questo bias di giudizio, in accordo con il quale i soggetti tenderebbero a sottostimare il valore delle evidenze diagnostiche se presentate assieme alle evidenze non-diagnostiche, venne definito dilution effect (DE).

Riconsiderando per l’ultima volta l’esempio citato sopra, il dilution effect avrebbe il seguente effetto: la probabilità che lo studente X sia femmina dato che ha i capelli lunghi è stimata come più alta della probabilità che lo studente X sia femmina dato che ha i capelli lunghi e castani.

Si potrebbe pensare che questo errore sia dovuto a qualche errore di somministrazione del test. Ciò sarebbe credibile se non fosse per il fatto che questo effetto è stato replicato più volte e da più autori (Tetlock et al 1996; Igou & Bless 2005).

 

 

Studi sul dilution effect

Sulla scia di uno studio di Troutman & Shanteau (1977), che indagava le interferenze delle informazioni non-diagnostiche, altri autori (Nisbett, Zukier & Lemley, 1981) indagarono come le informazioni non-diagnostiche influenzassero la stima di probabilità di un’ipotesi se presentate assieme a delle evidenze diagnostiche. In questo studio sulla psicologia del ragionamento i ricercatori chiesero ai partecipanti di fare tre tipi di predizioni: una riguardante un gruppo di persone che condividono una determinata etichetta (stereotipo); una riguardante un singolo individuo descritto soltanto da stereotipi e un’altra riguardante un singolo individuo descritto da stereotipi e da informazioni addizionali.

Nei primi tre studi di Nisbett et al. (1981), quando i soggetti dovevano compiere delle predizioni riguardo un gruppo, lo scenario che veniva loro presentato consisteva in delle informazioni diagnostiche riguardo la tolleranza allo shock elettrico delle persone e, successivamente, in informazioni riguardanti la partecipazione media degli studenti agli eventi culturali. Le predizioni che erano invitati a compiere riguardavano, nel primo caso, la tolleranza allo shock di un gruppo di ingegneri e un gruppo di musicisti; nel secondo caso erano invitati a predire la presenza, come pubblico di un film, di un gruppo di laureati in inglese e di un gruppo di studenti frequentanti un corso propedeutico allo studio della medicina.

I risultati di questi tre studi di psicologia del ragionamento evidenziarono che i soggetti facevano predizioni differenti tra le diverse specializzazioni dei gruppi target: le informazioni non-diagnostiche riguardanti la specializzazione (scientifica o umanistica) influenzavano le predizioni dei partecipanti. I ricercatori decisero allora di approfondire i risultati ottenuti per assicurarsi che l’effetto non fosse dovuto al fatto che le informazioni riguardassero degli stereotipi o che l’effetto potesse essere dovuto al tipo di soggetti testati (studenti universitari).

Negli studi successivi (studio 4 e studio 5) le informazioni diagnostiche fornite non riguardavano più un’etichetta di categorie sociali determinate, ma servivano a suggerire una determinata risposta; inoltre, i partecipanti a questi due studi erano laureati in servizio sociale che venivano invitati a compiere predizioni simili a quelle che dovevano compiere quotidianamente per lavoro: i soggetti dovevano stimare la probabilità che un individuo di sesso maschile, appartenente alla classe media e seguito dai servizi sociali fosse un pedofilo. I risultati di questi due studi replicarono gli effetti trovati nei tre studi precedenti quando le informazioni non-diagnostiche venivano presentate assieme alle informazioni diagnostiche.

Questo bias di giudizio per cui le persone sottostimano il peso delle informazioni diagnostiche quando presentate assieme a delle evidenze non-diagnostiche, venne denominato dagli autori dilution effect (DE). Visti i risultati ottenuti nello studio condotto assieme a Nisbett & Lemley (1981), Zukier (1982) condusse un altro esperimento di psicologia del ragionamento atto a indagare l’effetto della correlazione delle evidenze nell’uso delle informazioni non-diagnostiche. Il livello di correlazione e di dispersione di cui parlava Zukier in questo suo studio può essere inteso un po’ come il livello di tipicità.

Zukier, infatti considerava le informazioni non-diagnostiche ad alta correlazione come evidenze neutre (quindi non-diagnostiche ai fini di una predizione) tipiche di una determinata categoria. In questo studio i partecipanti leggevano delle descrizioni di alcuni studenti dei quali dovevano poi predire il GPA (media dei voti). Il gruppo di controllo ricevette scenari contenenti soltanto informazioni diagnostiche predittive di un alto valore di GPA. Il gruppo sperimentale, invece, ricevette, oltre alle informazioni diagnostiche ricevute dal gruppo di controllo, anche informazioni riguardanti altre caratteristiche (che in uno studio pilota erano state valutate non-diagnostiche riguardo il GPA, valore compreso tra 0 e 0.5). In questo studio, Zukier replicò il dilution effect ottenuto nello studio condotto l’anno prima e inoltre notò come non ci fosse alcun effetto dovuto alla correlazione: i soggetti diluivano le loro predizioni sia quando le informazioni addizionali non avevano alcun valore predittivo (dimensione: assenza di correlazione) sia quando ne erano dotate (dimensione: alta correlazione). A distanza di qualche anno dagli studi sopra riportati, sono stati condotti altri studi sulla psicologia del ragionamento atti a spiegare le cause del dilution effect che hanno sostanzialmente replicato i risultati già presentati.

La caratteristica principale che accomuna tutti gli studi presenti in letteratura sul dilution effect è il tipo di scenario che viene utilizzato. Quasi tutte le ricerche sperimentali in questione si sono avvalse di uno scenario di tipo rich, ossia uno scenario di vita reale. Questo, da una parte ha un buon valore ecologico e il pregio di fornire ai partecipanti materiali e rappresentazioni con le quali sono abituati a lavorare, dall’altra ha un basso controllo delle variabili coinvolte e lascia spazio a molti errori di valutazione e interpretazione.

L’unica ricerca sul dilution effect che si è avvalsa di uno scenario di tipo lean è il risultato del lavoro condotto da LaBella e Koehler (2004). Essi utilizzarono, come stimoli, urne e biglie con lo scopo principale di rendere evidente il valore non-diagnostico degli stimoli neutri. Il loro studio tuttavia ha replicato solo in parte i risultati degli altri studi, e questo potrebbe far supporre che il dilution effect si manifesta soprattutto negli scenari di vita reale.

 

 

La spiegazione alla base del Dilution Effect

Gli autori che condussero il primo specifico studio sul dilution effect (Nisbett et al., 1981) affermarono che si trattava di un inappropriato uso delle informazioni nel fare predizioni. Gli autori, asserirono che i risultati evidenziavano che fosse del tutto inverosimile che i soggetti pensassero che le informazioni non-diagnostiche diventassero diagnostiche quando presentate assieme ad altre informazioni non-diagnostiche. Nisbett et al. (1981) ipotizzarono allora che questo errore di giudizio fosse dovuto al fatto che i soggetti tendevano a fare una media di tutte le informazioni ricevute, non valutando in maniera esatta il peso delle informazioni non-diagnostiche (che, per definizione, è zero).

Considerando le ricerche di Kahneman e Tversky (1972; 1974), gli autori conclusero che l’errore di giudizio commesso dai partecipanti potesse essere dovuto a un’euristica, chiamata euristica della rappresentatività. Interpretando, dunque, i risultati ottenuti secondo l’euristica della rappresentatività, l’errore dei soggetti sarebbe dovuto al fatto che le informazioni non-diagnostiche verrebbero utilizzate per creare una rappresentazione mentale della categoria target. In questo modo le informazioni neutre assumerebbero un valore diverso da zero e contribuirebbero (erroneamente) alla stima probabilistica finale. L’euristica della rappresentatività non può tuttavia spiegare i risultati ottenuti da LaBella et al. (2004), che sfruttando l’oggettività degli stimoli utilizzati (urne e biglie) salvaguardavano il giudizio dei partecipanti al loro studio da questo bias.

I risultati e le conclusioni di LaBella et al. (2004), se da una parte hanno il vantaggio di non essere soggetti a bias e fraintendimenti, hanno basso valore ecologico, indi per cui, dicono poco su come le persone ragionano nella vita di tutti i giorni.

Qualche anno dopo questi due studi, Tetlock e Boettger (1989) ipotizzarono che il dilution effect potesse essere dovuto al basso grado di responsabilità percepita da parte dei partecipanti. I due autori avevano tenuto presente le ricerche di Tetlock e Kim (1987) le quali avevano dimostrato che un maggiore grado di responsabilità aumentava l’accuratezza dei giudizi delle persone. Il meccanismo sottostante l’impatto della responsabilità è, ipotizzarono gli autori, il risultato di una tendenza dei soggetti che si sentono responsabili delle loro stime, a processare in maniera integrata e complessa le evidenze che vengono loro fornite, valutando così anche quelle che dovrebbero essere ignorate. Tetlock e Boettger conclusero la loro pubblicazione affermando che il dilution effect potrebbe anche non essere considerato un bias o un errore, ma potrebbe consistere in una risposta razionale ai dati forniti: se vengono date ai soggetti delle informazioni è perché devono tenerle in considerazione. Questa teoria getta le basi per la spiegazione del dilution effect che verrà sostenuta da altri studi (Kemmelmeier, 2004, 2007) negli anni successivi.

La base conversazionale del dilution effect è un argomento che ha caratterizzato per anni la disputa tra alcuni scienziati del ragionamento (Igou & Bless, 2003, 2005; Igou, 2007). L’assunzione principale di questa teoria è che i soggetti ai quali vengono presentate le informazioni diagnostiche assieme a quelle non-diagnostiche commetterebbero dilution effect perché la presentazione che viene loro fatta non rispetta le massime conversazionali (Grice, 1975).

 

 

Dilution effect e massime conversazionali

Secondo alcuni autori (Igou et al., 2003), quindi, il dilution effect sarebbe causato da una violazione delle massime conversazionali, e quindi sarebbe dovuto a un fraintendimento. Analizziamo la questione più nel dettaglio. In una conversazione normale e che rispetta le massime conversazionali, il parlante non fornisce informazioni che non sono pertinenti all’argomento (massima della relazione), tuttavia, durante i vari esperimenti, ai soggetti sono state, ovviamente, presentate delle informazioni che non riguardavano l’ipotesi.

Le persone, essendo abituate a ricevere soltanto informazioni riguardanti l’argomento di conversazione, quando si trovano a dover compiere dei giudizi sulla base di alcune evidenze, tenderebbero a dare valore anche alle informazioni non-diagnostiche perché si aspettano che queste, per il semplice fatto che sono state loro fornite, debbano essere tenute in considerazione. Questa logica generale è stata applicata in diversi studi in cui veniva indagato l’impatto delle norme conversazionali nell’uso delle informazioni (Schwarz, Strack, Hilton, & Naderer, 1991; Bless, Strack, & Schwarz, 1993; Igou e Bless, 2003).

I risultati mostravano sostanzialmente che discreditando le massime conversazionali si poteva influenzare l’uso delle informazioni da parte dei partecipanti. Tetlock, Lerner e Boettger (1996) hanno investigato la base conversazionale del dilution effect in combinazione con l’impatto della responsabilità. Nella loro ricerca gli autori hanno osservato che, screditando la massima conversazionale della relazione (ossia avvertendo i soggetti che questa massima non sarebbe stata rispettata), l’effetto dilution effect era ridotto. Questo effetto si otteneva, tuttavia, soltanto quando questa condizione era associata alla situazione in cui vi era un alto livello di responsabilità. Quando, invece, i partecipanti si trovavano nella condizione di bassa responsabilità, i risultati mostravano dilution effect indipendentemente dal fatto che le norme conversazionali venissero o no disattivate.

Da questi risultati hanno dunque concluso che i giudizi dei partecipanti, nella condizione di bassa responsabilità, erano influenzati dall’euristica della rappresentatività. In accordo con questa conclusione, le massime conversazionali non erano in grado di spiegare la differenza di risultati ottenuti se non considerando il contributo dell’effetto della responsabilità.

 

 

Il  dilution effect secondo Kemmelmeier

Se Igou e Bless sono i più accaniti sostenitori del contributo conversazionale nel dilution effect, Kemmelmeier (2004; 2007b) lo è del contrario. Nei suoi vari studi ha, infatti, più volte dimostrato come il dilution effect non sia influenzato dal linguaggio ma da altri fattori, quali ad esempio il grado di responsabilità (Kemmelmeier, 2007a) o la percezione (Kemmelmeier, 2004). In uno dei suoi studi, egli ha voluto rianalizzare i risultati ottenuti da Igou et al. (2005) e ha scoperto che, analizzando i dati utilizzando la metodologia diversa otteneva osservazioni differenti rispetto a quelle ottenute dai suoi colleghi.

Messaggio pubblicitario Kemmelmeier ipotizzò che il problema si trovasse nelle informazioni diagnostiche positive che i due ricercatori avevano presentato ai partecipanti; esse potrebbero essere percepite come quasi-diagnostiche e avere un valore diagnostico diverso da zero. Poiché i due studiosi non hanno fornito nessuna informazione riguardante la selezione delle evidenze non-diagnostiche utilizzate nel test, Kemmelmeier non ha potuto approfondire questa sua supposizione. Inoltre l’autore critica le conclusioni alle quali Igou e Bless sono giunti poiché, sostiene, che se il dilution effect fosse realmente dovuto a un fraintendimento dialettico, allora non si spiegherebbe il fatto che esso era presente quando i soggetti ricevevano evidenze diagnostiche negative indipendentemente dall’attivazione o meno delle norme conversazionali.

Le ricerche di Kemmelmeier non hanno solo fornito prove in disaccordo con il contributo conversazionale, ma hanno anche cercato di trovare una spiegazione al dilution effect. In un suo studio (Kemmelmeier, 2004) ha ipotizzato che le basi del dilution effect andassero cercate nella percezione. Egli infatti ipotizzò che l’errore di giudizio fosse dovuto al fatto che le persone, nonostante si rendessero conto dell’irrilevanza delle informazioni non-diagnostiche, non fossero poi comunque in grado di non considerarle. Nel suo esperimento egli presentò a dei soggetti una lista di evidenze e chiese loro di barrare con un pennarello nero quelle che i partecipanti consideravano irrilevanti per predire la probabilità di una data ipotesi. L’idea è che eliminando fisicamente le informazioni non-diagnostiche esse non sarebbero più state attive a livello percettivo e quindi non vi sarebbe stato alcun dilution effect.

I risultati ottenuti diedero credito alle sue ipotesi iniziali mostrando che quando le informazioni non-diagnostiche venivano eliminate, allora non vi era alcun effetto dilution effect.

 

 

Dilution effect e enhancement

Un’altra spiegazione è stata avanzata da Peters & Rothbart (1999), i quali si distaccano dal modello classico, che spiega il dilution effect come un abbassamento della stima di probabilità di un’ipotesi data un’evidenza, quando essa viene presentata assieme a un’evidenza non-diagnostica. I due ricercatori hanno ipotizzato che modificando il grado di tipicità delle informazioni non-diagnostiche sarebbero stati in grado di alterare le stime dei soggetti. Più nello specifico, essi hanno ipotizzato che utilizzando informazioni non-diagnostiche tipiche, allora avrebbero osservato un effetto contrario al dilution effect che definirono con il termine enhancement. I risultati mostrarono chiaramente che quando le evidenze non-diagnostiche fornite erano tipiche, si osservava un enhancement; non si riscontrava alcun effetto quando le evidenze non-diagnostiche erano neutre e, infine, si rilevava un dilution effect quando le informazioni non-diagnostiche erano atipiche.

Anche Fein e Hilton (1992) avevano ipotizzato che le informazioni non-diagnostiche non avessero tutte lo stesso impatto, e fecero una distinzione tra le informazioni non-diagnostiche che venivano percepite come pseudo rilevanti (utilizzando il linguaggio di Peters e Rothbart, tipiche) da quelle non rilevanti (atipiche) per la maggior parte dei giudizi. I due studiosi trovarono evidenze di un forte dilution effect quando i membri della categoria target erano associati a evidenze tipiche piuttosto che a evidenze atipiche. I risultati di Fein e Hilton, non solo non vengono replicati da Peters e Rothbart (1999), ma vengono addirittura invertiti.

Peters e Rothbart (1999) interpretarono i risultati dei due studiosi affermando che fossero dovuti al fatto che intendevano in maniere diverse il termine tipicità: mentre loro utilizzavano item tipici o atipici rispetto alla categoria target, Fein e Hilton (1992) utilizzavano item tipici e atipici in generale, ossia informazioni che erano tipiche, o atipiche, per la maggioranza delle categorie. Ciò avrebbe potuto generare un errore di fondo, per cui le evidenze, che in generale sono ritenute tipiche (quindi tipiche per qualsiasi gruppo categoriale), avrebbero potuto risultare atipiche nell’esperimento.

Proprio per non intercorrere in tale rischio, Peters et al. (1999), hanno condotto uno studio pilota atto a individuare il grado di tipicità degli item rispetto alla categoria target. Peters e Rothbart (1999) sostennero che dai risultati del loro studio derivavano alcune importanti implicazioni. Per prima cosa, i risultati delle ricerche precedenti sul dilution effect potrebbero essere spiegati dall’involontario uso di informazioni non-diagnostiche atipiche. Se si analizzano gli stimoli utilizzati da Nisbett et al. (1981) ad esempio, si nota che le evidenze non-diagnostiche fornite ai soggetti non avevano alcuna relazione con l’ipotesi indagata: alcune delle loro informazioni potrebbero essere ritenute neutre, altre invece, decisamente atipiche.

Una seconda implicazione derivante dai risultati dello studio concerne la natura delle etichette delle categorie sociali, le quali possono rendere più facile diluire, piuttosto che aumentare, le predizioni di un membro target. Peters e Rothbart partirono dal presupposto che, bensì non sia vero che le informazioni non-diagnostiche abbassano sempre la stima di probabilità di un’ipotesi, è vero che, in generale, è presumibilmente più facile indebolire piuttosto che rafforzare l’immagine di un membro di una categoria sociale.

 

 

Conclusioni

Se affiancare a informazioni diagnostiche delle informazioni non-diagnostiche bastasse a ridurre il valore delle prime, allora questo sarebbe un problema soprattutto in campo giuridico ed in campo clinico. Uno studio di Smith, Stasson e Hawkes (1998) ha mostrato che l’effetto dilution effect si manifesta anche nelle scelte riguardanti l’ambito giuridico-legale.

Ma è davvero possibile che le persone non siano in grado di escludere le informazioni non-diagnostiche quando devono esprimere un giudizio? Eppure nella vita di tutti i giorni, siamo chiamati spesso a considerare il peso di alcune informazioni al fine di predire la probabilità che un determinato evento si verifichi. È possibile che nonostante siamo così allenati a farlo compiamo comunque tali errori?

Quello che sappiamo riguardo il fenomeno del dilution effect ha ancora molti margini di sviluppo, dato che nessuna delle spiegazioni fornite sembra essere esauriente.

Se, infatti, il dilution effect fosse dovuto soltanto all’euristica della rappresentatività (Kahneman & Tversky, 1972) non si spiegherebbe come sia possibile che tale fenomeno sia stato riscontrato anche negli studi di LaBella e Koehler (2004), che hanno utilizzato uno scenario di tipo lean.

Se questo fenomeno avesse una base conversazionale allora non si spiegherebbe come sia possibile che Kemmelmeier (2007) sia riuscito a ottenere l’effetto anche disattivando le massime conversazionali.

La spiegazione di Kemmelmeier che identifica il dilution effect come un’incapacità dei soggetti di non considerare le informazioni percettivamente attive, è criticabile. Eliminare fisicamente le evidenze non-diagnostiche, è come escluderle dalla valutazione, in altre parole, è come se non fossero mai state presentate. Ciò non è l’obiettivo degli studi sul dilution effect finalizzati a comprendere perché le persone non sono in grado di non considerare le informazioni non-diagnostiche nonostante si rendano conto della loro inutilità, e non tanto a evitarlo attraverso quelli che potrebbero sembrare meri trucchetti. Anche perché, nella vita di tutti i giorni, le informazioni non-diagnostiche non possono essere eliminate con un pennarello nero.

Le evidenze fornite da Peters e Rothbart (1999) sono interessanti, ma si limitano ad approfondire il fenomeno, non a spiegarlo.

Nonostante le diverse correnti di pensiero riguardanti le spiegazioni avanzate dagli esperti riguardo il dilution effect, fino ad ora non esiste una spiegazione univoca e sembra che siamo ancora molto lontani dal trovare una spiegazione esauriente e completa.

VOTA L'ARTICOLO
(voti: 4, media: 4,25 su 5)

Consigliato dalla redazione

Bias ed Euristiche

Bias ed Euristiche - Introduzione alla Psicologia Nr. 38

Le euristiche sono scorciatoie comode e rapide estratte dalla realtà, i bias cognitivi sono euristiche inefficaci e logorate, non basate su dati di realtà.

Bibliografia

  • Bless, H., Strack, F., & Schwarz, N. (1993). The informative function of research procedures: bias and the logic of conversation. European Journal of Social Psychology, 35, 303-314.
  • Dawes, R. M., & Corrigan, B. (1974). Linear models in decision making. Psychological Bulletin, 81, 95-106.
  • Fein, S., & Hilton, J. L. (1992). Attitudes toward groups and behavioral intentions toward individual group members: The impact of nondiagnostic information. Journal of Experimental Social Psychology, 28, 101-124.
  • Grice, P. (1975). Logic of conversation. Syntax and semantics, 3, 41-58.
  • Igou, E. (2007). Additional Thoughts on Conversational and Motivational Sources of the Dilution Effect. Journal of Language and Social Psychology, 26, 61-68.
  • Igou, E., & Bless, H. (2003). Inferring the importance of arguments: order effects and conversational rules. Journal of Experimental Social Psychology, 39, 91-99.
  • Igou, E., & Bless, H. (2005). The conversational basis for the dilution effect. Journal of Language and Social Psychology, 24, 25-35.
  • Kahneman, D., & Tversky, A. (1972). Subjective Probability: A Judgment of Representativeness, Cognitive Psychology, 3, 430-454.
  • Kahneman, D., & Tversky, A. (1974). Judgment under Uncertainty: Heuristics and Biases. Science, 185, 1124-1131.
  • Kemmelmeier, M. (2004). Separating the Wheat From the Chaff: Does Discriminating Between Diagnostic and Nondiagnostic Information Eliminate the Dilution Effect? Journal of Behavioral Decision Making, 17, 213-243.
  • Kemmelmeier, M. (2007a). Does the dilution effect have a conversational basis? Journal of Language and Social Psychology, 26, 48-60.
  • Kemmelmeier, M. (2007b). Is Diagnostic Evidence on the Dilution Effect Weakened When Nondiagnostic Objections are Added? Journal of Language and Social Psychology, 26, 69-74.
  • LaBella, C., & Koehler, D. (2004). Dilution and confirmation of probability judgments based on nondiagnostic evidence. Memory & cognition, 1076-1090.
  • Nisbett, R., Zukier, H., & Lemley, R. (1981). The dilution effect: Non-diagnostic Information weakens the implications of diagnostic information. Cognitive Psychology, 13, 248-277.
  • Peters, E., & Rothbart, M. (1999). Typicality can create, eliminate, and reverse the dilution effect. Personality and Social Psychology Bullettin, 26, 177-187.
  • Schwarz, N., Strack, F., Hilton, D., & Naderer, G. (1991). Judgmental biases and the logic of conversation: The contextual relevance of irrelevant information. Social Cognition, 9, 67-84.
  • Smith, H. D., Stasson, M. F., & Hawkes, W.G. (1998). Dilution in Legal Decision Making: Effect of Non-Diagnostic Information in Relation to Amount of Diagnostic Evidence. Current Psychology, 4, 333-345.
  • Tetlock, P., & Kim J. (1987). Accountability and judgment processes in a personality prediction task. Journal of Personality and Social Psychology, 52, 700-709.
  • Tetlock, P., & Boettger, R. (1989). Accountability: A Social Magnifier of the Dilution Effect, Journal of Personality and Social Psychology, 57, 388-398.
  • Tetlock, P., Lerner, J., & Boettger, R. (1996). The dilution effect: judgmental bias, conversational convention or a bit of both? European Journal of Social Psychology, 26, 915-934.
  • Troutman, C. M., & Shanteau, J. (1977). Interferences based on nondiagnostic information. Organizational Behavior and Human Performance, 19, 43-55.
  • Zukier, H. (1982). The dilution effect: The Role of the Correlation and the Dispersion of Predictor Variables in the Use of Nondiagnostic Information, Journal of Personality and Social Psychology, 43, 1163-1174.
State of Mind © 2011-2021 Riproduzione riservata.
Condividi
Messaggio pubblicitario