Triora, un piccolo, oggi ridente, borgo nell’entroterra di Imperia, fu colpita da una grave carestia alla fine del sedicesimo secolo. Gli abitanti, stanchi, depressi, esasperati, impauriti, incolparono delle donne locali, dando origine al più grande processo per stregoneria avvenuto in Italia, guidato dalla Chiesa attraverso la sua Inquisizione. Secondo lo psicologo americano Raymond Nickerson, gli orrori della “caccia alle streghe”, fenomeno che ha imperversato in molte parti del mondo a partire dal XV secolo e che ha mietuto innumerevoli vittime, superando barriere geografiche e resistendo a grandi cambiamenti storici, sarebbero in larga misura imputabili a un meccanismo cognitivo che evidenzia tutta la limitatezza del nostro sistema di pensiero: il bias o pregiudizio di conferma.
Con esso si intende la tendenza per cui ricerchiamo e valorizziamo informazioni che confermano ciò di cui siamo già convinti, ignorando, sminuendo o evitando le evidenze contrarie. In un’era prescientifica come quella della caccia alle streghe, in cui l’interpretazione degli eventi era funzione di credenze che non dovevano trovare corrispondenza con la realtà – e nella quale non esisteva il principio giuridico della presunzione di innocenza, per cui l’imputato è considerato non colpevole sino a che non sia provato il contrario al di là di ogni ragionevole dubbio – il significato di malattie, disgrazie o carestie veniva ricercato nelle proprie convinzioni precostituite. Le streghe erano così designate arbitrariamente come capro espiatorio per eventi altrimenti inspiegabili, come a dire che si vedeva nella causa di questi eventi solo ciò che si voleva vedere.
Il pregiudizio di conferma è stato studiato a partire dagli anni Sessanta, con una serie di esperimenti condotti dallo psicologo Peter Wason. Egli si rese conto che le persone, di fronte a un’ipotesi da verificare, invece di cercare di falsificarla, tendono a confermarla e per questo coniò l’espressione “bias di conferma”. Proprio in quegli anni, il filosofo Karl Popper incitava a intraprendere coraggiosamente il sentiero scomodo della falsificazione, per cui ogni teoria, per essere controllabile e perciò scientifica, deve essere confutabile. La tendenza dei soggetti sperimentali osservata da Wason a verificare piuttosto che a falsificare le ipotesi andava però nella direzione opposta. In uno dei suoi esperimenti, lo studioso sottoponeva ai partecipanti un problema scientifico in miniatura, in cui alcune variabili erano sconosciute e dovevano essere addotte prove per confutare o sostenere un’ipotesi. In particolare, i partecipanti dovevano scoprire la regola che guidava la relazione nella tripletta di numeri 2-4-6. Per agevolare la risoluzione del compito, venivano incoraggiati a testare la loro ipotesi proponendo altre triplette di numeri che, secondo loro, seguivano la stessa regola. Dopo ogni tripletta, lo sperimentatore dichiarava se questa confermava o meno la regola. L’esperimento si concludeva quando la persona si dichiarava fiduciosa della correttezza della sua ipotesi. La regola che univa i numeri 2-4-6 era in realtà molto generale; si trattava semplicemente di tre numeri in ordine crescente e se i partecipanti avessero fornito una qualsiasi altra tripletta di numeri crescenti, come quella contenente i numeri 1-2-3, avrebbero risolto il compito. Tuttavia, le persone ipotizzavano regole molto più complesse e particolari e finivano per testare esempi che risultavano sempre seguire queste regole, procurandosi così molte conferme per le loro ipotesi. Ad esempio, sommavano 2 ad ogni numero fornendo una nuova tripletta di numeri come 8-10-12, o sommavano i primi due numeri della tripletta per ottenere il terzo, come in 5-10-15.
Questa sorta di cecità, che impedisce di osservare i fenomeni da più punti di vista, è uno dei meccanismi cognitivi più complessi e radicati della nostra mente e risponderebbe, secondo lo psicologo Daniel Kahneman, alla logica – o, per meglio dire, alla mancanza della logica – di un sistema di pensiero che opera con poco o senza alcuno sforzo e nessun senso di controllo volontario, generando illusioni e tendendo in partenza a credere e confermare, trascurando l’ambiguità e reprimendo il dubbio. Come accade per molte altre euristiche, il pregiudizio di conferma non è di per sé negativo; è anzi un processo inferenziale pragmatico che risponde a un principio di economia cognitiva: data la nostra impossibilità di analizzare criticamente e approfonditamente tutti gli stimoli che riceviamo di continuo, la nostra mente preferisce focalizzarsi su quello che già conosce, cullandosi in una zona di comfort con informazioni che sono in linea con precedenti pensieri ed opinioni. Questa tendenza è in accordo con quello che gli psicologi Margaret Matlin e David Stang definiscono il “principio di Pollyanna”, termine che prende origine dai romanzi di Eleanor H. Porter nei quali la protagonista, Pollyanna appunto, è una bambina capace di vedere solo il lato positivo delle cose. Secondo questo principio, per la nostra mente sarebbe più facile credere in qualcosa che vuole che sia vero e che rappresenta un ricordo o un evento piacevole, piuttosto che in qualcosa che si preferisce essere falso ed è in qualche modo spiacevole. Così, quanto più le nuove informazioni che elaboriamo suscitano emozioni forti e mettono in discussione pensieri ed opinioni radicate, tanto più tenderemo a infastidirci e il pregiudizio salderà la sua presa, dandoci ragione sempre e comunque. In tal senso, un affascinante parallelismo letterario paragona il pregiudizio di conferma ad una sorta di “Uriah Heep interiore”, un personaggio tratto dal romanzo David Copperfield di Charles Dickens e che rappresenta un uomo falso e viscido che asseconda chiunque, pur di nascondere i suoi tradimenti e inganni e tramare nell’ombra.
Tuttavia, come già sottolineato, il pregiudizio di conferma non è necessariamente negativo, anzi risponde a un meccanismo di sopravvivenza, come suggerito dall’esempio fornito da Nickerson di una persona che deve verificare se alcuni funghi che sospetta essere velenosi lo sono per davvero. Chiaramente, questa preferisce preservare la sua salute e confermare la sua ipotesi piuttosto che provare tutti i funghi per verificare se il suo sospetto è fondato. Secondo Kahneman, i problemi, per così dire, sorgono quando un sistema di pensiero così primordiale e intuitivo tende a prevalere su un più attento sistema votato al controllo e alla razionalità, facendoci cadere vittime di errori di valutazione che mal direzionano il nostro comportamento, come nel caso degli effetti del pregiudizio di conferma nell’ambito dei dibattiti politici o riguardo a temi di interesse pubblico, in particolare laddove si scontrano fazioni molto polarizzate. Durante il periodo elettorale, ad esempio, le persone tendono a ricercare notizie che avvantaggiano e mettono il partito politico o il candidato che sostengono in una luce positiva, trascurando allo stesso tempo tutte le notizie a suo sfavore. Oppure, una persona che è contraria alla detenzione di armi da fuoco da parte dei singoli cittadini tenderà a selezionare e valorizzare storie di tragica violenza (ad esempio, le sparatorie di massa nelle scuole americane) che evidenziano la necessità di porre delle limitazioni al possesso di armi. Specularmente, chi crede nel diritto del singolo di armarsi per difendere la sua incolumità andrà alla ricerca di storie nelle quali, ad esempio, un furto o un’aggressione fisica sono stati evitati da uno sparo della vittima.
Molti altri esempi del pregiudizio di conferma possono essere ritrovati nelle più svariate e semplici situazioni quotidiane. Recentemente, uno studio condotto da un team di ricercatori giapponesi e pubblicato sulla rivista online Scientific Reports ha sottoposto ad alcune persone delle immagini che ritraevano alcuni alimenti, chiedendo loro di valutare, utilizzando una scala da -10 a +10, quanto ciascuno di questi cibi fosse appetibile (laddove un punteggio di -10 indicava un completo disgusto verso quel tipo di cibo, un punteggio di +10 indicava una forte attrazione per l’alimento in questione e, infine, un punteggio di 0 classificava quel cibo come neutrale, ovvero né disgustoso né appetitoso). Ciascuna immagine era preceduta da una sorta di “indizio”, anche questo un’immagine, che suggeriva la piacevolezza o spiacevolezza del cibo che le persone avrebbero visto: un vassoio per indicare un alimento appetitoso, un segnale di pericolo per avvertire di un alimento da evitare e dei quadrati bianchi e neri per denotare un alimento neutrale. Lo studio ha dimostrato che le persone erano notevolmente influenzate nei loro giudizi dagli indizi mostrati, come in una sorta di profezia che si auto-avvera: ad esempio, l’immagine del vassoio induceva l’attribuzione di punteggi più alti (e quindi più positivi) sia per cibi effettivamente appetibili, come ad esempio una fetta di torta, che per cibi decisamente meno appetibili, come della frutta avariata. L’opposto si verificava nel caso del segnale di pericolo, ovvero l’elemento predittivo negativo, proprio a segnalare che una volta che siamo stati esposti a qualcosa, una notizia, un’informazione, un’opinione, questa continua ad influenzarci, a prescindere dalla sua affidabilità.
Ciò sottolinea come anche eventi disconnessi possano essere percepiti come correlati fra loro. Si pensi al mito dell’influenza delle fasi lunari sul comportamento umano, che attribuisce alla Luna una lunga lista di eventi inusuali e violenti, tra i quali figurano suicidi e omicidi a catena, ricoveri d’urgenza negli ospedali psichiatrici, situazioni di crisi nel pronto soccorso e nelle stazioni di polizia. È difficile persuadere chi è convinto dell’esistenza di questa influenza che si tratta di una leggenda; tutti questi fenomeni avvengono a prescindere dalle fasi lunari. Secondo gli psicologi James Rotton e Ivan William Kelly, entrerebbe in gioco proprio il pregiudizio di conferma, per cui ricerchiamo informazioni che sono coerenti con le nostre convinzioni precostituite, ignorando le evidenze contrarie. Così, se siamo convinti dei poteri magici di condizionamento lunare, se la Luna è piena quando un assassino uccide degli innocenti o si verificano incidenti d’auto a catena, questo conferma la nostra teoria “Luna = accade qualcosa di brutto”. Se invece non accade nulla, non ci diamo peso e ricordiamo selettivamente solo i casi in cui i due eventi in questione si sono verificati insieme.
Di fronte alla pervasività del pregiudizio di conferma, diventa allora essenziale esercitare il proprio pensiero critico, senza fermarsi alla prima idea che ci siamo formati e imparando a mettere sistematicamente in discussione idee ed opinioni anche radicate. D’ispirazione potrebbe diventare Abraham Lincoln, che amava circondarsi di persone con idee politiche opposte alle sue. Avendo intuito l’importanza del dibattito, anche se questo poteva volgere a suo sfavore, aveva infatti capito che l’ascolto attento, il confronto e l’esercizio del pensiero critico sono necessari per la presa di decisioni, in particolar modo per quelle di importanza collettiva, che siano il più possibile scevre dai condizionamenti della nostra stessa mente e sostenute da prove concrete.
Con esso si intende la tendenza per cui ricerchiamo e valorizziamo informazioni che confermano ciò di cui siamo già convinti, ignorando, sminuendo o evitando le evidenze contrarie. In un’era prescientifica come quella della caccia alle streghe, in cui l’interpretazione degli eventi era funzione di credenze che non dovevano trovare corrispondenza con la realtà – e nella quale non esisteva il principio giuridico della presunzione di innocenza, per cui l’imputato è considerato non colpevole sino a che non sia provato il contrario al di là di ogni ragionevole dubbio – il significato di malattie, disgrazie o carestie veniva ricercato nelle proprie convinzioni precostituite. Le streghe erano così designate arbitrariamente come capro espiatorio per eventi altrimenti inspiegabili, come a dire che si vedeva nella causa di questi eventi solo ciò che si voleva vedere.
Il pregiudizio di conferma è stato studiato a partire dagli anni Sessanta, con una serie di esperimenti condotti dallo psicologo Peter Wason. Egli si rese conto che le persone, di fronte a un’ipotesi da verificare, invece di cercare di falsificarla, tendono a confermarla e per questo coniò l’espressione “bias di conferma”. Proprio in quegli anni, il filosofo Karl Popper incitava a intraprendere coraggiosamente il sentiero scomodo della falsificazione, per cui ogni teoria, per essere controllabile e perciò scientifica, deve essere confutabile. La tendenza dei soggetti sperimentali osservata da Wason a verificare piuttosto che a falsificare le ipotesi andava però nella direzione opposta. In uno dei suoi esperimenti, lo studioso sottoponeva ai partecipanti un problema scientifico in miniatura, in cui alcune variabili erano sconosciute e dovevano essere addotte prove per confutare o sostenere un’ipotesi. In particolare, i partecipanti dovevano scoprire la regola che guidava la relazione nella tripletta di numeri 2-4-6. Per agevolare la risoluzione del compito, venivano incoraggiati a testare la loro ipotesi proponendo altre triplette di numeri che, secondo loro, seguivano la stessa regola. Dopo ogni tripletta, lo sperimentatore dichiarava se questa confermava o meno la regola. L’esperimento si concludeva quando la persona si dichiarava fiduciosa della correttezza della sua ipotesi. La regola che univa i numeri 2-4-6 era in realtà molto generale; si trattava semplicemente di tre numeri in ordine crescente e se i partecipanti avessero fornito una qualsiasi altra tripletta di numeri crescenti, come quella contenente i numeri 1-2-3, avrebbero risolto il compito. Tuttavia, le persone ipotizzavano regole molto più complesse e particolari e finivano per testare esempi che risultavano sempre seguire queste regole, procurandosi così molte conferme per le loro ipotesi. Ad esempio, sommavano 2 ad ogni numero fornendo una nuova tripletta di numeri come 8-10-12, o sommavano i primi due numeri della tripletta per ottenere il terzo, come in 5-10-15.
Questa sorta di cecità, che impedisce di osservare i fenomeni da più punti di vista, è uno dei meccanismi cognitivi più complessi e radicati della nostra mente e risponderebbe, secondo lo psicologo Daniel Kahneman, alla logica – o, per meglio dire, alla mancanza della logica – di un sistema di pensiero che opera con poco o senza alcuno sforzo e nessun senso di controllo volontario, generando illusioni e tendendo in partenza a credere e confermare, trascurando l’ambiguità e reprimendo il dubbio. Come accade per molte altre euristiche, il pregiudizio di conferma non è di per sé negativo; è anzi un processo inferenziale pragmatico che risponde a un principio di economia cognitiva: data la nostra impossibilità di analizzare criticamente e approfonditamente tutti gli stimoli che riceviamo di continuo, la nostra mente preferisce focalizzarsi su quello che già conosce, cullandosi in una zona di comfort con informazioni che sono in linea con precedenti pensieri ed opinioni. Questa tendenza è in accordo con quello che gli psicologi Margaret Matlin e David Stang definiscono il “principio di Pollyanna”, termine che prende origine dai romanzi di Eleanor H. Porter nei quali la protagonista, Pollyanna appunto, è una bambina capace di vedere solo il lato positivo delle cose. Secondo questo principio, per la nostra mente sarebbe più facile credere in qualcosa che vuole che sia vero e che rappresenta un ricordo o un evento piacevole, piuttosto che in qualcosa che si preferisce essere falso ed è in qualche modo spiacevole. Così, quanto più le nuove informazioni che elaboriamo suscitano emozioni forti e mettono in discussione pensieri ed opinioni radicate, tanto più tenderemo a infastidirci e il pregiudizio salderà la sua presa, dandoci ragione sempre e comunque. In tal senso, un affascinante parallelismo letterario paragona il pregiudizio di conferma ad una sorta di “Uriah Heep interiore”, un personaggio tratto dal romanzo David Copperfield di Charles Dickens e che rappresenta un uomo falso e viscido che asseconda chiunque, pur di nascondere i suoi tradimenti e inganni e tramare nell’ombra.
Tuttavia, come già sottolineato, il pregiudizio di conferma non è necessariamente negativo, anzi risponde a un meccanismo di sopravvivenza, come suggerito dall’esempio fornito da Nickerson di una persona che deve verificare se alcuni funghi che sospetta essere velenosi lo sono per davvero. Chiaramente, questa preferisce preservare la sua salute e confermare la sua ipotesi piuttosto che provare tutti i funghi per verificare se il suo sospetto è fondato. Secondo Kahneman, i problemi, per così dire, sorgono quando un sistema di pensiero così primordiale e intuitivo tende a prevalere su un più attento sistema votato al controllo e alla razionalità, facendoci cadere vittime di errori di valutazione che mal direzionano il nostro comportamento, come nel caso degli effetti del pregiudizio di conferma nell’ambito dei dibattiti politici o riguardo a temi di interesse pubblico, in particolare laddove si scontrano fazioni molto polarizzate. Durante il periodo elettorale, ad esempio, le persone tendono a ricercare notizie che avvantaggiano e mettono il partito politico o il candidato che sostengono in una luce positiva, trascurando allo stesso tempo tutte le notizie a suo sfavore. Oppure, una persona che è contraria alla detenzione di armi da fuoco da parte dei singoli cittadini tenderà a selezionare e valorizzare storie di tragica violenza (ad esempio, le sparatorie di massa nelle scuole americane) che evidenziano la necessità di porre delle limitazioni al possesso di armi. Specularmente, chi crede nel diritto del singolo di armarsi per difendere la sua incolumità andrà alla ricerca di storie nelle quali, ad esempio, un furto o un’aggressione fisica sono stati evitati da uno sparo della vittima.
Molti altri esempi del pregiudizio di conferma possono essere ritrovati nelle più svariate e semplici situazioni quotidiane. Recentemente, uno studio condotto da un team di ricercatori giapponesi e pubblicato sulla rivista online Scientific Reports ha sottoposto ad alcune persone delle immagini che ritraevano alcuni alimenti, chiedendo loro di valutare, utilizzando una scala da -10 a +10, quanto ciascuno di questi cibi fosse appetibile (laddove un punteggio di -10 indicava un completo disgusto verso quel tipo di cibo, un punteggio di +10 indicava una forte attrazione per l’alimento in questione e, infine, un punteggio di 0 classificava quel cibo come neutrale, ovvero né disgustoso né appetitoso). Ciascuna immagine era preceduta da una sorta di “indizio”, anche questo un’immagine, che suggeriva la piacevolezza o spiacevolezza del cibo che le persone avrebbero visto: un vassoio per indicare un alimento appetitoso, un segnale di pericolo per avvertire di un alimento da evitare e dei quadrati bianchi e neri per denotare un alimento neutrale. Lo studio ha dimostrato che le persone erano notevolmente influenzate nei loro giudizi dagli indizi mostrati, come in una sorta di profezia che si auto-avvera: ad esempio, l’immagine del vassoio induceva l’attribuzione di punteggi più alti (e quindi più positivi) sia per cibi effettivamente appetibili, come ad esempio una fetta di torta, che per cibi decisamente meno appetibili, come della frutta avariata. L’opposto si verificava nel caso del segnale di pericolo, ovvero l’elemento predittivo negativo, proprio a segnalare che una volta che siamo stati esposti a qualcosa, una notizia, un’informazione, un’opinione, questa continua ad influenzarci, a prescindere dalla sua affidabilità.
Ciò sottolinea come anche eventi disconnessi possano essere percepiti come correlati fra loro. Si pensi al mito dell’influenza delle fasi lunari sul comportamento umano, che attribuisce alla Luna una lunga lista di eventi inusuali e violenti, tra i quali figurano suicidi e omicidi a catena, ricoveri d’urgenza negli ospedali psichiatrici, situazioni di crisi nel pronto soccorso e nelle stazioni di polizia. È difficile persuadere chi è convinto dell’esistenza di questa influenza che si tratta di una leggenda; tutti questi fenomeni avvengono a prescindere dalle fasi lunari. Secondo gli psicologi James Rotton e Ivan William Kelly, entrerebbe in gioco proprio il pregiudizio di conferma, per cui ricerchiamo informazioni che sono coerenti con le nostre convinzioni precostituite, ignorando le evidenze contrarie. Così, se siamo convinti dei poteri magici di condizionamento lunare, se la Luna è piena quando un assassino uccide degli innocenti o si verificano incidenti d’auto a catena, questo conferma la nostra teoria “Luna = accade qualcosa di brutto”. Se invece non accade nulla, non ci diamo peso e ricordiamo selettivamente solo i casi in cui i due eventi in questione si sono verificati insieme.
Di fronte alla pervasività del pregiudizio di conferma, diventa allora essenziale esercitare il proprio pensiero critico, senza fermarsi alla prima idea che ci siamo formati e imparando a mettere sistematicamente in discussione idee ed opinioni anche radicate. D’ispirazione potrebbe diventare Abraham Lincoln, che amava circondarsi di persone con idee politiche opposte alle sue. Avendo intuito l’importanza del dibattito, anche se questo poteva volgere a suo sfavore, aveva infatti capito che l’ascolto attento, il confronto e l’esercizio del pensiero critico sono necessari per la presa di decisioni, in particolar modo per quelle di importanza collettiva, che siano il più possibile scevre dai condizionamenti della nostra stessa mente e sostenute da prove concrete.
Riferimenti bibliografici
- Kahneman, D. (2012). Pensieri lenti e veloci. Milano: Mondadori.
- Matlin, M.W., & Stang, D.J (1978). The Pollyanna principle: Selectivity in language, memory, and thought. Cambridge, MA: Schenkman.
- Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175-220.
- Ounjai, K., Kobayashi, S., Takahashi, M., Matsuda, T., and Lauwereyns, J. (2018). Active confirmation bias in the evaluative processing of food images. Scientific Reports, 8, 16864.
- Rotton, J., & Kelly, I.W. (1985). Much ado about the full moon: A meta-analysis of lunar-lunacy research. Psychological Bulletin, 97(2), 286-306.
- Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12(3), 129-140.