Professor Gigerenzer, lei ha dedicato la sua vita allo studio della razionalità e del processo decisionale. Il CICAP, che fa parte del movimento scettico, si propone di promuovere il processo decisionale razionale nella società alla luce delle prove scientifiche; i suoi studi tuttavia dimostrano che facciamo deduzioni sul mondo a partire da tempi e conoscenze limitati. In che modo il nostro cervello si è adattato a un mondo tanto incerto?
Il nostro cervello si è evoluto per affrontare l’incertezza, non la certezza. Nella scienza delle decisioni si distingue tra situazioni di rischio, nelle quali si può calcolare tutto, e situazioni di incertezza, dove il futuro è imprevedibile e riserva sorprese. Gran parte della teoria delle decisioni, dell’economia e di altri campi postula teorie interessanti che però si basano su un mondo di rischio, sulla certezza, piuttosto che sull’incertezza. Io invece cerco di capire in che modo gli esseri umani sopravvivono e affrontano il mondo dell’incertezza, in cui i big data e gli algoritmi complicati sono di scarso aiuto. Ecco la sfida.
Insieme a Daniel Goldstein ha teorizzato per primo l’esistenza dell’euristica del riconoscimento, un modello di processo decisionale che presuppone che decidiamo in base a un criterio non direttamente accessibile alla nostra consapevolezza. Vuol dire che è il nostro cervello a decidere per noi?
Vuol dire che in situazioni di incertezza le persone non possono fare affidamento solo sulla teoria della probabilità logica; molti miei cari colleghi credono che sia così, ma ciò significa non prendere sul serio l’incertezza e ridurla a situazioni di rischio calcolabile. In situazioni di incertezza, nelle persone e negli animali si è evoluta l’euristica, ovvero una regola empirica. L’euristica del riconoscimento è un esempio molto interessante, perché usa l’ignoranza di un individuo per trarre inferenze intelligenti. Per fare un esempio molto semplice, poniamo che tu ti interessi un po’ di tennis, non troppo però; c’è una partita e hai sentito parlare di un tennista, ma non dell’altro. L’euristica del riconoscimento ti dice di scommettere su quello che hai sentito nominare. La cosa interessante è che se ne sapessi di più di tennis non avresti potuto usare l’euristica, perché avresti sentito parlare di entrambi i tennisti, e lo stesso non potresti usarla se conoscessi quello sport troppo poco, perché non avresti sentito nominare nessuno dei due giocatori. Questo tipo di euristica sfrutta il fatto che spesso un nome conosciuto è correlato con le prestazioni, usandolo per fare una deduzione intelligente e sfruttando l’ignoranza della persona.
Funziona solo con le persone che conosciamo o vale per qualsiasi tipo di informazione con cui abbiamo a che fare?
Funziona in qualsiasi situazione in cui non sapere qualcosa o non averne avuto esperienza è informativo. Gli animali vi ricorrono per dedurre cosa mangiare e cosa evitare. Ad esempio, gli esperimenti sui ratti mostrano che essi scelgono il cibo che riconoscono dall’odore, evitando quello che non riconoscono; si vede la razionalità che sta dietro a tale comportamento. Ma questa è solo un’euristica di base, la stessa che si può usare anche per investire in borsa.
Il grande interrogativo su ogni euristica è: quando funziona e quando non funziona? Abbiamo dimostrato che in situazioni in cui l'euristica funziona (cioè laddove è ecologicamente razionale: il mondo è impostato in modo tale che, ad esempio, il riconoscimento ha valore informativo), lì questa semplice euristica può superare le prestazioni degli algoritmi complessi più sofisticati. Spesso, perciò, “meno è meglio”.
E per noi, in qualità di giornalisti scientifici o di associazione che vuole promuovere la conoscenza scientifica all’interno della società, questa è la vera sfida. Quindi ciò significa che a volte spiegare argomenti molto incerti e complicati è una perdita di tempo? È meglio lasciare che le persone vivano con la loro ignoranza, visto che useranno la loro esperienza per decidere?
“Meno è meglio” non significa che non sapere nulla sia la cosa migliore, come spiega questa semplice euristica: se non hai sentito parlare di niente, non puoi basarti su niente. Semmai, ciò che spesso accade è che disporre di una certa quantità di conoscenza e di dati sia meglio che usare tutto; e questo vale in un mondo di incertezza. In un mondo di certezza, invece, è meglio usare tutti i dati che si possono trovare e fare i calcoli più complicati. Per questo l’intelligenza artificiale funziona meglio in situazioni stabili, dove domani è uguale a ieri, e raggiunge risultati eccellenti in giochi come gli scacchi e il go, in cui le regole sono eterne e non si può barare. Ma nel momento in cui si vuole prevedere cosa faranno le persone nei prossimi anni, o se un imputato commetterà un altro crimine, allora i tentativi di utilizzare algoritmi altamente complessi falliscono. Le semplici euristiche che si limitano a esaminare una, due o tre variabili sono valide tanto quanto quelle complicate. In più sono trasparenti, si possono comprendere, che è un grande vantaggio. E al contempo una grande sfida, dato che molte persone vogliono vendere cose complicate e fare colpo sugli altri.
Nella divulgazione scientifica, in particolare durante la pandemia, le euristiche e i pregiudizi cognitivi sono molto di moda, almeno in Italia: tutti scrivono e parlano al riguardo. Lei critica il lavoro di due suoi colleghi, Daniel Kahneman e Amos Tversky, circa la loro visione dell’euristica come una sorta di modo irrazionale e prevenuto di prendere decisioni; sostiene invece che la razionalità non è esattamente la stessa cosa del calcolo probabilistico. Cosa significa questo nella vita di tutti i giorni?
Daniel Kahneman e Amos Tversky hanno fatto un lavoro eccellente e mostrato chiaramente che le persone si affidano all’euristica. Per il mio lavoro sono partito da lì e sono andato oltre, portando avanti il discorso per mezzo di due interrogativi. Il primo riguarda la possibilità di modellizzare l’euristica: si chiede cioè se sia possibile progettare un modello dell’euristica del riconoscimento, in modo da poterlo simulare e testare al computer. Il secondo si chiede in quali situazioni l’euristica funzioni e in quali no.
La ricerca di Kahneman e Tversky riguarda principalmente situazioni di rischio in cui si conosce già la risposta corretta; si vede il modo in cui l’economia comportamentale ama sapere cosa è giusto e mostrare che l’individuo si sbaglia. In situazioni di incertezza le cose stanno diversamente. Prendiamo la pandemia di COVID: nel momento in cui parliamo, nessuno sa come si svilupperà. Ci possono essere alcune ipotesi plausibili e previsioni che, per essere affidabili, probabilmente dovranno essere a breve termine. Nella nostra ricerca (ma anche in ricerche condotte da altri) euristiche molto semplici mostrano migliori capacità predittive rispetto all’analisi dei big data. Ecco dunque un preconcetto che si è rivelato non corretto nel lavoro di Kahneman e Tversky; in condizioni di incertezza, la semplice euristica può dimostrarsi incredibilmente accurata.
Nell’ultimo libro di Kahneman, Rumore, lui e i suoi coautori sono arrivati a questa intuizione per cui semplici regole possono funzionare bene: lo ritengo un passo avanti, penso che siamo stati influenti e che quindi loro abbiano rivisto il termine “bias” con maggiore cautela. La cosa importante è che non bisogna associare le euristiche ai pregiudizi; sarebbe sbagliato tanto quanto associare pregiudizi e modelli complessi. Prendiamo per esempio la crisi finanziaria del 2008: c’erano complessi modelli matematici finanziari, eppure non furono in grado di prevederla. Ogni modello può essere sbagliato, dunque, e non bisogna avere pregiudizi nei confronti delle euristiche. Se ci troviamo in una situazione di rischio dove tutto è noto, come giocare alla roulette (dove si conosce ogni possibile esito, conseguenza e probabilità), non servono le euristiche o l’intuizione o alcuna psicologia, poiché ci limiteremo al calcolo. Invece, se abbiamo a che fare con situazioni di incertezza come ad esempio l’influenza, gli esseri umani o la comprensione del linguaggio (che è ambiguo e ricorre all’ironia e ad altri elementi indipendenti dalla logica), non capiremo nemmeno di cosa stiamo parlando.
Lei lavora molto anche allo sviluppo di modelli per la comunicazione della scienza e del rischio, un’area interessante per chi si occupa di giornalismo scientifico e divulgazione. Spesso all’interno della comunità dei comunicatori scientifici partiamo dal presupposto che comunicare il rischio e l’incertezza siano la stessa cosa; secondo i suoi studi, però, non è proprio così. Dovremmo allora applicare regole diverse nella comunicazione?
Se parliamo di comunicare il rischio in senso specifico, abbiamo dati affidabili e possiamo fare dei calcoli: eppure anche così la maggior parte delle persone non ha mai imparato una comunicazione corretta e può essere facilmente fuorviata. Consideriamo cosa succede quando una famosa rivista tedesca a un certo punto annuncia che gli attacchi di squali quell’anno sono aumentati del 100%. Supponiamo che tu sia da qualche parte in spiaggia nella bellissima Italia: farai entrare i tuoi figli in acqua, andrai in surf sapendo quel fatto? Il dato reale è che ogni anno circa 10 persone muoiono a causa degli squali (che sono fra gli animali che uccidono meno persone); l’anno prima ci sono state 6 morti in tutto il mondo, aumentate a 12 l’anno successivo. Ecco l’aumento del 100%, da sei a dodici: è l’incremento del rischio relativo. Invece, l’incremento del rischio assoluto è di 6 morti in un anno in tutto il mondo. Questo è solo un esempio, ma la stessa distinzione tra incremento relativo e incremento assoluto non è nota a gran parte delle persone, perciò fa dei danni.
Altro esempio famoso è l’allarme sulle pillole contraccettive che riemerge ogni pochi anni nel Regno Unito e in altri paesi. Il caso più noto fu quando il Comitato sulla sicurezza dei medicinali del Regno Unito convocò una conferenza stampa d’emergenza, dicendo che le pillole contraccettive di terza generazione aumentavano del 100% il rischio di trombosi; per molte donne e adolescenti britanniche quel 100% equivalse in pratica a una certezza e smisero perciò di prendere la pillola, il che portò a gravidanze indesiderate. Cos’era successo? Di nuovo, fu il rischio relativo a spaventare le persone. Nello studio in questione si era visto che su 7.000 donne che prendevano la pillola della generazione precedente, una aveva avuto una trombosi, numero che salì a due fra le donne che presero la pillola di terza generazione. Questo incremento del rischio assoluto da 1 a 2 su 7.000 fu comunicato come un incremento del rischio relativo del 100%, una semplice comunicazione che in Inghilterra e in Galles bastò a provocare un aumento di circa 13.000 aborti rispetto alla norma.
Di recente abbiamo avuto un’esperienza simile qui in Italia con il vaccino AstraZeneca, che è stato bloccato e poi reintrodotto a causa purtroppo della morte di una giovane donna. Anche qui direi che in termini di numeri assoluti il rischio era piuttosto basso.
Esatto, e in Germania è accaduto lo stesso. I politici hanno bloccato il vaccino per diversi giorni, in un eccesso di cautela e per aumentare la fiducia dei cittadini, ma hanno ottenuto un risultato diametralmente opposto: le persone non si fidavano più. Questo è un caso di grave errore nel processo decisionale, mancante di comprensione psicologica della condotta tenuta. Illustra anche che le persone non sono abituate a pesare i rischi, ma piuttosto ne considerano uno solo. Uno, due o tre casi di morte da trombosi su un milione di persone è un rischio immensamente piccolo; eppure alcuni hanno pensato che nessun rischio fosse meglio di un rischio piccolo e hanno aspettato uno o più mesi prima di fare quello che ritenevano un vaccino sicuro, o addirittura si sono limitati all’attesa senza fare nessun vaccino. Non si sono resi conto che durante quel tempo le possibilità di infettarsi e di finire in terapia intensiva tra la vita e la morte sono molto più alte, e che la metà di loro potrebbe morire. Si tratta di mancanza di alfabetizzazione al rischio.
Qui abbiamo parlato di vaccinazioni, situazioni in cui si può fare una stima numerica approssimativa e c’è un certo grado di incertezza. Se si parla di vera incertezza, invece, le cose diventano molto più difficili da prevedere: cosa fare con il resto della propria vita, di chi fidarsi, chi sposare… Anche questo fa parte del tentativo di imparare a vivere con l’incertezza.
Attacchiamo sempre le decisioni irrazionali prese dai non esperti. Ma cosa dire degli scienziati, sono forse vittime delle stesse fallacie? La conoscenza della statistica e dell’incertezza costituisce un antidoto contro un processo decisionale irrazionale?
Io credo che il termine “irrazionale” sia spesso usato in maniera discriminatoria da chi pensa di avere sempre ragione. Bisogna fare molta attenzione: in molte situazioni non sappiamo davvero quale sia la scelta migliore. La scienza è il miglior antidoto contro tutte queste paure, mistificazioni e forme di irrazionalità, e il metodo scientifico andrebbe insegnato nelle classi di ogni ordine e grado: siate critici, e siatelo invece di limitarvi a seguire quello che pensano i vostri compagni. Gran parte di quelle che consideriamo “irrazionalità” non hanno niente a che vedere con qualcosa che fa cilecca nel cervello, ma riguardano il fatto che la nostra è una specie sociale, noi siamo animali sociali. Un essere umano da solo non raggiungerebbe alcun traguardo; viviamo per gli altri, per questo spesso cadiamo preda dei pregiudizi altrui solo per essere accettati e per non essere esclusi. Dobbiamo però avere il coraggio di pensare con la nostra testa. E se pensare con la propria testa significa perdere amici, possiamo essere felici di fare a meno di loro.
Certamente. Vorrei collegarmi a quello che ha appena detto, e cioè che in qualche modo dovremmo comprendere che la certezza non esiste e che la scienza è una buona guida per prendere decisioni. Infatti all’inizio della pandemia un membro del governo italiano, il Ministro per gli Affari Regionali Francesco Boccia disse agli scienziati, e cito «Chiedo di darci certezze inconfutabili [...] altrimenti non c’è scienza», un’affermazione che ha influenzato molto la percezione pubblica di quello che gli scienziati potevano fare nella pandemia. Cosa dovremmo fare per smontare la cultura della certezza, questa idea per cui dobbiamo attenderci certezza prima di prendere una decisione?
Il primo e più importante passo verso un’alfabetizzazione del rischio è rinunciare all’illusione della certezza. Come disse una volta Benjamin Franklin, «In questa vita nulla è certo, eccetto la morte e le tasse». Le regole del gioco degli scacchi sono certe, perché le abbiamo inventate noi, ma nel mondo reale le persone non rispettano le regole tutto il tempo. Bisogna quindi evitare tutti i termini come “certezza” o le espressioni come “non siamo ancora certi”: che sciocchezza, probabilmente non lo siamo mai! Semmai si tratta del grado di certezza.
Questo ci porta al secondo passo: soppesare i rischi. Talvolta le persone si sorprendono se qualcuno, nonostante sia vaccinato contro una malattia come la COVID-19, si ammala lo stesso; ma capita, nulla è perfetto, ed è meglio che non essere vaccinati. Occorre poi comprendere alcuni concetti base come il rischio relativo e il rischio assoluto, senza farsi ingannare da chi presenta grandi numeri sull’aumento del rischio relativo, come il 100%, che sono invece numeri piccolissimi. È una tecnica molto frequente in ambito sanitario, nei report sulla salute; le persone restano colpite nel leggere di decrementi del 50%, quando in realtà si tratta di decrementi da 2 su 10.000 a 1 su 10,000, nulla di grande.
Il terzo passo è comprendere in che modo noi stessi funzioniamo, data la nostra psicologia di esseri sociali per cui dipendiamo tanto dall’approvazione degli altri. L’era digitale mostra ancora una volta quanto facilmente le persone ripetano (o ritwittino!) cosa dicono gli altri, e anche quanto siano umiliate e ferite da chi non ha nulla di meglio da fare che diffondere odio. Questo passaggio richiede coraggio: il coraggio di informarsi, il coraggio di valutare in autonomia, e il coraggio di difendere i propri valori anche quando gli altri dicono che siamo in errore, imparando a discutere.
Il suo Centro per l’Alfabetizzazione al Rischio si è mai occupato di sviluppare modelli o programmi per promuovere l’alfabetizzazione al rischio nella società o nelle scuole? E hanno avuto una buona accoglienza? Sì: sul sito web dell’Harding Center for Risk Literacy abbiamo molti strumenti, ad esempio i riquadri informativi che danno un’idea di quanto funzioni un vaccino e quali siano i suoi svantaggi. Questo tipo di informazioni aiuta a prevenire teorie del complotto e simili.
Lavoriamo anche nella formazione di giornalisti e di medici (io avrò formato mille dottori, i miei colleghi all’Harding Center molte altre migliaia); formiamo anche persone che lavorano nell’ambito giuridico, per aiutarli a comprendere cosa significhino le prove del DNA, ma anche quanto sia facile farsi ingannare se non si comprendono i numeri, come spesso accade. La nostra è insomma una sorta di istituzione illuminista che fornisce sì strumenti per comprendere le cose, ma che richiede anche una preparazione mentale a diventare cittadini informati e maturi. Le basi sono queste: viviamo una volta sola e dobbiamo provare a capire il mondo senza paura.
Quindi la cosiddetta cittadinanza scientifica richiede un po’ di lavoro anche da parte dei cittadini.
Proprio così. In teoria l’illuminismo è avvenuto qualche secolo fa, ma in realtà non siamo ancora arrivati a quel punto. Ci sono troppe persone che non si fidano della scienza, che non sono disposte a imparare gli strumenti della scienza, del pensiero critico e soprattutto autocritico: non bisogna credere a tutto ciò in cui si crede.
Un ottimo suggerimento: non fidarci troppo di noi stessi. Ho un’ultima domanda per lei, di carattere personale. Ho appena scoperto che lei è un musicista jazz, ci sono alcuni video su YouTube in cui suona. Mi è venuto in mente che la musica jazz è la musica meno “certa”: bisogna seguire cosa sta succedendo all’interno del proprio gruppo. C’è un collegamento con la sua carriera? Perché ama così tanto la musica jazz?
La musica, in particolare il jazz, ha una forte componente di improvvisazione, ed è davvero incertezza. Sei sul palco, conosci il pezzo generale che viene suonato, ma non suoni come nel disco e non sai di preciso dove andranno le tue dita. Non è come correre un rischio calcolato, perché ti stai assumendo un rischio, ma basato su anni di esperienza; è ciò che si chiama intuizione. Non viene dalla tua coscienza, ma è qualcosa che sta nelle tue dita e nel tuo cervello inconscio, e tu lo lasci andare.
È molto importante notare che non tutto può essere calcolato. La musica composta da algoritmi può andar bene, ma non raggiunge mai il livello di un buon musicista che improvvisa o di un grande compositore. Personalmente ammiro la mente umana e le sue capacità, non la vedo come un groviglio di pregiudizi come fanno molti dei miei colleghi; è incredibile come gli umani possano memorizzare un’intera sinfonia o suonare a memoria, improvvisando. E tutto ciò ha a che fare con l’incertezza e con il modo di affrontarla; serve intuizione, e anche le intuizioni si basano su alcune euristiche. Quando si improvvisa, si hanno per così dire dei pezzi di Lego a disposizione; non è questione di buttar giù due righe per trovare l’unica soluzione giusta al problema. No, è incertezza. E senza incertezza la nostra vita sarebbe priva di gioia.
Immaginiamo di avere un algoritmo in grado di predire il futuro, in modo da poter sapere cosa ci succederà, se il nostro matrimonio finirà in divorzio, quando moriremo e così via: la vita sarebbe interessante quanto leggere il giornale dell’anno scorso. Se sapessimo tutto non avremmo motivo di sperare, né di incuriosirci; non ci sarebbe delusione, le emozioni non sarebbero più necessarie, non avremmo bisogno di fidarci di nessuno perché sapremmo già tutto in anticipo. Non ci potrebbe capitare cosa peggiore della certezza.
Il nostro cervello si è evoluto per affrontare l’incertezza, non la certezza. Nella scienza delle decisioni si distingue tra situazioni di rischio, nelle quali si può calcolare tutto, e situazioni di incertezza, dove il futuro è imprevedibile e riserva sorprese. Gran parte della teoria delle decisioni, dell’economia e di altri campi postula teorie interessanti che però si basano su un mondo di rischio, sulla certezza, piuttosto che sull’incertezza. Io invece cerco di capire in che modo gli esseri umani sopravvivono e affrontano il mondo dell’incertezza, in cui i big data e gli algoritmi complicati sono di scarso aiuto. Ecco la sfida.
Insieme a Daniel Goldstein ha teorizzato per primo l’esistenza dell’euristica del riconoscimento, un modello di processo decisionale che presuppone che decidiamo in base a un criterio non direttamente accessibile alla nostra consapevolezza. Vuol dire che è il nostro cervello a decidere per noi?
Vuol dire che in situazioni di incertezza le persone non possono fare affidamento solo sulla teoria della probabilità logica; molti miei cari colleghi credono che sia così, ma ciò significa non prendere sul serio l’incertezza e ridurla a situazioni di rischio calcolabile. In situazioni di incertezza, nelle persone e negli animali si è evoluta l’euristica, ovvero una regola empirica. L’euristica del riconoscimento è un esempio molto interessante, perché usa l’ignoranza di un individuo per trarre inferenze intelligenti. Per fare un esempio molto semplice, poniamo che tu ti interessi un po’ di tennis, non troppo però; c’è una partita e hai sentito parlare di un tennista, ma non dell’altro. L’euristica del riconoscimento ti dice di scommettere su quello che hai sentito nominare. La cosa interessante è che se ne sapessi di più di tennis non avresti potuto usare l’euristica, perché avresti sentito parlare di entrambi i tennisti, e lo stesso non potresti usarla se conoscessi quello sport troppo poco, perché non avresti sentito nominare nessuno dei due giocatori. Questo tipo di euristica sfrutta il fatto che spesso un nome conosciuto è correlato con le prestazioni, usandolo per fare una deduzione intelligente e sfruttando l’ignoranza della persona.
Funziona solo con le persone che conosciamo o vale per qualsiasi tipo di informazione con cui abbiamo a che fare?
Funziona in qualsiasi situazione in cui non sapere qualcosa o non averne avuto esperienza è informativo. Gli animali vi ricorrono per dedurre cosa mangiare e cosa evitare. Ad esempio, gli esperimenti sui ratti mostrano che essi scelgono il cibo che riconoscono dall’odore, evitando quello che non riconoscono; si vede la razionalità che sta dietro a tale comportamento. Ma questa è solo un’euristica di base, la stessa che si può usare anche per investire in borsa.
Il grande interrogativo su ogni euristica è: quando funziona e quando non funziona? Abbiamo dimostrato che in situazioni in cui l'euristica funziona (cioè laddove è ecologicamente razionale: il mondo è impostato in modo tale che, ad esempio, il riconoscimento ha valore informativo), lì questa semplice euristica può superare le prestazioni degli algoritmi complessi più sofisticati. Spesso, perciò, “meno è meglio”.
E per noi, in qualità di giornalisti scientifici o di associazione che vuole promuovere la conoscenza scientifica all’interno della società, questa è la vera sfida. Quindi ciò significa che a volte spiegare argomenti molto incerti e complicati è una perdita di tempo? È meglio lasciare che le persone vivano con la loro ignoranza, visto che useranno la loro esperienza per decidere?
“Meno è meglio” non significa che non sapere nulla sia la cosa migliore, come spiega questa semplice euristica: se non hai sentito parlare di niente, non puoi basarti su niente. Semmai, ciò che spesso accade è che disporre di una certa quantità di conoscenza e di dati sia meglio che usare tutto; e questo vale in un mondo di incertezza. In un mondo di certezza, invece, è meglio usare tutti i dati che si possono trovare e fare i calcoli più complicati. Per questo l’intelligenza artificiale funziona meglio in situazioni stabili, dove domani è uguale a ieri, e raggiunge risultati eccellenti in giochi come gli scacchi e il go, in cui le regole sono eterne e non si può barare. Ma nel momento in cui si vuole prevedere cosa faranno le persone nei prossimi anni, o se un imputato commetterà un altro crimine, allora i tentativi di utilizzare algoritmi altamente complessi falliscono. Le semplici euristiche che si limitano a esaminare una, due o tre variabili sono valide tanto quanto quelle complicate. In più sono trasparenti, si possono comprendere, che è un grande vantaggio. E al contempo una grande sfida, dato che molte persone vogliono vendere cose complicate e fare colpo sugli altri.
Nella divulgazione scientifica, in particolare durante la pandemia, le euristiche e i pregiudizi cognitivi sono molto di moda, almeno in Italia: tutti scrivono e parlano al riguardo. Lei critica il lavoro di due suoi colleghi, Daniel Kahneman e Amos Tversky, circa la loro visione dell’euristica come una sorta di modo irrazionale e prevenuto di prendere decisioni; sostiene invece che la razionalità non è esattamente la stessa cosa del calcolo probabilistico. Cosa significa questo nella vita di tutti i giorni?
Daniel Kahneman e Amos Tversky hanno fatto un lavoro eccellente e mostrato chiaramente che le persone si affidano all’euristica. Per il mio lavoro sono partito da lì e sono andato oltre, portando avanti il discorso per mezzo di due interrogativi. Il primo riguarda la possibilità di modellizzare l’euristica: si chiede cioè se sia possibile progettare un modello dell’euristica del riconoscimento, in modo da poterlo simulare e testare al computer. Il secondo si chiede in quali situazioni l’euristica funzioni e in quali no.
La ricerca di Kahneman e Tversky riguarda principalmente situazioni di rischio in cui si conosce già la risposta corretta; si vede il modo in cui l’economia comportamentale ama sapere cosa è giusto e mostrare che l’individuo si sbaglia. In situazioni di incertezza le cose stanno diversamente. Prendiamo la pandemia di COVID: nel momento in cui parliamo, nessuno sa come si svilupperà. Ci possono essere alcune ipotesi plausibili e previsioni che, per essere affidabili, probabilmente dovranno essere a breve termine. Nella nostra ricerca (ma anche in ricerche condotte da altri) euristiche molto semplici mostrano migliori capacità predittive rispetto all’analisi dei big data. Ecco dunque un preconcetto che si è rivelato non corretto nel lavoro di Kahneman e Tversky; in condizioni di incertezza, la semplice euristica può dimostrarsi incredibilmente accurata.
Nell’ultimo libro di Kahneman, Rumore, lui e i suoi coautori sono arrivati a questa intuizione per cui semplici regole possono funzionare bene: lo ritengo un passo avanti, penso che siamo stati influenti e che quindi loro abbiano rivisto il termine “bias” con maggiore cautela. La cosa importante è che non bisogna associare le euristiche ai pregiudizi; sarebbe sbagliato tanto quanto associare pregiudizi e modelli complessi. Prendiamo per esempio la crisi finanziaria del 2008: c’erano complessi modelli matematici finanziari, eppure non furono in grado di prevederla. Ogni modello può essere sbagliato, dunque, e non bisogna avere pregiudizi nei confronti delle euristiche. Se ci troviamo in una situazione di rischio dove tutto è noto, come giocare alla roulette (dove si conosce ogni possibile esito, conseguenza e probabilità), non servono le euristiche o l’intuizione o alcuna psicologia, poiché ci limiteremo al calcolo. Invece, se abbiamo a che fare con situazioni di incertezza come ad esempio l’influenza, gli esseri umani o la comprensione del linguaggio (che è ambiguo e ricorre all’ironia e ad altri elementi indipendenti dalla logica), non capiremo nemmeno di cosa stiamo parlando.
Lei lavora molto anche allo sviluppo di modelli per la comunicazione della scienza e del rischio, un’area interessante per chi si occupa di giornalismo scientifico e divulgazione. Spesso all’interno della comunità dei comunicatori scientifici partiamo dal presupposto che comunicare il rischio e l’incertezza siano la stessa cosa; secondo i suoi studi, però, non è proprio così. Dovremmo allora applicare regole diverse nella comunicazione?
Se parliamo di comunicare il rischio in senso specifico, abbiamo dati affidabili e possiamo fare dei calcoli: eppure anche così la maggior parte delle persone non ha mai imparato una comunicazione corretta e può essere facilmente fuorviata. Consideriamo cosa succede quando una famosa rivista tedesca a un certo punto annuncia che gli attacchi di squali quell’anno sono aumentati del 100%. Supponiamo che tu sia da qualche parte in spiaggia nella bellissima Italia: farai entrare i tuoi figli in acqua, andrai in surf sapendo quel fatto? Il dato reale è che ogni anno circa 10 persone muoiono a causa degli squali (che sono fra gli animali che uccidono meno persone); l’anno prima ci sono state 6 morti in tutto il mondo, aumentate a 12 l’anno successivo. Ecco l’aumento del 100%, da sei a dodici: è l’incremento del rischio relativo. Invece, l’incremento del rischio assoluto è di 6 morti in un anno in tutto il mondo. Questo è solo un esempio, ma la stessa distinzione tra incremento relativo e incremento assoluto non è nota a gran parte delle persone, perciò fa dei danni.
Altro esempio famoso è l’allarme sulle pillole contraccettive che riemerge ogni pochi anni nel Regno Unito e in altri paesi. Il caso più noto fu quando il Comitato sulla sicurezza dei medicinali del Regno Unito convocò una conferenza stampa d’emergenza, dicendo che le pillole contraccettive di terza generazione aumentavano del 100% il rischio di trombosi; per molte donne e adolescenti britanniche quel 100% equivalse in pratica a una certezza e smisero perciò di prendere la pillola, il che portò a gravidanze indesiderate. Cos’era successo? Di nuovo, fu il rischio relativo a spaventare le persone. Nello studio in questione si era visto che su 7.000 donne che prendevano la pillola della generazione precedente, una aveva avuto una trombosi, numero che salì a due fra le donne che presero la pillola di terza generazione. Questo incremento del rischio assoluto da 1 a 2 su 7.000 fu comunicato come un incremento del rischio relativo del 100%, una semplice comunicazione che in Inghilterra e in Galles bastò a provocare un aumento di circa 13.000 aborti rispetto alla norma.
Di recente abbiamo avuto un’esperienza simile qui in Italia con il vaccino AstraZeneca, che è stato bloccato e poi reintrodotto a causa purtroppo della morte di una giovane donna. Anche qui direi che in termini di numeri assoluti il rischio era piuttosto basso.
Esatto, e in Germania è accaduto lo stesso. I politici hanno bloccato il vaccino per diversi giorni, in un eccesso di cautela e per aumentare la fiducia dei cittadini, ma hanno ottenuto un risultato diametralmente opposto: le persone non si fidavano più. Questo è un caso di grave errore nel processo decisionale, mancante di comprensione psicologica della condotta tenuta. Illustra anche che le persone non sono abituate a pesare i rischi, ma piuttosto ne considerano uno solo. Uno, due o tre casi di morte da trombosi su un milione di persone è un rischio immensamente piccolo; eppure alcuni hanno pensato che nessun rischio fosse meglio di un rischio piccolo e hanno aspettato uno o più mesi prima di fare quello che ritenevano un vaccino sicuro, o addirittura si sono limitati all’attesa senza fare nessun vaccino. Non si sono resi conto che durante quel tempo le possibilità di infettarsi e di finire in terapia intensiva tra la vita e la morte sono molto più alte, e che la metà di loro potrebbe morire. Si tratta di mancanza di alfabetizzazione al rischio.
Qui abbiamo parlato di vaccinazioni, situazioni in cui si può fare una stima numerica approssimativa e c’è un certo grado di incertezza. Se si parla di vera incertezza, invece, le cose diventano molto più difficili da prevedere: cosa fare con il resto della propria vita, di chi fidarsi, chi sposare… Anche questo fa parte del tentativo di imparare a vivere con l’incertezza.
Attacchiamo sempre le decisioni irrazionali prese dai non esperti. Ma cosa dire degli scienziati, sono forse vittime delle stesse fallacie? La conoscenza della statistica e dell’incertezza costituisce un antidoto contro un processo decisionale irrazionale?
Io credo che il termine “irrazionale” sia spesso usato in maniera discriminatoria da chi pensa di avere sempre ragione. Bisogna fare molta attenzione: in molte situazioni non sappiamo davvero quale sia la scelta migliore. La scienza è il miglior antidoto contro tutte queste paure, mistificazioni e forme di irrazionalità, e il metodo scientifico andrebbe insegnato nelle classi di ogni ordine e grado: siate critici, e siatelo invece di limitarvi a seguire quello che pensano i vostri compagni. Gran parte di quelle che consideriamo “irrazionalità” non hanno niente a che vedere con qualcosa che fa cilecca nel cervello, ma riguardano il fatto che la nostra è una specie sociale, noi siamo animali sociali. Un essere umano da solo non raggiungerebbe alcun traguardo; viviamo per gli altri, per questo spesso cadiamo preda dei pregiudizi altrui solo per essere accettati e per non essere esclusi. Dobbiamo però avere il coraggio di pensare con la nostra testa. E se pensare con la propria testa significa perdere amici, possiamo essere felici di fare a meno di loro.
Certamente. Vorrei collegarmi a quello che ha appena detto, e cioè che in qualche modo dovremmo comprendere che la certezza non esiste e che la scienza è una buona guida per prendere decisioni. Infatti all’inizio della pandemia un membro del governo italiano, il Ministro per gli Affari Regionali Francesco Boccia disse agli scienziati, e cito «Chiedo di darci certezze inconfutabili [...] altrimenti non c’è scienza», un’affermazione che ha influenzato molto la percezione pubblica di quello che gli scienziati potevano fare nella pandemia. Cosa dovremmo fare per smontare la cultura della certezza, questa idea per cui dobbiamo attenderci certezza prima di prendere una decisione?
Il primo e più importante passo verso un’alfabetizzazione del rischio è rinunciare all’illusione della certezza. Come disse una volta Benjamin Franklin, «In questa vita nulla è certo, eccetto la morte e le tasse». Le regole del gioco degli scacchi sono certe, perché le abbiamo inventate noi, ma nel mondo reale le persone non rispettano le regole tutto il tempo. Bisogna quindi evitare tutti i termini come “certezza” o le espressioni come “non siamo ancora certi”: che sciocchezza, probabilmente non lo siamo mai! Semmai si tratta del grado di certezza.
Questo ci porta al secondo passo: soppesare i rischi. Talvolta le persone si sorprendono se qualcuno, nonostante sia vaccinato contro una malattia come la COVID-19, si ammala lo stesso; ma capita, nulla è perfetto, ed è meglio che non essere vaccinati. Occorre poi comprendere alcuni concetti base come il rischio relativo e il rischio assoluto, senza farsi ingannare da chi presenta grandi numeri sull’aumento del rischio relativo, come il 100%, che sono invece numeri piccolissimi. È una tecnica molto frequente in ambito sanitario, nei report sulla salute; le persone restano colpite nel leggere di decrementi del 50%, quando in realtà si tratta di decrementi da 2 su 10.000 a 1 su 10,000, nulla di grande.
Il terzo passo è comprendere in che modo noi stessi funzioniamo, data la nostra psicologia di esseri sociali per cui dipendiamo tanto dall’approvazione degli altri. L’era digitale mostra ancora una volta quanto facilmente le persone ripetano (o ritwittino!) cosa dicono gli altri, e anche quanto siano umiliate e ferite da chi non ha nulla di meglio da fare che diffondere odio. Questo passaggio richiede coraggio: il coraggio di informarsi, il coraggio di valutare in autonomia, e il coraggio di difendere i propri valori anche quando gli altri dicono che siamo in errore, imparando a discutere.
Il suo Centro per l’Alfabetizzazione al Rischio si è mai occupato di sviluppare modelli o programmi per promuovere l’alfabetizzazione al rischio nella società o nelle scuole? E hanno avuto una buona accoglienza? Sì: sul sito web dell’Harding Center for Risk Literacy abbiamo molti strumenti, ad esempio i riquadri informativi che danno un’idea di quanto funzioni un vaccino e quali siano i suoi svantaggi. Questo tipo di informazioni aiuta a prevenire teorie del complotto e simili.
Lavoriamo anche nella formazione di giornalisti e di medici (io avrò formato mille dottori, i miei colleghi all’Harding Center molte altre migliaia); formiamo anche persone che lavorano nell’ambito giuridico, per aiutarli a comprendere cosa significhino le prove del DNA, ma anche quanto sia facile farsi ingannare se non si comprendono i numeri, come spesso accade. La nostra è insomma una sorta di istituzione illuminista che fornisce sì strumenti per comprendere le cose, ma che richiede anche una preparazione mentale a diventare cittadini informati e maturi. Le basi sono queste: viviamo una volta sola e dobbiamo provare a capire il mondo senza paura.
Quindi la cosiddetta cittadinanza scientifica richiede un po’ di lavoro anche da parte dei cittadini.
Proprio così. In teoria l’illuminismo è avvenuto qualche secolo fa, ma in realtà non siamo ancora arrivati a quel punto. Ci sono troppe persone che non si fidano della scienza, che non sono disposte a imparare gli strumenti della scienza, del pensiero critico e soprattutto autocritico: non bisogna credere a tutto ciò in cui si crede.
Un ottimo suggerimento: non fidarci troppo di noi stessi. Ho un’ultima domanda per lei, di carattere personale. Ho appena scoperto che lei è un musicista jazz, ci sono alcuni video su YouTube in cui suona. Mi è venuto in mente che la musica jazz è la musica meno “certa”: bisogna seguire cosa sta succedendo all’interno del proprio gruppo. C’è un collegamento con la sua carriera? Perché ama così tanto la musica jazz?
La musica, in particolare il jazz, ha una forte componente di improvvisazione, ed è davvero incertezza. Sei sul palco, conosci il pezzo generale che viene suonato, ma non suoni come nel disco e non sai di preciso dove andranno le tue dita. Non è come correre un rischio calcolato, perché ti stai assumendo un rischio, ma basato su anni di esperienza; è ciò che si chiama intuizione. Non viene dalla tua coscienza, ma è qualcosa che sta nelle tue dita e nel tuo cervello inconscio, e tu lo lasci andare.
È molto importante notare che non tutto può essere calcolato. La musica composta da algoritmi può andar bene, ma non raggiunge mai il livello di un buon musicista che improvvisa o di un grande compositore. Personalmente ammiro la mente umana e le sue capacità, non la vedo come un groviglio di pregiudizi come fanno molti dei miei colleghi; è incredibile come gli umani possano memorizzare un’intera sinfonia o suonare a memoria, improvvisando. E tutto ciò ha a che fare con l’incertezza e con il modo di affrontarla; serve intuizione, e anche le intuizioni si basano su alcune euristiche. Quando si improvvisa, si hanno per così dire dei pezzi di Lego a disposizione; non è questione di buttar giù due righe per trovare l’unica soluzione giusta al problema. No, è incertezza. E senza incertezza la nostra vita sarebbe priva di gioia.
Immaginiamo di avere un algoritmo in grado di predire il futuro, in modo da poter sapere cosa ci succederà, se il nostro matrimonio finirà in divorzio, quando moriremo e così via: la vita sarebbe interessante quanto leggere il giornale dell’anno scorso. Se sapessimo tutto non avremmo motivo di sperare, né di incuriosirci; non ci sarebbe delusione, le emozioni non sarebbero più necessarie, non avremmo bisogno di fidarci di nessuno perché sapremmo già tutto in anticipo. Non ci potrebbe capitare cosa peggiore della certezza.