Parliamo con il Professor Stephan (Steve) Lewandowsky del suo Manuale della Demistificazione (The Debunking Handbook, nella versione originale). Steve é attualmente professore di psicologia cognitiva all’Università di Bristol, in UK, ma é australiano e ha lavorato per molti anni all’Università della Western Australia a Perth. Steve studia come la disinformazione si propaga nella società e come le persone percepiscono e ricordano informazioni scientifiche, che riguardano per esempio le vaccinazioni o i cambiamenti climatici. Il suo manuale può essere scaricato gratuitamente nelle diverse lingue in cui è stato tradotto, tra cui l’italiano[1].
'Steve, insieme a John Cook, hai pubblicato un meraviglioso, breve ed incisivo Manuale della Demistificazione. Cosa vi ha spinto a scriverlo?
John ed io eravamo allo stesso tempo affascinati e spaventati dalla quantità di disinformazione che permea la società contemporanea - dai vaccini, al cambiamento climatico, all’idea che il presidente Obama non sia nato negli Stati Uniti e che siano state trovate armi di distruzioni di massa in Iraq dopo l’invasione del 2003. Non stupisca che il World Economic Forum abbia identificato la disinformazione online come uno dei 10 top trend del 2014. Ci siamo sentiti in dovere di creare un antidoto, perché c’è parecchia conoscenza scientifica che spiega come sfatare la disinformazione.
Nel vostro manuale affermate che è difficile sfatare un mito. Perché è così complesso cancellare la disinformazione?
Penso che la ragione principale sia che, quando le persone ottengono un’informazione, costruiscono quello che chiamiamo un “modello mentale” di una situazione - una storia ben radicata, se vuoi, nella propria testa. Ora, se vai a dire a una persona che parte di questo modello è falso, risulta difficile costruire un modello mentale che abbia un “buco”. La gente preferisce un modello errato ad uno incompleto.
C'è, paradossalmente, il rischio di rafforzare un mito semplicemente parlandone?
Sì. Ci sono molti modi in cui un tentativo di correzione può di fatto avere il risultato opposto. Forse il più importante di questi “ritorni di fiamma” è proprio legato alla visione del mondo di ognuno di noi. Qualora la correzione sfidi delle credenze profondamente radicate, le persone possono reagire “puntando i piedi” e incrementare la propria fede in questo concetto. Per esempio, quando si dice a un Repubblicano che non sono state trovate armi di distruzione di massa in Iraq nel 2003, è molto probabile che questi creda esattamente il contrario; allo stesso tempo la probabilità che una persona che teme effetti collaterali dei vaccini si faccia vaccinare diminuisce tanto più quanto più gli viene detto che sono innocui.
Quindi i vari festival della scienza, che stanno spuntando come funghi, potrebbero avere effetti negativi?
No, non penso che sia una deduzione valida. Una cosa che sappiamo è che i “ritorni di fiamma” si hanno quando le interazioni sono casuali e superficiali: ciò che una persona crede non viene modificato da una sola storia o da un rapida intervista sentita in radio. Tuttavia, quando si forniscono informazioni in maniera approfondita e ben pensata, allora le persone possono aggiornare i loro ricordi. C’è, di fatto, una buona evidenza che uno dei modi migliori di insegnamento in classe sia quello di presentare informazioni errate e farle analizzare; l’apprendimento procede tramite la scoperta che qualcosa è sbagliato.
Nella tua analisi sui problemi in cui si incappa qualora si cerchi di combattere la disinformazione hai esaminato una serie di tipici effetti boomerang. Puoi, per piacere, spiegarceli? Iniziamo dal cosiddetto “effetto familiarità”: di cosa si tratta? Che prove sperimentali hai per dimostrarne l'esistenza?
L’effetto boomerang di “familiarità” si basa sull’idea che ripetendo una storia, la vado rinforzando nella testa delle persone. Ad esempio se delle informazioni sanitarie venissero presentate in questo modo: “Mito: i vaccini hanno seri effetti collaterali. Fatto: i vaccini hanno effetti collaterali trascurabili”, la discussione di questo mito potrebbe avere l’effetto collaterale di rinforzarlo, negando quindi la correzione giustapposta. Non si tratta di un effetto sistematico: colpisce particolarmente le persone che non prestano particolare attenzione e solo dopo un certo lasso di tempo (durante il quale l’informazione corretta viene dimenticata, ma il mito resta in mente).
Questo potrebbe quindi spiegare come mai alcune persone non capiscono che la stampa anti-vaccini sia profondamente disinformata?
Penso che nel caso dei vaccini il problema sia dovuto solo in parte all'effetto di familiarità. Secondo me la componente principale è l’effetto “visione globale”: alcune persone diffidano profondamente delle multinazionali farmaceutiche. Per queste persone i vaccini possono tranquillamente essere un prodotto spinto da “Big Pharma” e dalla loro ricerca del profitto, quindi facilmente tenderanno a rifiutare informazioni circa l’utilità e la mancanza di pericoli dei vaccini.
Ci puoi spiegare un po' meglio questo effetto che chiami “visione globale”? A cosa si riferisce? Ci sono modi di evitarlo?
Lo si può evitare riformulando, ove possibile. Ad esempio, se la salvaguardia del clima viene presentata come un’opportunità di business (per l’industria nucleare, ad esempio), allora alcune persone che sarebbero contrarie alle politiche di controllo degli inquinanti avrebbero una maggior possibilità di cambiare idea e diventare a favore della protezione del clima. Un’altra possibile strategia è quella di chiedere all’interlocutore di esporre, innanzitutto, la propria visione globale: se viene data ad una persona la possibilità di sentirsi a proprio agio con la propria visione globale (ad esempio il fatto che siano degli imprenditori), allora saranno meno restii a correggerla, perché queste modifiche sembreranno loro meno minacciose. Un altro modo è quello di non parlare proprio dell’argomento: invece di parlare del riscaldamento climatico, provate a discutere di quanto siano vantaggiose le auto elettriche e i pannelli solari.
Nel vostro Manuale, menzionate anche l'effetto “eccesso”. Di che si tratta? Come può evitarlo una persona che voglia combattere a favore di un'informazione basata sui fatti?
L’idea sottostante l’effetto “eccesso” è che, in genere, si preferisce una situazione semplice a una complessa. Ergo un mito semplice resta meglio in mente di una spiegazione complessa che lo corregga. Tuttavia, da quando abbiamo scritto il manuale, sono venute alla luce delle prove che dimostrano come questo effetto non colpisca sempre: abbiamo trovato in alcuni (non molti) esperimenti che “troppo è meglio”; cioè, l’aumentare del numero di argomentazioni che smentiscono un mito influisce sull’atteggiamento degli ascoltatori. È un’area di ricerca ancora attiva e non sono più così sicuro che questo effetto sia davvero un problema.
Quali sono le tecniche retoriche che si dovrebbero conoscere a fondo per disseminare scienza?
Ci si potrebbero riempire tomi e tomi, con la risposta. Mi vengono in mente alcuni principi generali. Non abbiate paura di ripetervi. Siate semplici. Non usate l’incertezza come argomento. Quest’ultimo punto è particolarmente importante: invece di dire “i risultati sono incerti” prima di esporre quanto conosciamo, perché non fare il contrario? Non c’è nulla di male nell’iniziare con quanto si sa e poi passare a quanto di incerto vi sia ancora.
E quali sono gli errori da evitare?
Un altro argomento da trattare in vari volumi. Come base direi l’opposto della mia ultima risposta: non iniziate con l’incertezza, non siate troppo sfumati, non abbiate timore dei dati (sempre che siano veritieri, ovviamente!). In aggiunta, gli scienziati devono rendersi conto che dietro alle domande, a volte, ci sono dei motivi nascosti: ad esempio, come rispondereste alla famosa domanda “Hai smesso di picchiare tua moglie?” Un esempio simile in campo scientifico potrebbe essere “Come mai il riscaldamento globale si è fermato”? (non si è fermato).
In che misura l'insieme della disinformazione che ci colpisce da ogni parte è imputabile alla leggerezza con cui i giornalisti trattano la scienza?
I mezzi di comunicazione hanno un grossa responsabilità, ma ci sono anche i social media e la contro-cultura fatta da blog pseudo-scientifici, e altro. Specialmente riguardo i vaccini e il cambiamento climatico, una ricerca con Google risulterà in un ammontare simile (nella migliore delle ipotesi) di stupidaggini e di riferimenti di qualità. Pensare a come gestire questo problema è una grossa sfida. Google sta valutando l’inserimento di un “punteggio di affidabilità” al suo ranking, che mi sembra molto promettente, ma allo stesso tempo potenzialmente problematico quando non c’è unanimità sulla definizione di fatto.
Puoi farci un esempio di disinformazione generata dall'urgenza giornalistica di abbellire e spingere una storia?
Pensiamo alla risposta all’infame articolo di Lancet che nel 1998 suggeriva un collegamento tra vaccini e autismo. Questo tema venne “sfruttato” dai tabloid inglesi, portando a un declino nei tassi di vaccinazione, anche dopo che si è chiaramente dimostrato come il risultato iniziale fosse errato. È interessante notare che questo non successe negli Stati Uniti, perché i media non dimostrarono un grande interesse per questa storia.
E in che parte è dovuta agli scienziati stessi che esagerano l'impatto delle proprie scoperte oppure forniscono opinioni travestite da fatti?
Ottima domanda, per cui non ho dati quantitativi, ma è chiaro come alcuni annunci stampa siano chiaramente fuorvianti. Gli scienziati hanno la responsabilità di garantire la precisione degli annunci stampa sul proprio lavoro. In base alla mia esperienza, le università sono ben felici di lasciare agli autori stessi la stesura degli annunci stampa. Gli scienziati devono prendere questo compito seriamente e comportarsi secondo le proprie responsabilità.
Pensi che il prendere decisioni basate su prove e su informazioni dettagliate debba essere uno dei pilastri della democrazia?
Si. La democrazia, tra le altre cose, è basata sul teorema di Condorcet, che afferma che le maggioranze convergono su una decisone corretta anche se tutti i membri di un collettivo (una giuria o una popolazione) hanno una conoscenza imperfetta. Tuttavia questo funziona solo se le opinioni della gente non sono precondizionate sistematicamente in direzione errata.
Il vostro Manuale ha ormai 3 anni: ci sono studi recenti che confermano alcune delle affermazioni che avete fatto?
Ci sono molte più ricerche disponibili oggi e John ed io stiamo pensando di aggiornarlo quest’anno. Ci sono anche parecchie cose che non sono cambiate. Le due cose su cui sono, ora, più scettico sono l’effetto “familiarità” e quello “eccesso”. Sembrano entrambe essere molto labili. Allo stesso tempo la mia fiducia nell’effetto “visione globale” è aumentata di parecchio: sembra essere davvero robusto.
Hai recentemente pubblicato qualche studio che ci possa aiutare a capire meglio il fenomeno della resistenza della disinformazione alle smentite[2] ?
Certamente, c’è questo articolo che ben riassume la letteratura disponibile in merito:
- Lewandowsky, S., Ecker, U. K. H., Seifert, C., Schwarz, N., & Cook, J. (2012). Misinformation and its correction: Continued influence and successful debiasing. Psychological Science in the Public Interest, 13, 106-131.
E poi ci sono questi altri articoli, che riportano dati nuovi:
- Cook, J., Ecker, U. K. H., & Lewandowsky, S. (in press). Misinformation and its correction. In R. Scott & S. Kosslyn (Eds.), Emerging Trends in the Social and Behavioral Sciences. Hoboken, NJ: John Wiley and Sons.
- Ecker, U. K. H, Lewandowsky, S., Chang, E. P., & Pillai, R. (2014). The effects of subtle misinformation in news headlines. Journal of Experimental Psychology: Applied, 20, 323-335.
- Ecker, U. K. H., Lewandowsky, S., Fenton, O., & Martin, K. (2014). Do people keep believing because they want to? Pre-existing attitudes and the continued influence of misinformation. Memory & Cognition, 42, 292-304.
- Lewandowsky, S., Gignac, G. E. & Oberauer, K. (2013). The Role of Conspiracist Ideation and Worldviews in Predicting Rejection of Science. PLoS ONE. 8, 10, e75637
- Lewandowsky, S., Stritzke, W. G. K., Freund, A. M., Oberauer, K., & Krueger, J. (2013). Misinformation, disinformation, and violent conflict: From Iraq and the “War on Terror” to future threats to peace. American Psychologist, 68, 487-501.
C'è altro che vuoi dirci in merito?
No, direi che abbiamo coperto l’argomento in maniera molto approfondita!
Grazie mille!
È stato un piacere.
Note
1) A questo link è possibile scaricare il Manuale nelle diverse lingue, tra cui l’italiano: http://sks.to/debunk
2) È possibile vedere l’intero elenco delle pubblicazioni del Prof. Lewandowsky qui: http://tinyurl.com/pcnwofu