La difficoltà di correggere affermazioni sbagliate sulla scienza

  • In Articoli
  • 04-10-2023
  • di Giuseppe Stilo
image
© castillodominici/iStock
Correggere le affermazioni false o sbagliate su argomenti scientifici è senz’altro desiderabile, ma quali metodi funzionano, e in quale misura hanno successo? A queste domande, due ricercatrici dell’Università della Pennsylvania, Mp. S. Chan e D. Albarracín, hanno cercato di rispondere con un’ambiziosa metanalisi[1], che si è concentrata sulla cosiddetta misinformazione scientifica, intesa come «la diffusione di affermazioni false riguardanti evidenze scientifiche o procedimenti di misurazione scientifici, indipendentemente dalle intenzioni di chi le diffonde». Esempi di questo genere di misinformazione citati nello studio sono la falsa associazione tra la pandemia di COVID-19 e le antenne del 5G oppure l’idea che i vaccini contro il coronavirus contengano microchip per controllare i cittadini.

Le due ricercatrici hanno preso le mosse dalle spiegazioni teoriche correnti sui limiti dell’efficacia dei tentativi di debunking della misinformazione. I fattori considerati sono stati quattro: la natura negativa oppure neutrale della cattiva informazione dal punto di vista psicologico, per esempio la possibilità che susciti in chi la riceve sentimenti di tristezza o di paura; l’uso di correzioni dettagliate oppure sintetiche (secondo alcuni lavori, entrare molto in dettaglio potrebbe far riemergere nei destinatari il ricordo dei particolari della cattiva informazione a cui si è stati esposti); la misura in cui la correzione è in linea o meno con le convinzioni del destinatario; infine, il carattere polarizzante dell’argomento dal punto di vista politico.

La metanalisi di Chan e Albarracín ha preso in esame 74 lavori, per un totale di 205 effetti di tentativi di debunking misurati. In generale, i risultati non sono particolarmente incoraggianti: secondo le parole delle stesse autrici, «la misinformazione in ambito scientifico è particolarmente difficile (challenging) da eliminare». In particolare, è confermato che, se l’argomento da correggere è polarizzante politicamente, oppure riguarda la salute, è assai possibile che il tentativo sortisca risultati minimi.

Malgrado ciò, il loro studio ha comunque individuato alcune condizioni nelle quali i tentativi di correzione risultano più efficaci. Secondo Chan e Albarracín, finora la maggior parte dei meccanismi proposti per l’efficacia delle correzioni ha riguardato o l’impatto della cattiva informazione oppure i processi cognitivi delle correzioni. Il loro lavoro, invece, suggerisce che gli effetti delle correzioni sono funzione di una serie interconnessa di fattori. Un modello che integri meglio questi fattori può spiegare in modo più adeguato la complessità dei processi in atto.

Chan e Albarracín hanno quindi offerto alcune raccomandazioni. In primo luogo, per ottimizzare l’efficacia delle correzioni è meglio presentare argomentazioni dettagliate, anziché semplici negazioni: il rischio che questo rafforzi i particolari della convinzione da controbattere è limitato. La seconda raccomandazione è che le correzioni siano affiancate da metodi per limitare la polarizzazione politica, che nel caso di temi scientifici può avere un ruolo rilevante. Inoltre, in linea con quanto accertato da lavori precedenti, il carattere simpatetico delle informazioni fornite, cioè in linea con le convinzioni del destinatario, produce effetti positivi. Per esempio, presentare una correzione alla cattiva informazione attraverso una fonte mediatica gradita funziona meglio che offrire la stessa correzione nell’ambito di una testata o di un sito “sgraditi” al destinatario.

Infine, è probabile che le correzioni funzionino meglio quando i destinatari hanno già una conoscenza generale dell’argomento in discussione. Di conseguenza, accrescere l’esposizione del pubblico a nozioni di base su temi scientifici potrebbe massimizzare gli effetti dell’opera di debunking.

Note

1) Chan, Mp. S., Albarracín, D., 2023. “A meta-analysis of correction effects in science-relevant misinformation”. In Nature Human Behavior, 15 giugno 2023
accessToken: '2206040148.1677ed0.0fda6df7e8ad4d22abe321c59edeb25f',