Vi ricordate l’E-CAT, l’invenzione italiana che prometteva di rivoluzionare il mondo dell’energia? E-CAT sta per “Energy Catalyzer” (in italiano “catalizzatore di energia”), un dispositivo che riscaldando polvere di nichel e idrogeno innescherebbe una reazione nucleare di fusione dell’atomo di nichel (numero atomico 28) con quello di idrogeno, trasmuterebbe di conseguenza il nichel in rame (numero atomico 29) e nel processo rilascerebbe una quantità di calore molte volte superiore a quella introdotta nel sistema, senza emissione di radiazioni pericolose. In altre parole, un processo che permetterebbe di produrre energia in quantità a prezzi trascurabili e senza rischi ambientali; sarebbe l’addio alla dipendenza dai combustibili fossili, con evidenti benefici anche per i problemi dell’inquinamento e dell’effetto serra. Ma funziona davvero?
Nel 2011 l’inventore dell’E-CAT Andrea Rossi presentò questo prodotto al pubblico, suscitando l’interesse non solo della stampa, ma anche, più significativamente, di alcuni stimati fisici nucleari che ritenevano plausibile questa particolare forma di “fusione fredda”. Quando Stefano Bagnasco del CICAP contattò uno di questi fisici e lo invitò alla prudenza, questi rispose che aveva accertato l’attendibilità delle affermazioni di Rossi, applicando il “baloney detection kit” (in italiano la “cassetta degli attrezzi per scoprire le bufale”) di Carl Sagan[1].
A una decina di anni di distanza, dopo molti annunci roboanti, parecchie cause legali e zero dimostrazioni rigorose di efficacia[2], mi sento di dire che l’invito alla prudenza di Stefano Bagnasco era fondato e che il “baloney detection kit” in questo caso ha fallito. Che cosa è andato storto?
Il “baloney detection kit” di Carl Sagan è soltanto uno dei tanti decaloghi e schemi anti-pseudoscienza che circolano su internet e soprattutto sui social network. Sono tutti leggermente diversi uno dall’altro, ma i principi generali sono simili: le affermazioni pseudoscientifiche si distinguono da quelle scientifiche perché non portano prove sperimentali, non rispettano il rasoio di Occam, si rifanno al principio di autorità, denunciano un complotto della comunità scientifica contro il loro ideatore... Per individuare le bufale occorre verificare le notizie, chiedere agli esperti, diffidare del complottismo, eccetera eccetera. Nel 2017 un decalogo antibufala è stato pubblicato perfino dal governo italiano, in collaborazione con la Rai, la Federazione degli editori, Confindustria e altri partner privati come Google e Facebook.
Queste regole, che sembrano semplici da applicare e sono di conseguenza molto popolari, nascondono in realtà problemi intricati relativi agli elaborati processi che la scienza mette in atto per produrre le conoscenze e che non possono essere ignorati.
Prendiamo, per esempio, la regola “chiedi agli esperti” e proviamo ad applicarla a una questione di attualità: sulla pandemia da COVID-19 fior di esperti, con tanto di cattedre universitarie, hanno sostenuto tesi opposte (per esempio sull’utilità delle mascherine, sulla stagionalità del virus, sulla contagiosità degli asintomatici) senza farsi mancare le accuse reciproche di incompetenza. Come si fa a capire quali sono gli esperti giusti? Oppure prendiamo la regola “verifica le fonti”: come si può essere certi che una scoperta clamorosa pubblicata su una rivista peer reviewed non verrà smentita fra qualche anno, come avviene tutt’altro che raramente[3]?
Altre regole, come “applica il rasoio di Occam” o “fai attenzione ai complottismi”, sono molto generiche e si prestano a interpretazioni soggettive condizionate dall’orientamento individuale.
Quello che spesso succede in pratica è che si tende a usare il decalogo per fornire un imprimatur scientifico alle conclusioni a cui si era già arrivati prima, influenzati dalla propria visione del mondo. Insomma, uno strumento che dovrebbe favorire il pensiero critico finisce a volte per rafforzare il confirmation bias (v. la rubrica di Della Sala e Pluviano su Query 41). Se consideriamo che i decaloghi antibufala sono usati anche da chi vuole mettere in discussione la scientificità della climatologia o della teoria dell’evoluzione, o vuole attaccare questa o quella teoria economica, c’è qualcosa che non funziona.
L’idea che le affermazioni fondate si possano distinguere da quelle infondate tramite poche semplici regole empiriche è un’illusione, alimentata dall’abitudine ad applicare queste regole a posteriori a domande di cui conosciamo già la risposta, come per esempio l’esistenza dell’etere o la questione se l’evoluzione delle specie viventi abbia un obiettivo finale. L’errore che facciamo in questo modo è confondere la questione della validità di un’affermazione con quella del metodo usato per accertarla. È come provare a risolvere un cruciverba tenendo la soluzione davanti agli occhi. Provate invece a usare il baloney detection kit per mettere al vaglio questioni aperte, come stabilire quale sia la teoria corretta che illustra perché la corona solare è molto più calda della superficie del Sole, oppure quale sia il modello giusto per spiegare perché alcuni enzimi possono operare con velocità maggiori dei limiti di diffusione: la risposta non sarà più scontata, infatti sulle questioni aperte fioccano le accuse reciproche di pseudoscientificità.
Ma i processi attraverso cui la scienza esamina i fatti e accumula le conoscenze sono irriducibilmente complessi e includono false piste, interpretazioni che cambiano nel tempo, influenze di fattori psicologici, sociali ed economici... Ne abbiamo parlato a lungo su questa rivista. Non esistono scorciatoie. Le controversie scientifiche spesso impegnano una generazione intera, o anche di più, e il loro esito non è facilmente prevedibile.
Senza entrare nei particolari, due punti mi sembrano degni di rilievo.
Il primo punto è che possiamo considerare affidabili i risultati di dispute scientifiche sviluppate abbastanza a lungo da aver raggiunto conclusioni consolidate, mentre non possiamo attribuire alcuna certezza alle questioni su cui il dibattito è ancora in corso. Possiamo essere abbastanza sicuri che l’etere non esista e ci sono buone probabilità che chi sostiene il contrario oggi sia uno pseudoscienziato; non possiamo ancora sapere come si svilupperà la pandemia da coronavirus o quale sarà la cura più efficace. Di fronte a una controversia relativa ai risultati di singoli studi, il punto non è capire chi ha ragione, ma rendersi conto che la ricerca è ancora in corso e che bisogna aspettare che le evidenze scientifiche si accumulino e siano replicate da laboratori indipendenti per arrivare a conclusioni più robuste. I singoli studi non sono una base sufficiente per trarre conclusioni[4].
Il secondo punto è che le questioni che ci possono sembrare semplici perché ormai concluse sono in realtà complesse e per essere risolte hanno richiesto molte accese discussioni e molte ingegnose analisi teoriche e verifiche sperimentali: l’esistenza dell’etere fu data pressoché per scontata per un paio di secoli e dopo l’esperimento di Michelson e Morley che la metteva in discussione furono necessari decenni di elaborazione teorica e di sperimentazione per arrivare a una teoria alternativa soddisfacente. Mentre gli specialisti di un argomento possono capire a fondo tutte le sottigliezze di un dibattito scientifico, gli estranei possono comprenderne un riassunto, ma in genere non hanno gli elementi per prendere posizione autonomamente.
I decaloghi antibufala sono un tentativo degli scienziati di condensare in forma sintetica la loro esperienza nel distinguere la scienza autentica dalle sue imitazioni, a beneficio di chi non ha le stesse competenze, come il pubblico generale e i giornalisti: possono servire per far suonare un primo campanello d'allarme nei confronti di fenomeni dalla grande risonanza mediatica ma di dubbia consistenza empirica come l’E-CAT di Andrea Rossi (o, per fare un altro esempio, il metodo Stamina di Davide Vannoni), ma non possono sostituire l’analisi dettagliata delle prove sperimentali e delle argomentazioni tecniche, che è necessaria per accertare la validità di una teoria e che per la sua difficoltà è fuori dalla portata dei non esperti. Se i decaloghi antibufala vengono presi alla lettera e usati come unico criterio di analisi, rischiano addirittura di essere diseducativi e di rafforzare i pregiudizi, trasmettendo l’idea errata che chiunque sia in grado di prendere rapidamente posizione su una questione scientifica complessa.
Costruire, consolidare e difendere lo spirito critico è una sfida proprio perché impone di evitare le scorciatoie, di non fidarsi troppo del proprio istinto e di affrontare la complessità del processo scientifico andando oltre le nostre semplici intuizioni, entrando nel merito di come si sviluppa il consenso della comunità scientifica e accettando il fatto che non a tutte le domande è possibile dare risposte certe.
Nel 2011 l’inventore dell’E-CAT Andrea Rossi presentò questo prodotto al pubblico, suscitando l’interesse non solo della stampa, ma anche, più significativamente, di alcuni stimati fisici nucleari che ritenevano plausibile questa particolare forma di “fusione fredda”. Quando Stefano Bagnasco del CICAP contattò uno di questi fisici e lo invitò alla prudenza, questi rispose che aveva accertato l’attendibilità delle affermazioni di Rossi, applicando il “baloney detection kit” (in italiano la “cassetta degli attrezzi per scoprire le bufale”) di Carl Sagan[1].
A una decina di anni di distanza, dopo molti annunci roboanti, parecchie cause legali e zero dimostrazioni rigorose di efficacia[2], mi sento di dire che l’invito alla prudenza di Stefano Bagnasco era fondato e che il “baloney detection kit” in questo caso ha fallito. Che cosa è andato storto?
Il “baloney detection kit” di Carl Sagan è soltanto uno dei tanti decaloghi e schemi anti-pseudoscienza che circolano su internet e soprattutto sui social network. Sono tutti leggermente diversi uno dall’altro, ma i principi generali sono simili: le affermazioni pseudoscientifiche si distinguono da quelle scientifiche perché non portano prove sperimentali, non rispettano il rasoio di Occam, si rifanno al principio di autorità, denunciano un complotto della comunità scientifica contro il loro ideatore... Per individuare le bufale occorre verificare le notizie, chiedere agli esperti, diffidare del complottismo, eccetera eccetera. Nel 2017 un decalogo antibufala è stato pubblicato perfino dal governo italiano, in collaborazione con la Rai, la Federazione degli editori, Confindustria e altri partner privati come Google e Facebook.
Queste regole, che sembrano semplici da applicare e sono di conseguenza molto popolari, nascondono in realtà problemi intricati relativi agli elaborati processi che la scienza mette in atto per produrre le conoscenze e che non possono essere ignorati.
Prendiamo, per esempio, la regola “chiedi agli esperti” e proviamo ad applicarla a una questione di attualità: sulla pandemia da COVID-19 fior di esperti, con tanto di cattedre universitarie, hanno sostenuto tesi opposte (per esempio sull’utilità delle mascherine, sulla stagionalità del virus, sulla contagiosità degli asintomatici) senza farsi mancare le accuse reciproche di incompetenza. Come si fa a capire quali sono gli esperti giusti? Oppure prendiamo la regola “verifica le fonti”: come si può essere certi che una scoperta clamorosa pubblicata su una rivista peer reviewed non verrà smentita fra qualche anno, come avviene tutt’altro che raramente[3]?
Altre regole, come “applica il rasoio di Occam” o “fai attenzione ai complottismi”, sono molto generiche e si prestano a interpretazioni soggettive condizionate dall’orientamento individuale.
Quello che spesso succede in pratica è che si tende a usare il decalogo per fornire un imprimatur scientifico alle conclusioni a cui si era già arrivati prima, influenzati dalla propria visione del mondo. Insomma, uno strumento che dovrebbe favorire il pensiero critico finisce a volte per rafforzare il confirmation bias (v. la rubrica di Della Sala e Pluviano su Query 41). Se consideriamo che i decaloghi antibufala sono usati anche da chi vuole mettere in discussione la scientificità della climatologia o della teoria dell’evoluzione, o vuole attaccare questa o quella teoria economica, c’è qualcosa che non funziona.
L’idea che le affermazioni fondate si possano distinguere da quelle infondate tramite poche semplici regole empiriche è un’illusione, alimentata dall’abitudine ad applicare queste regole a posteriori a domande di cui conosciamo già la risposta, come per esempio l’esistenza dell’etere o la questione se l’evoluzione delle specie viventi abbia un obiettivo finale. L’errore che facciamo in questo modo è confondere la questione della validità di un’affermazione con quella del metodo usato per accertarla. È come provare a risolvere un cruciverba tenendo la soluzione davanti agli occhi. Provate invece a usare il baloney detection kit per mettere al vaglio questioni aperte, come stabilire quale sia la teoria corretta che illustra perché la corona solare è molto più calda della superficie del Sole, oppure quale sia il modello giusto per spiegare perché alcuni enzimi possono operare con velocità maggiori dei limiti di diffusione: la risposta non sarà più scontata, infatti sulle questioni aperte fioccano le accuse reciproche di pseudoscientificità.
Ma i processi attraverso cui la scienza esamina i fatti e accumula le conoscenze sono irriducibilmente complessi e includono false piste, interpretazioni che cambiano nel tempo, influenze di fattori psicologici, sociali ed economici... Ne abbiamo parlato a lungo su questa rivista. Non esistono scorciatoie. Le controversie scientifiche spesso impegnano una generazione intera, o anche di più, e il loro esito non è facilmente prevedibile.
Senza entrare nei particolari, due punti mi sembrano degni di rilievo.
Il primo punto è che possiamo considerare affidabili i risultati di dispute scientifiche sviluppate abbastanza a lungo da aver raggiunto conclusioni consolidate, mentre non possiamo attribuire alcuna certezza alle questioni su cui il dibattito è ancora in corso. Possiamo essere abbastanza sicuri che l’etere non esista e ci sono buone probabilità che chi sostiene il contrario oggi sia uno pseudoscienziato; non possiamo ancora sapere come si svilupperà la pandemia da coronavirus o quale sarà la cura più efficace. Di fronte a una controversia relativa ai risultati di singoli studi, il punto non è capire chi ha ragione, ma rendersi conto che la ricerca è ancora in corso e che bisogna aspettare che le evidenze scientifiche si accumulino e siano replicate da laboratori indipendenti per arrivare a conclusioni più robuste. I singoli studi non sono una base sufficiente per trarre conclusioni[4].
Il secondo punto è che le questioni che ci possono sembrare semplici perché ormai concluse sono in realtà complesse e per essere risolte hanno richiesto molte accese discussioni e molte ingegnose analisi teoriche e verifiche sperimentali: l’esistenza dell’etere fu data pressoché per scontata per un paio di secoli e dopo l’esperimento di Michelson e Morley che la metteva in discussione furono necessari decenni di elaborazione teorica e di sperimentazione per arrivare a una teoria alternativa soddisfacente. Mentre gli specialisti di un argomento possono capire a fondo tutte le sottigliezze di un dibattito scientifico, gli estranei possono comprenderne un riassunto, ma in genere non hanno gli elementi per prendere posizione autonomamente.
I decaloghi antibufala sono un tentativo degli scienziati di condensare in forma sintetica la loro esperienza nel distinguere la scienza autentica dalle sue imitazioni, a beneficio di chi non ha le stesse competenze, come il pubblico generale e i giornalisti: possono servire per far suonare un primo campanello d'allarme nei confronti di fenomeni dalla grande risonanza mediatica ma di dubbia consistenza empirica come l’E-CAT di Andrea Rossi (o, per fare un altro esempio, il metodo Stamina di Davide Vannoni), ma non possono sostituire l’analisi dettagliata delle prove sperimentali e delle argomentazioni tecniche, che è necessaria per accertare la validità di una teoria e che per la sua difficoltà è fuori dalla portata dei non esperti. Se i decaloghi antibufala vengono presi alla lettera e usati come unico criterio di analisi, rischiano addirittura di essere diseducativi e di rafforzare i pregiudizi, trasmettendo l’idea errata che chiunque sia in grado di prendere rapidamente posizione su una questione scientifica complessa.
Costruire, consolidare e difendere lo spirito critico è una sfida proprio perché impone di evitare le scorciatoie, di non fidarsi troppo del proprio istinto e di affrontare la complessità del processo scientifico andando oltre le nostre semplici intuizioni, entrando nel merito di come si sviluppa il consenso della comunità scientifica e accettando il fatto che non a tutte le domande è possibile dare risposte certe.
Note
1) Un insieme di 9 regole che aiuterebbero a capire se un’affermazione è fondata o no: tra queste, il principio della falsificabilità, il rifiuto del principio di autorità e il rasoio di Occam. Una traduzione in italiano è disponibile a questa pagina: https://strategieevolutive.wordpress.com/2017/04/20/il-kit-di-carl-sagan-per-rilevare-l... . Pagina consultata il 2 luglio 2020.
2) Un buon riassunto della vicenda dell’E-CAT (in inglese) si può trovare sul sito dell’Università di Cambridge, a cura del fisico Brian Josephon: https://sms.cam.ac.uk/media/1150242 . Pagine consultate il 2 luglio 2020.
3) II fenomeno per cui nuove scoperte che appaiono statisticamente solide possono diventare sempre meno robuste in studi successivi è chiamato “effetto declino”. Vedere “L'effetto declino: quando i fenomeni scompaiono”, in Query n. 7, autunno 2011.