Viviamo in un’epoca in cui il progresso tecnologico e la globalizzazione hanno complessivamente migliorato il tenore di vita nel mondo, ma hanno anche amplificato i rischi. Dal cambio climatico al rischio di pandemie globali, la comunità internazionale deve affrontare rischi ambientali e sanitari senza precedenti alla luce di conoscenze scientifiche affette da incertezza, cosa che suscita accese discussioni e polemiche. Quale relazione c’è tra incertezza scientifica e decisioni politiche?
Nel linguaggio comune la parola “incertezza” ha un’accezione perlopiù negativa, essendo sinonimo di “dubbio” e quindi di mancanza di conoscenza, mentre nel linguaggio scientifico indica semplicemente che un valore non è noto esattamente, ma ha una certa probabilità di trovarsi all’interno di un intervallo definito. Anche se può sembrare controintuitivo, per gli scienziati è essenziale indicare il livello di incertezza, perché comunica in maniera precisa e trasparente l’accuratezza con cui si conosce un determinato fenomeno ed evita di formulare conclusioni che non siano giustificate. L’incertezza quindi non è un segno di conoscenza inadeguata, ma è anzi una caratteristica della conoscenza scientifica. Un risultato presentato senza un’incertezza associata, o presentato come se fosse assolutamente vero e quindi privo di incertezza, non è un risultato scientifico.
Le fonti di incertezza sono diverse. I sistemi naturali sono intrinsecamente variabili, che si tratti della reazione dell’organismo umano a un farmaco o della meteorologia. L’atto di fare una misura, come sa qualsiasi studente di fisica alle prime armi, è affetto da incertezza, a causa dello strumento usato, della persona che compie la misura e delle condizioni al contorno. Come abbiamo ripetuto spesso sulle pagine di Query, qualsiasi studio clinico è affetto da errore statistico. Infine, l’incertezza è causata anche dal fatto che le nostre conoscenze sono incomplete, soprattutto relativamente ai sistemi complessi. Per esempio, la nostra conoscenza delle nuvole è imperfetta e questo introduce un’incertezza nei modelli climatici.
Alcune di queste incertezze possono essere ridotte accumulando una quantità maggiore di dati, mentre altre sono, a tutti gli effetti pratici, impossibili da eliminare.
Tuttavia, l’incertezza non è un punto debole della scienza, come potrebbe sembrare a prima vista, ma un suo punto di forza, perché proprio la possibilità di mettere in discussione le conoscenze attuali in futuro è ciò che motiva gli scienziati a fare ulteriori ricerche e contribuisce al progresso scientifico.
L’incertezza non è altrettanto benvenuta in politica, soprattutto quando si devono prendere decisioni controverse in campo ambientale o sanitario. Chi deve fare scelte che avranno effetto sulla salute di milioni di persone vorrebbe avere certezze ed è refrattario ad agire in assenza di esse. Così, mentre l’incertezza spinge gli scienziati all’azione, può spingere i politici all’indecisione e al ritardare le scelte nella speranza di eliminare l’incertezza. Altre volte i politici possono usare l’incertezza come un pretesto per non fare scelte impopolari o costose, oppure i media e i cittadini possono interpretare erroneamente l’incertezza scientifica come sinonimo di conoscenza insufficiente. Questo può accadere a causa di un’insufficiente familiarità con le caratteristiche della ricerca scientifica, oppure a causa dell’azione di lobby che agiscono per oscurare il consenso scientifico: un esempio storico è quello dell’industria del tabacco, che negli anni Cinquanta finanziò un istituto fittizio di ricerca scientifica, il Tobacco Industry Research Committee (TIRC), per negare o minimizzare le prove della relazione causale tra il fumo e l’insorgenza di tumori.
L’Agenzia Europea dell’Ambiente (EEA) ha pubblicato finora due volumi (2000 e 2013) di un rapporto intitolato Late Lessons from Early Warning (in italiano, Lezioni tardive da allarmi precoci), che elenca una serie di casi storici in cui il ritardo nel reagire agli allarmi di un possibile rischio ambientale o sanitario ha avuto conseguenze gravi. Tra gli oltre 30 esempi citati, ci sono le radiazioni, il benzene, l’amianto, il piombo nei carburanti. Per ognuno di questi casi, il rapporto analizza con l’aiuto di esperti il tempo trascorso tra i primi studi scientifici credibili che segnalavano un possibile rischio per la salute o per l’ambiente e l’adozione di politiche di riduzione del rischio, valuta le conseguenze delle azioni intraprese (o della mancanza di azioni) e suggerisce le lezioni da trarne per affrontare situazioni analoghe in futuro. Nella maggior parte dei casi la ritrosia a intervenire in assenza di certezze ha causato morti e sofferenze che si sarebbero potute evitare con una valutazione corretta del rapporto tra rischi e benefici di un intervento normativo.
Altre volte le decisioni possono avere effetti disastrosi a causa della mancanza di un’analisi multidisciplinare: un esempio tipico è stata l’iniziativa congiunta dell’ONU e della Banca Mondiale, che dal 2004 al 2010 ha finanziato l'installazione di circa 13.000 pozzi rurali in Bangladesh per fornire acqua potabile, e che è stata descritta dall’OMS come «il più grande avvelenamento di massa di una popolazione nella storia» in quanto i pozzi, che servivano decine di milioni di persone, contenevano fonti naturali di arsenico in quantità sufficienti a provocare tumori, malattie cardiovascolari e polmonari, diabete mellito e neuropatia[1].
Per fortuna, la storia offre anche esempi di decisioni che hanno permesso di salvare molte vite umane, prese da medici e scienziati in condizioni di incertezza e scarsità di dati: Ignaz Semmelweis, che nel 1847 riuscì ad abbattere il tasso di infezioni da “febbre puerperale” all’ospedale generale di Vienna imponendo a tutti i medici che venivano a contatto con le puerpere di lavarsi le mani con un antisettico; John Snow, che riuscì a fermare il diffondersi del colera a Londra nel 1845 bloccando il funzionamento di una pompa dell’acqua nel quartiere di Soho; Louis Pasteur e la prima vaccinazione contro la rabbia nel 1885; sir Alexander Fleming e il primo trattamento antibiotico con iniezioni di penicillina nel 1929.
Quali lezioni si possono trarre da questi precedenti storici? È nella natura della ricerca scientifica che in materia di salute, sicurezza e ambiente gli studi non possano sempre fornire il livello di certezza che vorrebbero gli enti regolatori. D’altra parte, le conseguenze dell’inazione possono essere gravissime. In molti casi, una probabilità statistica è la migliore risposta che la scienza possa fornire. Gli scienziati non hanno controllo su come i policymaker useranno le loro scoperte, ma sono comunque tenuti a comunicare in modo chiaro e aperto le incertezze presenti nelle informazioni che danno. Questo aiuta a ridurre il rischio che tali incertezze non vengano sottovalutate, sopravvalutate o ignorate per trarne un vantaggio politico.
Per ridurre il rischio di effetti collaterali inattesi, è opportuno condurre un’analisi multidisciplinare. Inoltre, quando si ha a che fare con la salute pubblica, è consigliabile seguire il principio di precauzione, equivalente al principio ippocratico primum non nocere: quando c’è sostanziale incertezza scientifica sul bilancio rischi/benefici di un’attività, le decisioni dovrebbero privilegiare la cautela nei confronti dell’ambiente e della salute pubblica, mantenendo la disponibilità a modificare le misure alla luce dell’evoluzione scientifica.
Nel linguaggio comune la parola “incertezza” ha un’accezione perlopiù negativa, essendo sinonimo di “dubbio” e quindi di mancanza di conoscenza, mentre nel linguaggio scientifico indica semplicemente che un valore non è noto esattamente, ma ha una certa probabilità di trovarsi all’interno di un intervallo definito. Anche se può sembrare controintuitivo, per gli scienziati è essenziale indicare il livello di incertezza, perché comunica in maniera precisa e trasparente l’accuratezza con cui si conosce un determinato fenomeno ed evita di formulare conclusioni che non siano giustificate. L’incertezza quindi non è un segno di conoscenza inadeguata, ma è anzi una caratteristica della conoscenza scientifica. Un risultato presentato senza un’incertezza associata, o presentato come se fosse assolutamente vero e quindi privo di incertezza, non è un risultato scientifico.
Le fonti di incertezza sono diverse. I sistemi naturali sono intrinsecamente variabili, che si tratti della reazione dell’organismo umano a un farmaco o della meteorologia. L’atto di fare una misura, come sa qualsiasi studente di fisica alle prime armi, è affetto da incertezza, a causa dello strumento usato, della persona che compie la misura e delle condizioni al contorno. Come abbiamo ripetuto spesso sulle pagine di Query, qualsiasi studio clinico è affetto da errore statistico. Infine, l’incertezza è causata anche dal fatto che le nostre conoscenze sono incomplete, soprattutto relativamente ai sistemi complessi. Per esempio, la nostra conoscenza delle nuvole è imperfetta e questo introduce un’incertezza nei modelli climatici.
Alcune di queste incertezze possono essere ridotte accumulando una quantità maggiore di dati, mentre altre sono, a tutti gli effetti pratici, impossibili da eliminare.
Tuttavia, l’incertezza non è un punto debole della scienza, come potrebbe sembrare a prima vista, ma un suo punto di forza, perché proprio la possibilità di mettere in discussione le conoscenze attuali in futuro è ciò che motiva gli scienziati a fare ulteriori ricerche e contribuisce al progresso scientifico.
L’incertezza non è altrettanto benvenuta in politica, soprattutto quando si devono prendere decisioni controverse in campo ambientale o sanitario. Chi deve fare scelte che avranno effetto sulla salute di milioni di persone vorrebbe avere certezze ed è refrattario ad agire in assenza di esse. Così, mentre l’incertezza spinge gli scienziati all’azione, può spingere i politici all’indecisione e al ritardare le scelte nella speranza di eliminare l’incertezza. Altre volte i politici possono usare l’incertezza come un pretesto per non fare scelte impopolari o costose, oppure i media e i cittadini possono interpretare erroneamente l’incertezza scientifica come sinonimo di conoscenza insufficiente. Questo può accadere a causa di un’insufficiente familiarità con le caratteristiche della ricerca scientifica, oppure a causa dell’azione di lobby che agiscono per oscurare il consenso scientifico: un esempio storico è quello dell’industria del tabacco, che negli anni Cinquanta finanziò un istituto fittizio di ricerca scientifica, il Tobacco Industry Research Committee (TIRC), per negare o minimizzare le prove della relazione causale tra il fumo e l’insorgenza di tumori.
L’Agenzia Europea dell’Ambiente (EEA) ha pubblicato finora due volumi (2000 e 2013) di un rapporto intitolato Late Lessons from Early Warning (in italiano, Lezioni tardive da allarmi precoci), che elenca una serie di casi storici in cui il ritardo nel reagire agli allarmi di un possibile rischio ambientale o sanitario ha avuto conseguenze gravi. Tra gli oltre 30 esempi citati, ci sono le radiazioni, il benzene, l’amianto, il piombo nei carburanti. Per ognuno di questi casi, il rapporto analizza con l’aiuto di esperti il tempo trascorso tra i primi studi scientifici credibili che segnalavano un possibile rischio per la salute o per l’ambiente e l’adozione di politiche di riduzione del rischio, valuta le conseguenze delle azioni intraprese (o della mancanza di azioni) e suggerisce le lezioni da trarne per affrontare situazioni analoghe in futuro. Nella maggior parte dei casi la ritrosia a intervenire in assenza di certezze ha causato morti e sofferenze che si sarebbero potute evitare con una valutazione corretta del rapporto tra rischi e benefici di un intervento normativo.
Altre volte le decisioni possono avere effetti disastrosi a causa della mancanza di un’analisi multidisciplinare: un esempio tipico è stata l’iniziativa congiunta dell’ONU e della Banca Mondiale, che dal 2004 al 2010 ha finanziato l'installazione di circa 13.000 pozzi rurali in Bangladesh per fornire acqua potabile, e che è stata descritta dall’OMS come «il più grande avvelenamento di massa di una popolazione nella storia» in quanto i pozzi, che servivano decine di milioni di persone, contenevano fonti naturali di arsenico in quantità sufficienti a provocare tumori, malattie cardiovascolari e polmonari, diabete mellito e neuropatia[1].
Per fortuna, la storia offre anche esempi di decisioni che hanno permesso di salvare molte vite umane, prese da medici e scienziati in condizioni di incertezza e scarsità di dati: Ignaz Semmelweis, che nel 1847 riuscì ad abbattere il tasso di infezioni da “febbre puerperale” all’ospedale generale di Vienna imponendo a tutti i medici che venivano a contatto con le puerpere di lavarsi le mani con un antisettico; John Snow, che riuscì a fermare il diffondersi del colera a Londra nel 1845 bloccando il funzionamento di una pompa dell’acqua nel quartiere di Soho; Louis Pasteur e la prima vaccinazione contro la rabbia nel 1885; sir Alexander Fleming e il primo trattamento antibiotico con iniezioni di penicillina nel 1929.
Quali lezioni si possono trarre da questi precedenti storici? È nella natura della ricerca scientifica che in materia di salute, sicurezza e ambiente gli studi non possano sempre fornire il livello di certezza che vorrebbero gli enti regolatori. D’altra parte, le conseguenze dell’inazione possono essere gravissime. In molti casi, una probabilità statistica è la migliore risposta che la scienza possa fornire. Gli scienziati non hanno controllo su come i policymaker useranno le loro scoperte, ma sono comunque tenuti a comunicare in modo chiaro e aperto le incertezze presenti nelle informazioni che danno. Questo aiuta a ridurre il rischio che tali incertezze non vengano sottovalutate, sopravvalutate o ignorate per trarne un vantaggio politico.
Per ridurre il rischio di effetti collaterali inattesi, è opportuno condurre un’analisi multidisciplinare. Inoltre, quando si ha a che fare con la salute pubblica, è consigliabile seguire il principio di precauzione, equivalente al principio ippocratico primum non nocere: quando c’è sostanziale incertezza scientifica sul bilancio rischi/benefici di un’attività, le decisioni dovrebbero privilegiare la cautela nei confronti dell’ambiente e della salute pubblica, mantenendo la disponibilità a modificare le misure alla luce dell’evoluzione scientifica.
Note
1) Flanagan, S.V., Johnston, R.B., Zheng, Y., “Arsenic in tube well water in Bangladesh: health and economic impacts and implications for arsenic mitigation”, Bulletin of the World Health Organization, 90 (2012), ultimo accesso il 15 marzo 2020
Bibliografia
- Palmer, T. N., Hardaker, P. J., “Handling uncertainty in science”, Philosophical Transaction of The Royal Society, 369, 1956 (2011).
- Nath, C., “How to tell policymakers about scientific uncertainty”, SciDevNet, 20 Jan 2012. https://bit.ly/2TRBtQQ , ultimo accesso il 15 marzo 2020
- Fischhoff, B., & Davis, A. L. (2014). Communicating scientific uncertainty. Proceedings of the National Academy of Sciences of the United States of America, 111 Suppl 4. (2014).
- Reis, J., Spencer, P.S. “Decision-making under uncertainty in environmental health policy: new approaches”. Environmental Health and Preventive Medicine 24, 57 (2019).
- Environmental Issue Report No. 22 - Late lessons from early warnings: the precautionary principle 1896–2000, Copenhagen, 2001. ISBN 978-92-9167-323-4
- EEA Report No. 1/2013 - Late lessons from early warnings: science, precaution, innovation, Copenhagen, 2013. ISBN 978-92-9213-349-8