Chiedo alla comunità scientifica, senza polemica, di darci certezze inconfutabili e non tre o quattro opzioni per ogni tema. [...] Pretendiamo chiarezza, altrimenti non c’è scienza. Noi politici ci prendiamo la responsabilità di decidere, ma gli scienziati devono metterci in condizione di farlo.
L’imprudente (e molto criticata) dichiarazione è quella resa nel 2020 da un ministro a un quotidiano nazionale, a proposito della cosiddetta “fase 2” dell’emergenza pandemica. Si tratta di uno degli esempi di quanto a molti – purtroppo anche a chi ricopre un ruolo istituzionale per il quale il pensiero scientifico dovrebbe rappresentare una guida fondamentale – sia poco chiara la definizione stessa di scienza e quello che la caratterizza. Non c’è, infatti, nulla di più lontano dal pensiero e dal metodo scientifico dell’idea di “certezza inconfutabile”, di verità assoluta sulla quale riposare, sapendo che nessuno potrà sollevare dubbi e rilevare errori.
Come gli scienziati ben sanno, quello che la scienza si propone di portare alla luce non può in nessun modo essere definito una certezza inconfutabile, ma un “fatto”, inteso come un dato che è l’esito di prove sperimentali progettate perché possano consentire la verifica di un’ipotesi. Un’ipotesi suffragata da prove che non mostrino debolezze (per esempio difetti di progettazione degli esperimenti che possano falsare i risultati ottenuti) può diventare così una teoria, ovvero una rigorosa descrizione di un fenomeno, attuata sulla base dei dati raccolti attraverso le prove sperimentali. Si tratta quindi della migliore spiegazione che è possibile fornire con i dati di cui si è in possesso in un determinato momento, ma certamente non di una verità inconfutabile, perché, come ben sottolineano gli epistemologi, nel tempo le conoscenze scientifiche sono sempre soggette a essere corrette. I nuovi studi possono portare addirittura, in alcuni casi, a un completo cambio di paradigma scientifico, che rovescia le precedenti certezze e apre nuovi orizzonti. Fino a quando questo non si verifica, la teoria rimane valida e un ulteriore elemento di conferma è rappresentato dalla possibilità di adoperarla per fare delle previsioni. Una teoria, infatti, può permettere non solo di spiegare i fenomeni osservati, ma anche di prevedere eventi a essi collegati, entro margini più o meno ampi di probabilità, anche se questa caratteristica può variare molto nei diversi ambiti della scienza.
Questo percorso, però, è possibile solo quando gli studi sono progettati e portati avanti secondo standard di qualità che consentono ai loro risultati di essere interpretabili e attendibili.
Comprendere questo concetto è centrale per capire la differenza tra conoscenza scientifica e pseudoscienze, intendendo per queste ultime ciò che si traveste da scienza, spesso assumendo una veste esteriore di autorevolezza e rigore, ma senza applicare quelli che giustamente vengono definiti i “fondamenti” della scienza, due dei quali sono sicuramente la riproducibilità e la revisione paritaria. Sono questi aspetti in particolare che fanno capire che la scienza non può essere considerata un’opera individuale i cui meriti debbano attribuirsi solo a una persona o a un gruppo di ricerca, ma un lavoro collettivo portato avanti da una comunità che, adoperando un metodo condiviso al cui perfezionamento hanno contribuito in molti nel corso del tempo, ritorna sul lavoro altrui per verificarne gli esiti ed eventualmente, correggerli Il principio d’autorità, sintetizzato nella celebre formula ipse dixit, non è un parametro valido per stabilire il valore di una ricerca, sebbene, come vedremo, capiti ancora di osservarne l’influenza.
Per riproducibilità si intende la possibilità di ottenere il medesimo risultato, da parte di un altro scienziato o gruppo, eseguendo nuovamente l’esperimento descritto in uno studio, rispettando totalmente la metodologia e adoperando gli stessi dati in ingresso. La conferma così ottenuta contribuisce a rendere più solida l’evidenza scientifica in un determinato campo. Un concetto affine a quello di riproducibilità è quello di replicabilità, che consiste nell’ottenere gli stessi risultati adoperando le stesse procedure, partendo, però, da un diverso set di dati.
Accanto a questo lavoro si colloca quello di chi ha il compito di esprimere un parere sugli studi proposti alle riviste scientifiche (che sono il canale ufficiale attraverso il quale la scienza comunica i propri risultati), prima della loro eventuale pubblicazione. Si tratta di persone riconosciute tra i massimi esperti di un determinato settore, che esaminano in modo scrupoloso i lavori presentati per la pubblicazione esprimendo un parere sulla pubblicabilità o non pubblicabilità della ricerca, oppure suggerendo modifiche di maggiore o minore entità. Il sociologo Robert King Merton definiva “scetticismo organizzato” l’applicazione dei metodi di verifica necessari alla scienza, che si attua attraverso il sistematico dubbio rivolto a ciò che non è suffragato da prove. Come ha sottolineato il fisico John Ziman, la molla del progresso scientifico nasce dall’equilibrio tra la spinta dell’originalità, che induce a concepire esperimenti per verificare ipotesi non sondate in precedenza, e questo scetticismo che impone di controllare il lavoro proprio e altrui alla ricerca di possibili errori.
In aggiunta a questo tipo di valutazione della qualità del singolo studio, si colloca quella, anche quantitativa, sui risultati generali della ricerca e sulle performance di istituti e centri, basata su strumenti come gli indici bibliometrici, che sono illustrati nell’articolo di Stefano Bagnasco.
Naturalmente pensare a meccanismi perfetti e privi di ogni possibile difetto sarebbe un’utopia. Da molto tempo si parla, infatti, di “crisi della riproducibilità/replicabilità” a proposito del grande tasso di smentite, dovute a diversi fattori, che hanno mostrato esperimenti anche molto famosi nel momento in cui alcuni gruppi di ricerca si sono proposti di replicarne i risultati. Allo stesso modo, numerose voci hanno sottolineato problemi relativi all’attuale assetto della revisione paritaria e avanzato proposte di riforma.
Ma proprio questi aspetti contribuiscono a mettere in rilievo un aspetto sano e produttivo della scienza, cioè la capacità di tornare sui suoi passi e autocorreggersi con il contributo della comunità che vi lavora. Senza avere l’ingenuità di negare i problemi proponendo una visione romantica della scienza come universo idilliaco di persone prive di conflitti di interessi e pregiudizi, possiamo però sottolineare come gli strumenti di reciproco controllo tipici della comunità scientifica (con tutte le correzioni, anche sostanziali, che mostreranno nel tempo di essere necessarie) siano un importante elemento di garanzia della qualità dei risultati.
Si tratta, purtroppo, di una caratteristica messa in ombra dalla narrazione mediatica della scienza. Nel classico dibattito televisivo su una questione scientifica, capita spesso di trovare dietro alla stessa scrivania e in posizione di pari autorevolezza lo scienziato esperto della materia e colui che si autodefinisce “ricercatore indipendente” e propone tesi pseudoscientifiche. Si tratta di un problema ampiamente noto a chi si occupa di comunicazione della scienza, conosciuto come false balance. Presentare una questione scientifica in questi termini non rappresenta il modo corretto di “dare voce alle due campane”, come si deve fare in altri campi: non sarebbe, infatti, giusto mettere sullo stesso piano la voce di chi non rappresenta solo il proprio lavoro ma quello di un’intera comunità, che produce dati e si controlla a vicenda pubblicando su canali ufficiali, e le tesi bislacche di chi non è soggetto a quest’opera di verifica.
In queste pagine il nostro intento è quello di approfondire la storia, le caratteristiche e l’evoluzione del processo attraverso cui la scienza si autovaluta e autocorregge contribuendo al suo progresso, mentre si interroga sulla validità degli strumenti adoperati per questa fondamentale operazione.
L’imprudente (e molto criticata) dichiarazione è quella resa nel 2020 da un ministro a un quotidiano nazionale, a proposito della cosiddetta “fase 2” dell’emergenza pandemica. Si tratta di uno degli esempi di quanto a molti – purtroppo anche a chi ricopre un ruolo istituzionale per il quale il pensiero scientifico dovrebbe rappresentare una guida fondamentale – sia poco chiara la definizione stessa di scienza e quello che la caratterizza. Non c’è, infatti, nulla di più lontano dal pensiero e dal metodo scientifico dell’idea di “certezza inconfutabile”, di verità assoluta sulla quale riposare, sapendo che nessuno potrà sollevare dubbi e rilevare errori.
Dall’esperimento alla teoria
Come gli scienziati ben sanno, quello che la scienza si propone di portare alla luce non può in nessun modo essere definito una certezza inconfutabile, ma un “fatto”, inteso come un dato che è l’esito di prove sperimentali progettate perché possano consentire la verifica di un’ipotesi. Un’ipotesi suffragata da prove che non mostrino debolezze (per esempio difetti di progettazione degli esperimenti che possano falsare i risultati ottenuti) può diventare così una teoria, ovvero una rigorosa descrizione di un fenomeno, attuata sulla base dei dati raccolti attraverso le prove sperimentali. Si tratta quindi della migliore spiegazione che è possibile fornire con i dati di cui si è in possesso in un determinato momento, ma certamente non di una verità inconfutabile, perché, come ben sottolineano gli epistemologi, nel tempo le conoscenze scientifiche sono sempre soggette a essere corrette. I nuovi studi possono portare addirittura, in alcuni casi, a un completo cambio di paradigma scientifico, che rovescia le precedenti certezze e apre nuovi orizzonti. Fino a quando questo non si verifica, la teoria rimane valida e un ulteriore elemento di conferma è rappresentato dalla possibilità di adoperarla per fare delle previsioni. Una teoria, infatti, può permettere non solo di spiegare i fenomeni osservati, ma anche di prevedere eventi a essi collegati, entro margini più o meno ampi di probabilità, anche se questa caratteristica può variare molto nei diversi ambiti della scienza.
Questo percorso, però, è possibile solo quando gli studi sono progettati e portati avanti secondo standard di qualità che consentono ai loro risultati di essere interpretabili e attendibili.
Un’opera collettiva di verifica e valutazione
Comprendere questo concetto è centrale per capire la differenza tra conoscenza scientifica e pseudoscienze, intendendo per queste ultime ciò che si traveste da scienza, spesso assumendo una veste esteriore di autorevolezza e rigore, ma senza applicare quelli che giustamente vengono definiti i “fondamenti” della scienza, due dei quali sono sicuramente la riproducibilità e la revisione paritaria. Sono questi aspetti in particolare che fanno capire che la scienza non può essere considerata un’opera individuale i cui meriti debbano attribuirsi solo a una persona o a un gruppo di ricerca, ma un lavoro collettivo portato avanti da una comunità che, adoperando un metodo condiviso al cui perfezionamento hanno contribuito in molti nel corso del tempo, ritorna sul lavoro altrui per verificarne gli esiti ed eventualmente, correggerli Il principio d’autorità, sintetizzato nella celebre formula ipse dixit, non è un parametro valido per stabilire il valore di una ricerca, sebbene, come vedremo, capiti ancora di osservarne l’influenza.
Per riproducibilità si intende la possibilità di ottenere il medesimo risultato, da parte di un altro scienziato o gruppo, eseguendo nuovamente l’esperimento descritto in uno studio, rispettando totalmente la metodologia e adoperando gli stessi dati in ingresso. La conferma così ottenuta contribuisce a rendere più solida l’evidenza scientifica in un determinato campo. Un concetto affine a quello di riproducibilità è quello di replicabilità, che consiste nell’ottenere gli stessi risultati adoperando le stesse procedure, partendo, però, da un diverso set di dati.
Accanto a questo lavoro si colloca quello di chi ha il compito di esprimere un parere sugli studi proposti alle riviste scientifiche (che sono il canale ufficiale attraverso il quale la scienza comunica i propri risultati), prima della loro eventuale pubblicazione. Si tratta di persone riconosciute tra i massimi esperti di un determinato settore, che esaminano in modo scrupoloso i lavori presentati per la pubblicazione esprimendo un parere sulla pubblicabilità o non pubblicabilità della ricerca, oppure suggerendo modifiche di maggiore o minore entità. Il sociologo Robert King Merton definiva “scetticismo organizzato” l’applicazione dei metodi di verifica necessari alla scienza, che si attua attraverso il sistematico dubbio rivolto a ciò che non è suffragato da prove. Come ha sottolineato il fisico John Ziman, la molla del progresso scientifico nasce dall’equilibrio tra la spinta dell’originalità, che induce a concepire esperimenti per verificare ipotesi non sondate in precedenza, e questo scetticismo che impone di controllare il lavoro proprio e altrui alla ricerca di possibili errori.
In aggiunta a questo tipo di valutazione della qualità del singolo studio, si colloca quella, anche quantitativa, sui risultati generali della ricerca e sulle performance di istituti e centri, basata su strumenti come gli indici bibliometrici, che sono illustrati nell’articolo di Stefano Bagnasco.
Un dibattito sano
Naturalmente pensare a meccanismi perfetti e privi di ogni possibile difetto sarebbe un’utopia. Da molto tempo si parla, infatti, di “crisi della riproducibilità/replicabilità” a proposito del grande tasso di smentite, dovute a diversi fattori, che hanno mostrato esperimenti anche molto famosi nel momento in cui alcuni gruppi di ricerca si sono proposti di replicarne i risultati. Allo stesso modo, numerose voci hanno sottolineato problemi relativi all’attuale assetto della revisione paritaria e avanzato proposte di riforma.
Ma proprio questi aspetti contribuiscono a mettere in rilievo un aspetto sano e produttivo della scienza, cioè la capacità di tornare sui suoi passi e autocorreggersi con il contributo della comunità che vi lavora. Senza avere l’ingenuità di negare i problemi proponendo una visione romantica della scienza come universo idilliaco di persone prive di conflitti di interessi e pregiudizi, possiamo però sottolineare come gli strumenti di reciproco controllo tipici della comunità scientifica (con tutte le correzioni, anche sostanziali, che mostreranno nel tempo di essere necessarie) siano un importante elemento di garanzia della qualità dei risultati.
Si tratta, purtroppo, di una caratteristica messa in ombra dalla narrazione mediatica della scienza. Nel classico dibattito televisivo su una questione scientifica, capita spesso di trovare dietro alla stessa scrivania e in posizione di pari autorevolezza lo scienziato esperto della materia e colui che si autodefinisce “ricercatore indipendente” e propone tesi pseudoscientifiche. Si tratta di un problema ampiamente noto a chi si occupa di comunicazione della scienza, conosciuto come false balance. Presentare una questione scientifica in questi termini non rappresenta il modo corretto di “dare voce alle due campane”, come si deve fare in altri campi: non sarebbe, infatti, giusto mettere sullo stesso piano la voce di chi non rappresenta solo il proprio lavoro ma quello di un’intera comunità, che produce dati e si controlla a vicenda pubblicando su canali ufficiali, e le tesi bislacche di chi non è soggetto a quest’opera di verifica.
In queste pagine il nostro intento è quello di approfondire la storia, le caratteristiche e l’evoluzione del processo attraverso cui la scienza si autovaluta e autocorregge contribuendo al suo progresso, mentre si interroga sulla validità degli strumenti adoperati per questa fondamentale operazione.