Che cosa possiamo conoscere del futuro?
Se ponessimo questa domanda in diverse epoche del passato otterremmo risposte molto diverse, ma scopriremmo che allora come oggi la convinzione di poter conoscere molto del futuro è sempre stata forte. Per esempio, un teologo cristiano come Agostino era certo di poter dire parecchio riguardo al futuro a partire dagli indizi del tempo in cui viveva, in pieno declino dell’Impero romano: ben presto sarebbe giunto il “sabato senza fine”, con il ritorno di Cristo e la fine dei giorni.
Che questo fosse l’unico futuro possibile era ben chiaro nella cultura cristiana. Anche quando iniziò il processo di secolarizzazione e le utopie escatologiche di Agostino sembrarono andare ormai strette, non venne meno la fiducia di poter conoscere il futuro. Anzi: nel Settecento, il matematico Laplace affermava convintamente che per un intelletto in grado di conoscere tutte le forze e tutte le posizioni di tutti gli oggetti presenti nell’universo in un determinato istante, dotato della giusta capacità di analisi di questi dati, «nulla sarebbe incerto e il futuro proprio come il passato sarebbe evidente davanti ai suoi occhi». Nell’Ottocento, Comte affermava di poter dimostrare «che vi sono leggi altrettanto determinate per l’evoluzione del genere umano come per la caduta di un sasso», mentre Marx prediceva sulla base di convinzioni simili il collasso del capitalismo e l’avvento della società comunista basata sulla condivisione dei mezzi di produzione. Agli inizi del Novecento, il celebre scrittore di fantascienza Herbert G. Wells annunciava l’imminente sviluppo di una “scienza del futuro” in grado di conoscere con esattezza gli avvenimenti dell’anno 4000 come gli storici conoscono gli avvenimenti del Seicento; e questa convinzione, che traduceva in termini moderni il sogno di Laplace, era largamente condivisa dagli ambienti positivisti inglesi.
Oggi guardiamo a queste affermazioni con la condiscendenza tipica degli uomini moderni che credono di saperla lunga. Sosteniamo che la pretesa dei nostri antenati di conoscere il futuro era infondata e palesemente non-scientifica, e crediamo di possedere nozioni più solide e scientifiche per le nostre previsioni. Se però ci fermiamo un attimo a elencare le cose che possiamo conoscere con esattezza riguardo al futuro, scopriamo che sono davvero molto poche.
Sappiamo predire con certezza le eclissi perché conosciamo le leggi del moto dei pianeti con esattezza, ma la conoscenza di quelle leggi non ci permette di prevedere l’impatto di un asteroide o di una cometa sulla Terra; conosciamo molto bene i meccanismi alla base di eruzioni vulcaniche e terremoti, ma non siamo in grado dire quando un vulcano erutterà se non poche ore prima che avvenga e, quanto ai terremoti, nemmeno questo; sappiamo che il nostro universo è in espansione, ma non abbiamo idea se questa espansione durerà per sempre o no.
Se poi usciamo dal solco dei fenomeni naturali, le cose si fanno ancora più complesse. Possiamo prevedere con un buon grado di approssimazione la popolazione in Italia da qui a venti o trent’anni, ma non possiamo includere in questa previsione le conseguenze di pandemie, migrazioni di massa o boom demografici; possiamo provare, sulla base di serie storiche e algoritmi, a prevedere il prezzo del petrolio da qui a un anno, ma sappiamo bene come lo scoppio di una guerra, o anche una più modesta crisi internazionale in un’area calda, siano in grado di mandare a ramengo le nostre previsioni; per non parlare della possibilità di prevedere i risultati elettorali.
Eppure, tentativi pseudoscientifici di risolvere questi problemi non sono mai mancati. Nate Silver, uno statistico appassionato di poker e baseball, si è procurato fama negli Stati Uniti per le sue previsioni dei risultati delle elezioni americane. Nel 2016 diede Hillary Clinton vincente con il 71% delle probabilità, ma quando fu smentito si difese affermando che la sua fosse la percentuale più bassa rispetto a tutti gli altri modelli. La sua fede nella capacità della statistica di prevedere risultati apparentemente imprevedibili come, appunto, l’esito delle partite di basket o le elezioni presidenziali (che hanno comunque un grado di aleatorietà non troppo alto), è largamente diffusa nel mondo contemporaneo; tuttavia, Silver non è così ingenuo come può sembrare, e nel suo libro Il segnale e il rumore. Arte e scienza della previsione (2012) è in grado di spiegarci perché molti altri eventi resteranno imprevedibili a prescindere dai dati in nostro possesso e soprattutto perché per i fenomeni complessi la capacità di previsione si riduce con il crescere della distanza rispetto al presente.
Qui si situa una prima differenza fondamentale tra due diversi concetti di previsione: ciò che gli anglosassoni chiamano forecast, un termine che utilizziamo per le previsioni del tempo, degli andamenti di borsa e in generale per tutti quei fenomeni di cui ci interessa l’esito sul brevissimo termine (pochi giorni, a volte poche ore); e ciò che invece è chiamato foresight, la “lungimiranza”, vale a dire la capacità di guardare lontano.
La confusione che, nell’immaginario comune, si verifica tra i due termini, è quella che alimenta la fede pseudoscientifica nel sogno di Laplace, che oggi ritroviamo nella convinzione che i nuovi algoritmi, l’intelligenza artificiale e l’enorme quantità di dati che possiamo acquisire realizzeranno l’ambizione di una previsione perfetta anche di quei fenomeni che solo l’ignoranza rende oggi imprevedibili. Ritroviamo questa idea in serie di fantascienza come Westworld, dove il supercomputer Rehoboam è in grado di anticipare perturbazioni nell’ordine globale prodotte anche solo da un singolo essere umano, o Devs, dove un altro supercomputer — questa volta quantistico — è in grado di svolgere previsioni analoghe.
Quasi ottant’anni separano queste idee dalla celebre Psicostoria di Isaac Asimov, «la scienza del comportamento umano ridotta a equazioni matematiche», che nei romanzi della Fondazione è utilizzata per predire l’imminente collasso dell’Impero galattico e i mille anni di caos che ne seguiranno, secondo una rigida formula di “necessità psicostorica”. Pur non credendo davvero che una scienza del genere potesse essere sviluppata — tant’è che nel seguito dei suoi romanzi ne mostrerà le debolezze fino a rifiutarla — Asimov era stato influenzato dal clima tardo-positivista dell’America di quegli anni, incarnato dal suo editore, John W. Campbell, un lettore del Tramonto della civiltà di Oswald Spengler e in seguito promotore della dianetica e di Scientology.
Come già aveva proposto Wells quando, nel 1902, aveva tenuto il suo discorso La scoperta del futuro, l’idea di base della Psicostoria è che, se anche il comportamento dei singoli individui non può essere previsto, all’aumentare del campione le leggi statistiche consentirebbero di ottenere previsioni con buona approssimazione, similmente a quanto avviene nella teoria cinetica dei gas e più in generale nella termodinamica, che afferisce alla fisica statistica. Era un’idea che derivava da Comte, la cui “fisica sociale” si basava sulla convinzione che non dovesse esistere una reale differenza tra fenomeni naturali e fenomeni sociali, ma che questi ultimi fossero semplicemente più difficili da prevedere «a causa della maggiore complessità che domina in misura maggiore le perturbazioni individuali». Alla fine sarebbe stato possibile stabilire «una vera e propria filiazione razionale nella serie degli avvenimenti sociali, così da consentire, come per tutti gli ordini dei fenomeni e nei limiti generali imposti dalla maggiore complessità, una qualche previsione sistematica dei momenti successivi».
Dopo la Seconda guerra mondiale, queste idee trovarono casa in ambienti come la RAND, think-tank al servizio della difesa americana dove lavorarono giganti come John von Neumann e John Nash, e dove il matematico e logico Olaf Helmer — tedesco trasferitosi nel 1937 negli Stati Uniti — ricevette il titolo di “futurologo in capo” per provare a mettere le nuove teorie della cibernetica e della teoria dei giochi al servizio di una “teoria generale del futuro” ancora da scoprire.
La speranza era quella di riuscire, attraverso una simile teoria, a prevedere in anticipo gli sviluppi della corsa agli armamenti e soprattutto l’esito di un conflitto nucleare con l’Unione Sovietica. Inutile a dirsi, la teoria del futuro non fu mai trovata e Helmer stesso ammise di essersi sbagliato. Ma occorsero anni prima che si giungesse a questa conclusione; nel mentre, si svilupparono altri casi di pseudoscienza della previsione, come quello ricostruito di recente dalla storica Jill Lepore in Simulmatics. Ascesa e caduta dell’azienda che inventò il futuro (2023). Nata alla fine degli anni Cinquanta, la Simulmatics Corporation fu la prima società fondata con l’obiettivo di utilizzare i big data per prevedere il comportamento dei consumatori, i risultati delle elezioni e persino l’esito della guerra del Vietnam. A tal proposito c’è un brano del libro di Lepore che, data l’importanza per il nostro discorso, vale la pena riportare per intero:
Circola una storia riguardo a un fatto accaduto quell’anno al Pentagono. «Non esiste un computer che possa indicare l’ora e il giorno della pace», aveva detto Johnson nel 1966. Eppure, a quanto pareva, c’era un enorme computer posizionato in un’enorme stanza al seminterrato del Pentagono [...], un computer in cui gli uomini di McNamara inserirono schede perforate contenenti ogni tipo di informazione sul Vietnam. Il numero delle truppe, delle navi, degli aerei, degli elicotteri. Il numero degli abitanti. Un censimento di bufali d’acqua, il prezzo del riso, l’infiammabilità dei tetti di paglia. Il numero delle vittime. Il tasso di uccisioni. La densità del cervello dei contadini. Il peso del cuore di un essere umano. Un venerdì del 1967, gli uomini di McNamara inserirono le ultime schede perforate nelle fauci dell’enorme computer e gli fecero una domanda: «Quando vinceremo in Vietnam?» La macchina si mise a ronzare, le luci lampeggiarono. Ronzò e lampeggiò per tutto il fine settimana. Lunedì gli uomini di McNamara tornarono. Il vassoio di uscita conteneva una sola scheda perforata. Diceva: «Avete vinto nel 1965».
Gli storici e le storiche della futurologia situano più o meno in questo periodo la “svolta critica” che portò al fallimento del paradigma della previsione. La svolta coincise con quella rivoluzione scientifica ancora poco studiata che si ebbe a cavallo tra gli anni ’60 e ’70 del Novecento, quando emersero la teoria del caos, la scienza dei sistemi complessi, l’ecologia, e più in generale la messa in discussione degli ultimi residui del pensiero positivista, da cui emerse la svolta postmodernista nelle scienze sociali: si iniziò a prendere coscienza del fatto che ogni discorso sul futuro non può mai essere del tutto neutrale e oggettivo, ma sempre influenzato da posizioni culturali, valori e convinzioni ideologiche. Ossip K. Flechtheim, un politologo tedesco che durante il suo soggiorno negli Stati Uniti, negli anni ’40, aveva coniato il termine “futurologia”, si trovò vent’anni dopo nella difficile condizione di difendere la serietà della sua disciplina. Certo, scrisse, se per “scienza” intendiamo solo le scienze esatte, allora non possiamo affermare che la futurologia lo sia. D’altra parte, se invece per “scienza” intendiamo «un sistema di conoscenza organizzata concernente i fatti di un particolare soggetto», allora la futurologia può essere considerata «una scienza non tanto diversa da alcune discipline classiche (per esempio la musicologia) oppure da alcune scienze sociali (per esempio la storia o la scienza politica)».
Per filosofi come Popper, era un po’ pochino: Popper combatté per tutta la vita contro le tesi dello storicismo, secondo cui il futuro sarebbe predeterminato e, come tale, prevedibile, e contrappose a questa visione la sua idea di un futuro aperto, «nel senso che in ogni momento esistono infinite possibilità di quanto accadrà nell'immediato futuro». Va da sé che, se il futuro della società umana è aperto e non determinato dal passato, il principio popperiano del falsificazionismo, secondo cui un’affermazione è scientifica se è falsificabile (per esempio, se dico che domani il Sole non sorgerà e invece sorge, allora la mia affermazione è stata falsificata), non può applicarsi alla realtà sociale, perché il suo futuro dipende strettamente dall’azione umana nel presente.
Qui si situa il concetto delle “profezie che si autoavverano”, che erano conosciute già nel mondo antico, in culture cioè che credevano nel determinismo e nel fato, ma che diventano fondamentali nel modello di futuro aperto, perché dimostrano che l’avveramento di una delle infinite possibilità del futuro dipende dalla nostra capacità di farla avverare. Lo storicista affermerà che una crisi economica sia un fatto prevedibile perché obbedisce a regole ferree dell’economia; il teorico del futuro aperto asserirà invece che, per quanto sia possibile assegnare un’alta probabilità che l’economia vada in recessione da qui a un anno, la sua effettiva realizzazione dipenderà da azioni umane, per esempio quella che spinge i risparmiatori a mettere in atto strategie per tutelarsi dalle conseguenze della recessione che però, come conseguenza, avverano la previsione della crisi economica.
Di fronte a questi limiti, cosa possiamo allora affermare del futuro? Questa domanda divenne sempre più rilevante nel periodo a cavallo tra gli anni ’60 e ’70, quando la visione occidentale del progresso iniziò ad andare in crisi e divenne urgente capire le direzioni che la civiltà tecnologica avrebbe assunto: la crisi energetica sarebbe durata a lungo? Ci sarebbe stato a breve un picco del petrolio? Esistevano dei limiti alla crescita continua della popolazione? Il Terzo mondo (come allora era chiamato) avrebbe imboccato la strada della “modernizzazione” seguendo il modello occidentale o invece un modello autonomo di sviluppo? L’impatto della civiltà industriale sulla biosfera avrebbe messo a repentaglio, sul lungo termine, la sopravvivenza della specie umana? Domande che all’epoca erano all’ordine del giorno, e che stimolarono iniziative come la Commissione per l’Anno 2000 negli Stati Uniti e il Club di Roma, fondato in Italia dal manager Aurelio Peccei insieme a personalità di tutto il mondo per cercare di risolvere la “problematica globale”.
Per riuscirci occorreva un nuovo paradigma che abbandonasse l’ambizione della previsione ma fosse in grado di conservare una certa capacità di comprendere le direzioni del futuro. Il filosofo francese Bertrand de Jouvenel, che pure aveva conosciuto i futurologi americani, suggerì di abbandonare quel termine. Nel suo influentissimo L’arte della congettura (1964), de Jouvenel affermò una verità che oggi diamo per scontata ma che, come si è visto finora, fino a pochi decenni fa non lo era: passato e futuro sono due cose molto diverse, perché il passato «è la sede dei fatti sui quali non c’è più la possibilità di intervenire» ma è anche, «nello stesso tempo, la sede dei fatti conoscibili», laddove l’avvenire è il campo dei futura, delle possibilità aperte:
È campo di libertà perché sono libero di concepire ciò che non è, purché lo collochi nell’avvenire; è campo di potenza, perché ho un certo potere di convalidare ciò che ho concepito (ma non qualunque cosa abbia concepito!) [...] D’altra parte l’avvenire è campo d’incertezza. Ciò che sarà non può essere attestato e controllato come se si trattasse di un fatto compiuto [...] . Può dunque sembrare una contraddizione in termini parlare di “conoscenza dell’avvenire”. In senso proprio solo i facta possono essere conosciuti, e noi abbiamo conoscenze positive solo per quel che riguarda il passato.
Se quindi la futurologia va respinta, perché contiene in sé l’idea di una “scienza dell’avvenire” che invece si è dimostrata impossibile da ottenere, cosa ci resta? Per Jouvenel, se il futuro non può essere previsto, può essere almeno congetturato; ma ciò che distingue la congettura dalla previsione è, da un lato, il fatto che la congettura ha come suo esito i futuribili, ossia un vasto insieme di futuri possibili, di scenari più o meno alternativi, e non una previsione secca, un singolo output; dall’altro, la consapevolezza che la trasformazione di quel futuribile da potenza ad atto dipende in buona parte dall’azione umana.
Oggi questo concetto è integrato nel più importante modello che riguarda il nostro futuro: quello che descrive i possibili scenari dei cambiamenti climatici elaborato dagli esperti dell’IPCC, il panel delle Nazioni Unite sul clima. Anche qui non troviamo un’unica previsione, ma una serie di scenari; e questi scenari sono costruiti incrociando le ipotesi di concentrazioni di gas serra in atmosfera con le scelte socio-politiche compiute dai governi. Ciascuno scenario descrive un possibile futuro: quello della crescita sostenibile fondata sull’uguaglianza (SSP1), quello a sviluppo intermedio (SSP2), lo scenario dei “neo-nazionalismi” in competizione tra loro (SSP3), un futuro di crescenti disuguaglianze (SSP4), infine lo scenario della crescita continua alimentata dai combustibili fossili (SSP5).
Progenitore di questo modello fu World3, elaborato nel 1972 su iniziativa del Club di Roma da un gruppo di ricerca del MIT guidato da Donella e Dennis Meadows: World3 era una simulazione del futuro del mondo al 2100 che sintetizzava la “problematica globale” di Peccei in cinque componenti chiave: popolazione, disponibilità di cibo, stock di risorse non rinnovabili, inquinamento e produzione industriale. Utilizzando le tecniche della dinamica dei sistemi per simulare l’interazione tra queste componenti in un sistema complesso, World3 sviluppò quattro scenari, tre dei quali prevedevano il collasso della civiltà intorno alla metà di questo secolo. Solo in uno la problematica globale veniva risolta attraverso un cambio di passo dell’umanità, consistente nell’assunzione di politiche che oggi chiamiamo di “sviluppo sostenibile”. Le analisi, pubblicate nell’influente Rapporto sui limiti dello sviluppo, produssero un enorme dibattito e mostrarono per la prima volta quanto il futuro dipenda dall’agire umano.
In coincidenza di questa svolta, la futurologia decise di rifondarsi: nel 1973, nella sede dell’istituto Futuribles di Parigi guidato da Bertrand de Jouvenel, fu fondata la World Futures Studies Federation, che faceva seguito a una serie di conferenze mondiali sul futuro iniziate nel 1967 a Oslo. La nuova organizzazione, di cui promotori furono anche diversi italiani, in testa Eleonora Barbieri Masini, sociologa e “madre” dei moderni studi sul futuro, decideva di affidare alla disciplina un nuovo nome: Futures Studies, che contiene da un lato il concetto di pluralità dei futuri, dall’altro quello di studi interdisciplinari e non più di scienza (cadeva infatti il suffisso -logos). Condivideva infine la proposta fatta a Oslo da Robert Jungk, un giornalista austriaco i cui influenti reportage sono ancora oggi pubblicati (tra tutti Gli apprendisti stregoni, primo studio sul progetto Manhattan, e Il futuro è già cominciato, opera critica della futurologia cibernetica americana): superare l’approccio singolare al futuro e guardare invece alla triplice dimensione del probabile, del possibile e del preferibile. Oggi quell’invito è stato incorporato nelle politiche europee: il recente GreenComp, il Quadro europeo delle competenze per la sostenibilità, afferma l’esigenza di una alfabetizzazione al futuro che consiste nell’«immaginare futuri sostenibili alternativi, prospettando e sviluppando scenari alternativi e individuando i passi necessari per realizzare un futuro sostenibile preferito».
Immaginare anziché prevedere: non è forse un fallimento, questo, rispetto all’ambizione della previsione scientifica del futuro? Se alla previsione si sostituisce la visione, allora dobbiamo rinunciare a ogni pretesa di un discorso serio sul futuro? Lasciare tutto nelle mani della fantasia? Questa è probabilmente la prima reazione che una mente scientifica e razionale può opporre all’evoluzione moderna degli studi sul futuro. Non più una scienza, come auspicava Flechtheim, ma una mera “arte della congettura”, come titolava Bertrand de Jouvenel nel suo libro? Eppure, non dovremmo così facilmente svalutare il concetto di “immaginazione”, se utilizzato in modo sistematico. Gli attentati dell’11 settembre non sono stati forse definiti “un fallimento dell’immaginazione” dalla commissione di esperti incaricata di analizzare come furono possibili? Agli analisti non mancavano i dati necessari per prevedere uno scenario in cui terroristi dirottano aerei per farli schiantare sugli edifici e per trovare un semplice espediente per impedire questo scenario; ma, da soli, quei dati non permisero di immaginare una tale eventualità finché non fu troppo tardi.
Il mondo contemporaneo è pieno di fenomeni ampiamente prevedibili che però non siamo in grado di impedire a causa del fallimento d’immaginazione, dalle crisi economiche alle pandemie fino alle guerre recenti. Nassim Nicholas Taleb, che allo studio del futuro ha dedicato un’opera molto nota, Il cigno nero (2007), scritta all’inizio del crack che portò alla Grande recessione, ci ha spiegato un fatto molto importante: «Il problema della previsione è un po’ più sottile. Deriva principalmente dal fatto che viviamo nell’Estremistan, non nel Mediocristan. Gli esperti di previsione sono in grado di prevedere l’ordinario ma non l’irregolare, ed è qui che alla fine falliscono».
Di fronte a questa sfida, in un’era di estremi che rende gli studi sul futuro più urgenti che mai, il compito di chi si occupa di futuro è quello di avvalersi dei più rigorosi strumenti per la previsione di ciò che possiamo prevedere, e dei più vari strumenti dell’immaginazione per “pensare l’impensabile” (un ossimoro coniato dal futurologo Herman Khan negli anni ’50) e perseguire il preferibile. Ancora non pienamente raccolto è l’invito fatto quasi cinquant’anni fa da Carlo Huber, filosofo gesuita del gruppo di Previsione sociale guidato da Eleonora Barbieri Masini alla Pontificia Università Gregoriana di Roma:
[D]alle condizioni, le conseguenze si deducono in forza di leggi conosciute. La condizione per una desiderata conclusione non si deduce, si inventa, si trova. Abbiamo perciò bisogno, per la futurologia, di una logica dell’invenzione, cioè di certe procedure coerenti che permettano di trovare con certezza e con facilità condizioni per desiderate conseguenze.
Questa è forse una delle più importanti sfide degli studi sul futuro per il XXI secolo.
Se ponessimo questa domanda in diverse epoche del passato otterremmo risposte molto diverse, ma scopriremmo che allora come oggi la convinzione di poter conoscere molto del futuro è sempre stata forte. Per esempio, un teologo cristiano come Agostino era certo di poter dire parecchio riguardo al futuro a partire dagli indizi del tempo in cui viveva, in pieno declino dell’Impero romano: ben presto sarebbe giunto il “sabato senza fine”, con il ritorno di Cristo e la fine dei giorni.
Che questo fosse l’unico futuro possibile era ben chiaro nella cultura cristiana. Anche quando iniziò il processo di secolarizzazione e le utopie escatologiche di Agostino sembrarono andare ormai strette, non venne meno la fiducia di poter conoscere il futuro. Anzi: nel Settecento, il matematico Laplace affermava convintamente che per un intelletto in grado di conoscere tutte le forze e tutte le posizioni di tutti gli oggetti presenti nell’universo in un determinato istante, dotato della giusta capacità di analisi di questi dati, «nulla sarebbe incerto e il futuro proprio come il passato sarebbe evidente davanti ai suoi occhi». Nell’Ottocento, Comte affermava di poter dimostrare «che vi sono leggi altrettanto determinate per l’evoluzione del genere umano come per la caduta di un sasso», mentre Marx prediceva sulla base di convinzioni simili il collasso del capitalismo e l’avvento della società comunista basata sulla condivisione dei mezzi di produzione. Agli inizi del Novecento, il celebre scrittore di fantascienza Herbert G. Wells annunciava l’imminente sviluppo di una “scienza del futuro” in grado di conoscere con esattezza gli avvenimenti dell’anno 4000 come gli storici conoscono gli avvenimenti del Seicento; e questa convinzione, che traduceva in termini moderni il sogno di Laplace, era largamente condivisa dagli ambienti positivisti inglesi.
Pretese moderne
Oggi guardiamo a queste affermazioni con la condiscendenza tipica degli uomini moderni che credono di saperla lunga. Sosteniamo che la pretesa dei nostri antenati di conoscere il futuro era infondata e palesemente non-scientifica, e crediamo di possedere nozioni più solide e scientifiche per le nostre previsioni. Se però ci fermiamo un attimo a elencare le cose che possiamo conoscere con esattezza riguardo al futuro, scopriamo che sono davvero molto poche.
Sappiamo predire con certezza le eclissi perché conosciamo le leggi del moto dei pianeti con esattezza, ma la conoscenza di quelle leggi non ci permette di prevedere l’impatto di un asteroide o di una cometa sulla Terra; conosciamo molto bene i meccanismi alla base di eruzioni vulcaniche e terremoti, ma non siamo in grado dire quando un vulcano erutterà se non poche ore prima che avvenga e, quanto ai terremoti, nemmeno questo; sappiamo che il nostro universo è in espansione, ma non abbiamo idea se questa espansione durerà per sempre o no.
Se poi usciamo dal solco dei fenomeni naturali, le cose si fanno ancora più complesse. Possiamo prevedere con un buon grado di approssimazione la popolazione in Italia da qui a venti o trent’anni, ma non possiamo includere in questa previsione le conseguenze di pandemie, migrazioni di massa o boom demografici; possiamo provare, sulla base di serie storiche e algoritmi, a prevedere il prezzo del petrolio da qui a un anno, ma sappiamo bene come lo scoppio di una guerra, o anche una più modesta crisi internazionale in un’area calda, siano in grado di mandare a ramengo le nostre previsioni; per non parlare della possibilità di prevedere i risultati elettorali.
Eppure, tentativi pseudoscientifici di risolvere questi problemi non sono mai mancati. Nate Silver, uno statistico appassionato di poker e baseball, si è procurato fama negli Stati Uniti per le sue previsioni dei risultati delle elezioni americane. Nel 2016 diede Hillary Clinton vincente con il 71% delle probabilità, ma quando fu smentito si difese affermando che la sua fosse la percentuale più bassa rispetto a tutti gli altri modelli. La sua fede nella capacità della statistica di prevedere risultati apparentemente imprevedibili come, appunto, l’esito delle partite di basket o le elezioni presidenziali (che hanno comunque un grado di aleatorietà non troppo alto), è largamente diffusa nel mondo contemporaneo; tuttavia, Silver non è così ingenuo come può sembrare, e nel suo libro Il segnale e il rumore. Arte e scienza della previsione (2012) è in grado di spiegarci perché molti altri eventi resteranno imprevedibili a prescindere dai dati in nostro possesso e soprattutto perché per i fenomeni complessi la capacità di previsione si riduce con il crescere della distanza rispetto al presente.
La “necessità psicostorica”
Qui si situa una prima differenza fondamentale tra due diversi concetti di previsione: ciò che gli anglosassoni chiamano forecast, un termine che utilizziamo per le previsioni del tempo, degli andamenti di borsa e in generale per tutti quei fenomeni di cui ci interessa l’esito sul brevissimo termine (pochi giorni, a volte poche ore); e ciò che invece è chiamato foresight, la “lungimiranza”, vale a dire la capacità di guardare lontano.
La confusione che, nell’immaginario comune, si verifica tra i due termini, è quella che alimenta la fede pseudoscientifica nel sogno di Laplace, che oggi ritroviamo nella convinzione che i nuovi algoritmi, l’intelligenza artificiale e l’enorme quantità di dati che possiamo acquisire realizzeranno l’ambizione di una previsione perfetta anche di quei fenomeni che solo l’ignoranza rende oggi imprevedibili. Ritroviamo questa idea in serie di fantascienza come Westworld, dove il supercomputer Rehoboam è in grado di anticipare perturbazioni nell’ordine globale prodotte anche solo da un singolo essere umano, o Devs, dove un altro supercomputer — questa volta quantistico — è in grado di svolgere previsioni analoghe.
Quasi ottant’anni separano queste idee dalla celebre Psicostoria di Isaac Asimov, «la scienza del comportamento umano ridotta a equazioni matematiche», che nei romanzi della Fondazione è utilizzata per predire l’imminente collasso dell’Impero galattico e i mille anni di caos che ne seguiranno, secondo una rigida formula di “necessità psicostorica”. Pur non credendo davvero che una scienza del genere potesse essere sviluppata — tant’è che nel seguito dei suoi romanzi ne mostrerà le debolezze fino a rifiutarla — Asimov era stato influenzato dal clima tardo-positivista dell’America di quegli anni, incarnato dal suo editore, John W. Campbell, un lettore del Tramonto della civiltà di Oswald Spengler e in seguito promotore della dianetica e di Scientology.
Come già aveva proposto Wells quando, nel 1902, aveva tenuto il suo discorso La scoperta del futuro, l’idea di base della Psicostoria è che, se anche il comportamento dei singoli individui non può essere previsto, all’aumentare del campione le leggi statistiche consentirebbero di ottenere previsioni con buona approssimazione, similmente a quanto avviene nella teoria cinetica dei gas e più in generale nella termodinamica, che afferisce alla fisica statistica. Era un’idea che derivava da Comte, la cui “fisica sociale” si basava sulla convinzione che non dovesse esistere una reale differenza tra fenomeni naturali e fenomeni sociali, ma che questi ultimi fossero semplicemente più difficili da prevedere «a causa della maggiore complessità che domina in misura maggiore le perturbazioni individuali». Alla fine sarebbe stato possibile stabilire «una vera e propria filiazione razionale nella serie degli avvenimenti sociali, così da consentire, come per tutti gli ordini dei fenomeni e nei limiti generali imposti dalla maggiore complessità, una qualche previsione sistematica dei momenti successivi».
Dopo la Seconda guerra mondiale, queste idee trovarono casa in ambienti come la RAND, think-tank al servizio della difesa americana dove lavorarono giganti come John von Neumann e John Nash, e dove il matematico e logico Olaf Helmer — tedesco trasferitosi nel 1937 negli Stati Uniti — ricevette il titolo di “futurologo in capo” per provare a mettere le nuove teorie della cibernetica e della teoria dei giochi al servizio di una “teoria generale del futuro” ancora da scoprire.
La speranza era quella di riuscire, attraverso una simile teoria, a prevedere in anticipo gli sviluppi della corsa agli armamenti e soprattutto l’esito di un conflitto nucleare con l’Unione Sovietica. Inutile a dirsi, la teoria del futuro non fu mai trovata e Helmer stesso ammise di essersi sbagliato. Ma occorsero anni prima che si giungesse a questa conclusione; nel mentre, si svilupparono altri casi di pseudoscienza della previsione, come quello ricostruito di recente dalla storica Jill Lepore in Simulmatics. Ascesa e caduta dell’azienda che inventò il futuro (2023). Nata alla fine degli anni Cinquanta, la Simulmatics Corporation fu la prima società fondata con l’obiettivo di utilizzare i big data per prevedere il comportamento dei consumatori, i risultati delle elezioni e persino l’esito della guerra del Vietnam. A tal proposito c’è un brano del libro di Lepore che, data l’importanza per il nostro discorso, vale la pena riportare per intero:
Circola una storia riguardo a un fatto accaduto quell’anno al Pentagono. «Non esiste un computer che possa indicare l’ora e il giorno della pace», aveva detto Johnson nel 1966. Eppure, a quanto pareva, c’era un enorme computer posizionato in un’enorme stanza al seminterrato del Pentagono [...], un computer in cui gli uomini di McNamara inserirono schede perforate contenenti ogni tipo di informazione sul Vietnam. Il numero delle truppe, delle navi, degli aerei, degli elicotteri. Il numero degli abitanti. Un censimento di bufali d’acqua, il prezzo del riso, l’infiammabilità dei tetti di paglia. Il numero delle vittime. Il tasso di uccisioni. La densità del cervello dei contadini. Il peso del cuore di un essere umano. Un venerdì del 1967, gli uomini di McNamara inserirono le ultime schede perforate nelle fauci dell’enorme computer e gli fecero una domanda: «Quando vinceremo in Vietnam?» La macchina si mise a ronzare, le luci lampeggiarono. Ronzò e lampeggiò per tutto il fine settimana. Lunedì gli uomini di McNamara tornarono. Il vassoio di uscita conteneva una sola scheda perforata. Diceva: «Avete vinto nel 1965».
Futurologia postmoderna
Gli storici e le storiche della futurologia situano più o meno in questo periodo la “svolta critica” che portò al fallimento del paradigma della previsione. La svolta coincise con quella rivoluzione scientifica ancora poco studiata che si ebbe a cavallo tra gli anni ’60 e ’70 del Novecento, quando emersero la teoria del caos, la scienza dei sistemi complessi, l’ecologia, e più in generale la messa in discussione degli ultimi residui del pensiero positivista, da cui emerse la svolta postmodernista nelle scienze sociali: si iniziò a prendere coscienza del fatto che ogni discorso sul futuro non può mai essere del tutto neutrale e oggettivo, ma sempre influenzato da posizioni culturali, valori e convinzioni ideologiche. Ossip K. Flechtheim, un politologo tedesco che durante il suo soggiorno negli Stati Uniti, negli anni ’40, aveva coniato il termine “futurologia”, si trovò vent’anni dopo nella difficile condizione di difendere la serietà della sua disciplina. Certo, scrisse, se per “scienza” intendiamo solo le scienze esatte, allora non possiamo affermare che la futurologia lo sia. D’altra parte, se invece per “scienza” intendiamo «un sistema di conoscenza organizzata concernente i fatti di un particolare soggetto», allora la futurologia può essere considerata «una scienza non tanto diversa da alcune discipline classiche (per esempio la musicologia) oppure da alcune scienze sociali (per esempio la storia o la scienza politica)».
Per filosofi come Popper, era un po’ pochino: Popper combatté per tutta la vita contro le tesi dello storicismo, secondo cui il futuro sarebbe predeterminato e, come tale, prevedibile, e contrappose a questa visione la sua idea di un futuro aperto, «nel senso che in ogni momento esistono infinite possibilità di quanto accadrà nell'immediato futuro». Va da sé che, se il futuro della società umana è aperto e non determinato dal passato, il principio popperiano del falsificazionismo, secondo cui un’affermazione è scientifica se è falsificabile (per esempio, se dico che domani il Sole non sorgerà e invece sorge, allora la mia affermazione è stata falsificata), non può applicarsi alla realtà sociale, perché il suo futuro dipende strettamente dall’azione umana nel presente.
Qui si situa il concetto delle “profezie che si autoavverano”, che erano conosciute già nel mondo antico, in culture cioè che credevano nel determinismo e nel fato, ma che diventano fondamentali nel modello di futuro aperto, perché dimostrano che l’avveramento di una delle infinite possibilità del futuro dipende dalla nostra capacità di farla avverare. Lo storicista affermerà che una crisi economica sia un fatto prevedibile perché obbedisce a regole ferree dell’economia; il teorico del futuro aperto asserirà invece che, per quanto sia possibile assegnare un’alta probabilità che l’economia vada in recessione da qui a un anno, la sua effettiva realizzazione dipenderà da azioni umane, per esempio quella che spinge i risparmiatori a mettere in atto strategie per tutelarsi dalle conseguenze della recessione che però, come conseguenza, avverano la previsione della crisi economica.
Alla ricerca di un nuovo paradigma
Di fronte a questi limiti, cosa possiamo allora affermare del futuro? Questa domanda divenne sempre più rilevante nel periodo a cavallo tra gli anni ’60 e ’70, quando la visione occidentale del progresso iniziò ad andare in crisi e divenne urgente capire le direzioni che la civiltà tecnologica avrebbe assunto: la crisi energetica sarebbe durata a lungo? Ci sarebbe stato a breve un picco del petrolio? Esistevano dei limiti alla crescita continua della popolazione? Il Terzo mondo (come allora era chiamato) avrebbe imboccato la strada della “modernizzazione” seguendo il modello occidentale o invece un modello autonomo di sviluppo? L’impatto della civiltà industriale sulla biosfera avrebbe messo a repentaglio, sul lungo termine, la sopravvivenza della specie umana? Domande che all’epoca erano all’ordine del giorno, e che stimolarono iniziative come la Commissione per l’Anno 2000 negli Stati Uniti e il Club di Roma, fondato in Italia dal manager Aurelio Peccei insieme a personalità di tutto il mondo per cercare di risolvere la “problematica globale”.
Per riuscirci occorreva un nuovo paradigma che abbandonasse l’ambizione della previsione ma fosse in grado di conservare una certa capacità di comprendere le direzioni del futuro. Il filosofo francese Bertrand de Jouvenel, che pure aveva conosciuto i futurologi americani, suggerì di abbandonare quel termine. Nel suo influentissimo L’arte della congettura (1964), de Jouvenel affermò una verità che oggi diamo per scontata ma che, come si è visto finora, fino a pochi decenni fa non lo era: passato e futuro sono due cose molto diverse, perché il passato «è la sede dei fatti sui quali non c’è più la possibilità di intervenire» ma è anche, «nello stesso tempo, la sede dei fatti conoscibili», laddove l’avvenire è il campo dei futura, delle possibilità aperte:
È campo di libertà perché sono libero di concepire ciò che non è, purché lo collochi nell’avvenire; è campo di potenza, perché ho un certo potere di convalidare ciò che ho concepito (ma non qualunque cosa abbia concepito!) [...] D’altra parte l’avvenire è campo d’incertezza. Ciò che sarà non può essere attestato e controllato come se si trattasse di un fatto compiuto [...] . Può dunque sembrare una contraddizione in termini parlare di “conoscenza dell’avvenire”. In senso proprio solo i facta possono essere conosciuti, e noi abbiamo conoscenze positive solo per quel che riguarda il passato.
Se quindi la futurologia va respinta, perché contiene in sé l’idea di una “scienza dell’avvenire” che invece si è dimostrata impossibile da ottenere, cosa ci resta? Per Jouvenel, se il futuro non può essere previsto, può essere almeno congetturato; ma ciò che distingue la congettura dalla previsione è, da un lato, il fatto che la congettura ha come suo esito i futuribili, ossia un vasto insieme di futuri possibili, di scenari più o meno alternativi, e non una previsione secca, un singolo output; dall’altro, la consapevolezza che la trasformazione di quel futuribile da potenza ad atto dipende in buona parte dall’azione umana.
Oggi questo concetto è integrato nel più importante modello che riguarda il nostro futuro: quello che descrive i possibili scenari dei cambiamenti climatici elaborato dagli esperti dell’IPCC, il panel delle Nazioni Unite sul clima. Anche qui non troviamo un’unica previsione, ma una serie di scenari; e questi scenari sono costruiti incrociando le ipotesi di concentrazioni di gas serra in atmosfera con le scelte socio-politiche compiute dai governi. Ciascuno scenario descrive un possibile futuro: quello della crescita sostenibile fondata sull’uguaglianza (SSP1), quello a sviluppo intermedio (SSP2), lo scenario dei “neo-nazionalismi” in competizione tra loro (SSP3), un futuro di crescenti disuguaglianze (SSP4), infine lo scenario della crescita continua alimentata dai combustibili fossili (SSP5).
Progenitore di questo modello fu World3, elaborato nel 1972 su iniziativa del Club di Roma da un gruppo di ricerca del MIT guidato da Donella e Dennis Meadows: World3 era una simulazione del futuro del mondo al 2100 che sintetizzava la “problematica globale” di Peccei in cinque componenti chiave: popolazione, disponibilità di cibo, stock di risorse non rinnovabili, inquinamento e produzione industriale. Utilizzando le tecniche della dinamica dei sistemi per simulare l’interazione tra queste componenti in un sistema complesso, World3 sviluppò quattro scenari, tre dei quali prevedevano il collasso della civiltà intorno alla metà di questo secolo. Solo in uno la problematica globale veniva risolta attraverso un cambio di passo dell’umanità, consistente nell’assunzione di politiche che oggi chiamiamo di “sviluppo sostenibile”. Le analisi, pubblicate nell’influente Rapporto sui limiti dello sviluppo, produssero un enorme dibattito e mostrarono per la prima volta quanto il futuro dipenda dall’agire umano.
Un futuro a tre dimensioni
In coincidenza di questa svolta, la futurologia decise di rifondarsi: nel 1973, nella sede dell’istituto Futuribles di Parigi guidato da Bertrand de Jouvenel, fu fondata la World Futures Studies Federation, che faceva seguito a una serie di conferenze mondiali sul futuro iniziate nel 1967 a Oslo. La nuova organizzazione, di cui promotori furono anche diversi italiani, in testa Eleonora Barbieri Masini, sociologa e “madre” dei moderni studi sul futuro, decideva di affidare alla disciplina un nuovo nome: Futures Studies, che contiene da un lato il concetto di pluralità dei futuri, dall’altro quello di studi interdisciplinari e non più di scienza (cadeva infatti il suffisso -logos). Condivideva infine la proposta fatta a Oslo da Robert Jungk, un giornalista austriaco i cui influenti reportage sono ancora oggi pubblicati (tra tutti Gli apprendisti stregoni, primo studio sul progetto Manhattan, e Il futuro è già cominciato, opera critica della futurologia cibernetica americana): superare l’approccio singolare al futuro e guardare invece alla triplice dimensione del probabile, del possibile e del preferibile. Oggi quell’invito è stato incorporato nelle politiche europee: il recente GreenComp, il Quadro europeo delle competenze per la sostenibilità, afferma l’esigenza di una alfabetizzazione al futuro che consiste nell’«immaginare futuri sostenibili alternativi, prospettando e sviluppando scenari alternativi e individuando i passi necessari per realizzare un futuro sostenibile preferito».
Immaginare anziché prevedere: non è forse un fallimento, questo, rispetto all’ambizione della previsione scientifica del futuro? Se alla previsione si sostituisce la visione, allora dobbiamo rinunciare a ogni pretesa di un discorso serio sul futuro? Lasciare tutto nelle mani della fantasia? Questa è probabilmente la prima reazione che una mente scientifica e razionale può opporre all’evoluzione moderna degli studi sul futuro. Non più una scienza, come auspicava Flechtheim, ma una mera “arte della congettura”, come titolava Bertrand de Jouvenel nel suo libro? Eppure, non dovremmo così facilmente svalutare il concetto di “immaginazione”, se utilizzato in modo sistematico. Gli attentati dell’11 settembre non sono stati forse definiti “un fallimento dell’immaginazione” dalla commissione di esperti incaricata di analizzare come furono possibili? Agli analisti non mancavano i dati necessari per prevedere uno scenario in cui terroristi dirottano aerei per farli schiantare sugli edifici e per trovare un semplice espediente per impedire questo scenario; ma, da soli, quei dati non permisero di immaginare una tale eventualità finché non fu troppo tardi.
Il mondo contemporaneo è pieno di fenomeni ampiamente prevedibili che però non siamo in grado di impedire a causa del fallimento d’immaginazione, dalle crisi economiche alle pandemie fino alle guerre recenti. Nassim Nicholas Taleb, che allo studio del futuro ha dedicato un’opera molto nota, Il cigno nero (2007), scritta all’inizio del crack che portò alla Grande recessione, ci ha spiegato un fatto molto importante: «Il problema della previsione è un po’ più sottile. Deriva principalmente dal fatto che viviamo nell’Estremistan, non nel Mediocristan. Gli esperti di previsione sono in grado di prevedere l’ordinario ma non l’irregolare, ed è qui che alla fine falliscono».
Di fronte a questa sfida, in un’era di estremi che rende gli studi sul futuro più urgenti che mai, il compito di chi si occupa di futuro è quello di avvalersi dei più rigorosi strumenti per la previsione di ciò che possiamo prevedere, e dei più vari strumenti dell’immaginazione per “pensare l’impensabile” (un ossimoro coniato dal futurologo Herman Khan negli anni ’50) e perseguire il preferibile. Ancora non pienamente raccolto è l’invito fatto quasi cinquant’anni fa da Carlo Huber, filosofo gesuita del gruppo di Previsione sociale guidato da Eleonora Barbieri Masini alla Pontificia Università Gregoriana di Roma:
[D]alle condizioni, le conseguenze si deducono in forza di leggi conosciute. La condizione per una desiderata conclusione non si deduce, si inventa, si trova. Abbiamo perciò bisogno, per la futurologia, di una logica dell’invenzione, cioè di certe procedure coerenti che permettano di trovare con certezza e con facilità condizioni per desiderate conseguenze.
Questa è forse una delle più importanti sfide degli studi sul futuro per il XXI secolo.
ROBERTO PAURA è presidente dell’Italian Institute for the Future, co-fondatore dell’Associazione dei Futuristi Italiani e direttore di Futuri, rivista italiana di futures studies. Come giornalista scientifico e culturale collabora con diverse testate, tra cui Query, ed è vicedirettore di Quaderni d’Altri Tempi. Il suo ultimo libro è Occupare il futuro. Prevedere, anticipare e trasformare il mondo di domani (Codice, 2022).