Scritto da Giacomo Bottos
16 minuti di lettura
Alessandro Vespignani, Sternberg Family Distinguished Professor di fisica, informatica e scienze della salute presso la Northeastern University di Boston dove dirige il Network Science Institute, è uno dei massimi esperti mondiali di sistemi complessi, scienza delle previsioni ed epidemiologia computazionale. Oltre che di numerose pubblicazioni scientifiche è autore di due recenti libri: I piani del nemico. Cos’è e come funziona la scienza delle previsioni in tempo di crisi, edito da Rizzoli e L’algoritmo e l’oracolo. Come la scienza predice il futuro e ci aiuta a cambiarlo, scritto insieme a Rosita Rijtano e edito per il Saggiatore. In questa intervista, Vespignani chiarisce alcuni concetti alla base della scienza delle previsioni e dei sistemi complessi e riflette sugli interrogativi suscitati dallo straordinario sviluppo dei modelli computazionali.
Quella di prevedere il futuro, e di avere gli strumenti per controllarlo e determinarlo, è un’ambizione che l’umanità ha coltivato fin da tempi remoti. Nel passato, questo desiderio dava forma a un complesso insieme di riti e di pratiche che strutturavano poteri e sistemi sociali. Negli ultimi decenni, questa speranza sembra aver acquisito basi più solide e concrete grazie al progressivo sviluppo di modelli computazionali che sembrano effettivamente in grado di anticipare, entro certi limiti, le evoluzioni future di sistemi complessi di natura fisica e sociale. Quali sono i presupposti teorici, da un lato, e tecnologici, dall’altro, che hanno consentito questa evoluzione?
Alessandro Vespignani: Affrontando il tema delle previsioni si può, a mio avviso, partire da un aspetto che può sembrare eccentrico ma non lo è completamente: l’ossessione per il controllo che caratterizza l’essere umano. Se si guarda al cammino della scienza, la pulsione umana per il controllo emerge con chiarezza, fin da quando i nostri antenati vivevano nelle caverne e, radunandosi intorno al fuoco, cercavano di trovare modi per prevedere e controllare le minacce che li circondavano. La predizione rappresenta, del resto, proprio una delle forme più sofisticate di controllo: arrivare a conoscere il domani per provare a controllare il futuro. Un aspetto della nostra storia che ha avuto lunga durata e ha vissuto all’interno di riti complessi e di strutture che poi sono diventate anche politiche e di governo. Con il grande cambio di passo imposto dallo sviluppo delle scienze naturali, invece, si comincia a prevedere in modo diverso e si intraprende un cammino straordinario – iniziato con la fisica e poi estesosi agli altri campi del sapere – tanto che oggi nessuno si stupisce più della nostra capacità di prevedere le eclissi di Luna o di Sole in maniera straordinariamente precisa e con un’enorme anticipazione temporale. Anche in altre aree come la meteorologia, dove ovviamente i tempi previsionali devono essere molto più brevi, si è compiuto un enorme progresso che oggi garantisce solidi risultati. Più in generale, nel nostro mondo le previsioni sono ubique: ad esempio, un aereo prima di essere costruito esiste all’interno di un computer, dove viene progettato e dove si eseguono previsioni sulla sua futura operatività, a partire dalla struttura atomica dei materiali che andranno a comporlo. Ma c’è stata una dimensione – quella più importante – che per tantissimo tempo è sfuggita ai nostri tentativi di previsione: si tratta di tutti quei campi in cui l’uomo è parte del sistema. La previsione di ciò che riguarda gli individui si va a scontrare, infatti, con una barriera concettuale che concerne il libero arbitrio e le infinite dimensioni psicologiche e cognitive dell’essere umano. A lungo si è infatti ritenuto che non fosse possibile fare previsioni a livello di individui per l’impossibilità di “ingabbiare” l’uomo all’interno di equazioni o modelli previsionali. Oggi, comunque, tendenzialmente non si cerca di focalizzarsi sul singolo individuo – come nel campo della meteorologia non si cerca di prevedere il comportamento del singolo atomo – ma si guarda al sistema sociale come un aggregato. A questo livello è effettivamente possibile cominciare a fare previsioni sulle evoluzioni del sistema sociale e sulle interazioni della società con altri fenomeni: si pensi alla pandemia, ma anche a numerosi altri aspetti che riguardano l’economia e la politica. L’altra grande barriera allo sviluppo di questo tipo di previsioni è sempre stata quella della disponibilità dei dati. Una barriera molto rilevante perché, mentre è relativamente agevole svolgere esperimenti controllati in laboratorio esaminando come si comportano atomi e molecole, cercando poi di disegnare una fisica di questi sistemi anche a livello aggregato, tutto ciò in ambito sociale risulta estremamente più complesso. Proprio su questo versante interviene la svolta degli ultimi vent’anni, la cui chiave è il cambio di passo tecnologico, che permette di acquisire una quantità di dati sull’atomo sociale – cioè su ciascuno di noi – tale da aprire possibilità completamente nuove per il mondo previsionale. Noi tutti siamo ormai immersi in una massa di tecnologie pervasive: pensiamo agli smartphone che registrano i nostri spostamenti e le nostre attività o ai dispositivi wearable che misurano i nostri parametri corporei e sanitari. Negli ultimi anni sta peraltro avvenendo qualcosa di ancora più incisivo, perché la raccolta di dati non si riferisce più solo alla nostra dimensione fisica ma, in qualche modo, anche alla sfera dei nostri pensieri: analizzando ciò che avviene sui social network è infatti possibile ricavare informazioni sulle preferenze e le opinioni di milioni di persone. Questa enorme mole di dati, per quanto non strutturati e dunque problematici da utilizzare, rappresenta una straordinaria risorsa dal punto di vista scientifico, prima ancora che economico, per disegnare le mappe del futuro.
Come evidenziava, questa esplosione nella quantità di dati disponibili, ha rappresentato un vero momento di svolta, al punto da generare l’idea che a partire dai dati fosse possibile fare ogni cosa. Paradigmatico di questo approccio è il famoso articolo di Chris Anderson The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, nel quale si teorizzava una sorta di superamento della teoria a vantaggio di un modo di procedere esclusivamente basato sulla ricerca di correlazioni a partire dai Big Data. Le cose stanno davvero così? Oppure la teoria riveste ancora un ruolo centrale?
Alessandro Vespignani: Questa è una domanda straordinariamente importante, ed è vero che da oltre dieci anni ci si confronta con una tendenza basata sull’idea che con l’analisi dei Big Data sia possibile ottenere tutte le risposte cercate. L’articolo di Anderson, infatti, si concludeva proprio affermando che «è tempo che la scienza impari da Google», una frase certamente provocatoria e disturbante ma che può anche essere uno stimolo per importanti riflessioni. Su questo punto però preferisco sempre citare Henri Poincaré che invitava a prestare attenzione, affermando che «Lo scienziato deve fare ordine: la scienza si fa con i fatti così come una casa si fa con i mattoni, ma l’accumulazione dei fatti non è scienza più di quanto un mucchio di mattoni non sia una casa». L’uso dell’intelligenza artificiale, in combinazione con la grande disponibilità di dati, può oggi rappresentare un passaggio importante su questo punto, occorre però sottolineare come gli algoritmi spesso diventino delle “scatole nere” che non permettono di avere una reale comprensione dei fenomeni, perché forniscono risposte ma non spiegano il modo in cui vi giungono. Alcuni miei colleghi – appellandosi al famoso paradosso di Michael Polanyi – dicono che in qualche modo si tratta di un esempio di tacit knowledge. Per spiegare cosa si intende con conoscenza tacita è possibile ricorrere ad un semplice esempio: per insegnare a un bambino ad andare in bicicletta non occorre mettersi alla lavagna a scrivere le equazioni della fisica ma conviene farlo montare direttamente in sella. Il nostro cervello, infatti, usa le leggi della fisica anche se non le sa esplicitare. Si dice che all’interno di questi algoritmi avvenga qualcosa di analogo: gli algoritmi sanno cosa trovano e perché, ma siamo noi che non riusciamo a dialogare con loro. Questo è, da una parte, molto pericoloso perché non riuscire ad accedere alla scatola nera algoritmica può rappresentare un problema sotto diversi aspetti, anche etici. Ogni algoritmo si nutre, infatti, di dati precisi e quindi già a questo livello esiste una forma di bias che influenza le risposte. Dall’altra parte, le risposte che otteniamo spesso non ci bastano: per fare solo un famoso esempio si pensi a Google Flu Trends, un algoritmo che in base alle ricerche degli utenti su Google riusciva a prevedere l’andamento dell’influenza negli Stati Uniti, fornendo previsioni su quello che sarebbe successo la settimana prossima o nelle due settimane successive. L’algoritmo non spiegava però i motivi di queste previsioni. Noi in realtà vogliamo sapere di più, vogliamo conoscere le cause alla base di un determinato andamento, capire se non ci stiamo vaccinando abbastanza, se la stagione influenzale è particolarmente severa e per quali motivi, qual è la trasmissibilità del virus, qual è l’immunità residua e tanti altri aspetti legati alla diffusione influenzale. Oltre ai dati, dobbiamo quindi fare buon uso della teoria che permetta di capire i meccanismi alla base dei fenomeni. Si tratta di un punto fondamentale e, per parafrasare l’articolo di Anderson, sarebbe il caso di dire: “la teoria è morta, viva la teoria!”. Oggi è importante “tornare alla teoria” e spesso cerco di ribadire come, ad esempio, la teoria dei sistemi complessi sia uno degli elementi fondamentali della nostra comprensione del mondo collettivo dei sistemi sociali e quindi anche della nostra capacità di prevedere il futuro. I sistemi complessi sono infatti quelli che ci mostrano come l’interazione di un’enorme quantità di agenti che sembrano disordinati, o che paiono seguire solamente una loro prospettiva locale, possano dare vita a fenomeni collettivi che possono essere previsti e compresi.
Un elemento che può colpire chi si avvicina per la prima volta a queste tematiche è la grande eterogeneità di ambiti ai quali queste metodologie possono essere applicate, spaziando – come abbiamo detto – dal mondo naturale a quello sociale. Cosa comporta questo in termini di interdisciplinarietà e dialogo tra discipline diverse? E inoltre, quali specificità e caveat vanno introdotti nel momento in cui questi modelli vengono impiegati per affrontare questioni di carattere umano e sociale?
Alessandro Vespignani: Si tratta di avanzare cercando di bilanciare due approcci, contemperando, da una parte, l’universalità della comprensione dei sistemi complessi e, dall’altra, la specificità che ogni sistema presenta. La specificità deriva dai meccanismi che agiscono normalmente all’interno del sistema cioè l’interazione, ad esempio, tra società e biologia quando parliamo di epidemie o tra società e conoscenza quando parliamo di contagio sociale dell’informazione o di fenomeni politici. Ci sono però alcuni elementi che possono essere guardati più da lontano per cercare di ricavare dei principi che siano più universali. Ad esempio, la teoria dei sistemi complessi è applicabile quando vi è un grande numero di agenti che interagiscono: guardando ad un singolo agente non riusciremmo a comprendere il sistema come fenomeno collettivo. Ovviamente i meccanismi cambiano a seconda del sistema e quindi diventa fondamentale riuscire a capire ciò che è valido rispetto ai diversi sistemi, avere una teoria di quei meccanismi e poi riuscire a comporre insieme questi pezzi per capire l’evoluzione completa del sistema. Questo ragionamento ci porta all’aspetto dell’interdisciplinarietà, perché condurre una ricerca con queste caratteristiche comporta il lavoro di squadre che, dal punto di vista scientifico, possano impiegare strumenti di conoscenza molto diversi. Da una parte c’è la conoscenza specifica del sistema: ad esempio, se parliamo di pandemie, sono necessarie le competenze di epidemiologi e virologi per conoscere i meccanismi di trasmissione del contagio e il tempo di incubazione del virus. Ma occorrono anche gli studi di popolazione, gli strumenti della statistica e la componente dei sistemi dinamici e poi serve chi trasferisca queste grandi rappresentazioni matematiche di quello che succede nel sistema all’interno di computer che riescano ad elaborare le informazioni e a produrre le previsioni. Quindi sono richieste le competenze di fisici, informatici e ingegneri e inoltre, naturalmente, devono entrare in gioco gli scienziati sociali per riuscire a cogliere il fenomeno delle nostre interazioni cognitive con il mondo circostante. Appare quindi evidente come in questi campi parlare di scienza come attività del singolo scienziato sia fuorviante: questo tipo di ricerca oggi è condotta da squadre di persone e l’abbattimento dei muri disciplinari è estremamente importante. Ovviamente ci sono anche studi che richiedono un lavoro verticale e ci saranno sempre attività molto specifiche, ma anche queste saranno sempre più inserite in una visione collettiva della nostra ambizione di comprendere i sistemi e il mondo intorno a noi.
Venendo nello specifico al fenomeno della pandemia, il lavoro di équipe ha effettivamente svolto un ruolo fondamentale nello sviluppo dei modelli utili a simulare i possibili scenari futuri di sviluppo del contagio. In particolare, anche il gruppo da lei diretto ha portato avanti un lavoro molto importante in questo quadro. Il suo ultimo libro, I piani del nemico, si occupa proprio di queste tematiche, riproponendo e contestualizzando quella metafora bellica spesso usata durante il periodo pandemico. Quale significato assume quest’ultima in relazione ai compiti dell’epidemiologia computazionale? Si può distinguere un periodo di pace e uno di guerra? Cosa si intende con queste espressioni?
Alessandro Vespignani: In epidemiologia computazionale si dice, in effetti, che ci sono un tempo di pace e uno di guerra. Quando non è in corso un’emergenza epidemiologica ci si dedica al lavoro scientifico di comprensione di base, all’avanzamento degli strumenti tecnologici e teorici della nostra comprensione di come evolvono un’epidemia o una pandemia. Quando invece si entra in quello che definiamo il tempo di guerra il nostro lavoro diventa estremamente operazionale, focalizzato sul capire il dove, il come e il quando della pandemia. Nel combattimento contro il virus il ruolo dell’epidemiologia computazionale è paragonabile a quello dell’intelligence, fondamentalmente si tratta di cercare di anticipare le mosse del nemico. E tengo molto a specificare che la nostra riconoscenza deve essere infinita per chi combatte il nemico in prima linea e cioè il personale sanitario e i medici che rischiano la vita e che talvolta la perdono, come abbiamo visto durante molte emergenze epidemiologiche, incluso il Covid-19. Quello che noi cerchiamo di fare è aiutare, attraverso i nostri strumenti previsionali, la risposta del personale sanitario alla pandemia. Quella bellica è una metafora a cui occorre sempre prestare particolare attenzione – e ho affrontato questo tema nel libro – perché può diventare scontata o essere fraintesa ma, a mio avviso, resta molto importante per far capire come in una pandemia la scala della risposta che si deve mettere in campo è equivalente ad uno sforzo bellico. Durante una pandemia, ci troviamo davanti a minacce che sono globali e che coinvolgono l’intera società e, quindi, necessitano di una risposta che dovrebbe essere altrettanto globale e coordinata e che dovrebbe mobilitare risorse enormi. Come nella guerra il nemico agisce secondo uno schema evolutivo che cerca di ottimizzare e usare a proprio vantaggio le caratteristiche delle nostre società e le nostre mosse – ad esempio i modi in cui viaggiamo e ci muoviamo nel mondo – per massimizzare la propria diffusione. Un altro aspetto per cui è importante pensare ad una pandemia come al combattimento contro un nemico è che ciò ci permette di avere sempre chiaro chi è il nemico. Il nemico è – e deve restare – il virus, mentre purtroppo con il Covid-19 ci siamo ritrovati più volte, soprattutto nelle fasi successive alla prima ondata, a combattere tra di noi, frammentandoci in fazioni, divise sulle agende da seguire. Richiamare la metafora bellica può servire proprio a riacquisire la consapevolezza di chi è che ci sta minacciando e a ricordare la necessità di presentare sempre un fronte unito rispetto alla minaccia.
Ogni guerra presenta anche una dimensione informativa e nella guerra contro il virus uno dei più importanti elementi di debolezza sul piano mediatico e comunicativo è stato quello della discrasia tra il linguaggio e i tempi del discorso scientifico, da un lato, e quelli del sistema mediatico, dall’altro. Uno dei tasselli di questa dissonanza e incomprensione reciproca ha riguardato il nodo dell’incertezza. Le previsioni sull’evoluzione futura della pandemia venivano viste dal pubblico come dotate di certezza “scientifica”, mentre in realtà oltre a presentare un grado di incertezza strutturale erano per loro natura esposte ad una variabilità legata al tipo di risposte che sarebbero, o meno, state prese dal decisore politico. In che modo hanno inciso nel periodo pandemico queste e analoghe dinamiche comunicative?
Alessandro Vespignani: Uno dei grandi nodi della comunicazione durante la pandemia è derivato, in effetti, prima di tutto dalla mancanza di familiarità con le previsioni in un sistema che ha caratteristiche ben diverse, ad esempio, da quello meteorologico. Fare previsioni sullo sviluppo di un uragano non ne influenzerà la traiettoria, mentre quando si fanno previsioni su una pandemia si affronta un terreno in cui i nostri comportamenti e meccanismi di reazione hanno effetti cruciali. La previsione distrugge se stessa nel momento in cui scattano le reazioni che faranno cambiare la traiettoria dell’epidemia e da ciò deriva la necessità di un continuo aggiustamento. Questo è un elemento fondamentale, perché serve a capire le modalità di funzionamento delle previsioni nei sistemi che hanno una componente sociale. Si possono fare previsioni di breve periodo e scenari più complessivi. Le previsioni che riguardano una pandemia hanno orizzonti temporali limitati – da una a tre settimane – e anche sul breve periodo presentano delle incertezze che – come quelle meteorologiche – sono dovute alla nostra conoscenza incompleta delle condizioni del sistema e a molti altri elementi tecnici, incertezze da cui risultano quelle che comunemente vengono dette “forchette” intorno ai valori che pensiamo possa assumere il sistema nel futuro. Oltre a queste poche settimane le previsioni non possono spingersi, perché la previsione stessa di una pandemia dall’evoluzione disastrosa porterà a prendere misure di contrasto e quindi a cambiare profondamente l’evoluzione del sistema. In questi casi entra in gioco l’analisi di scenario che analizza l’evoluzione del sistema in base a condizionalità e assunzioni su quali politiche verranno messe in campo, su come cambierà il comportamento della società o su come muterà il virus. Sono scenari che non hanno una valenza previsionale ma mirano a fornire possibili mappe del futuro da impiegare come elementi di ragionamento per le istituzioni e i decisori. Gli scenari poi comprendono sempre quello che si chiama worst-case scenario, cioè lo scenario peggiore, quello in cui non si interviene e il sistema evolve in un quadro in cui il virus si muove incontrastato. Si tratta di uno scenario che per definizione non si realizzerà mai, ma lo si analizza perché rappresenta la pietra di paragone rispetto alla capacità delle mitigazioni che si metteranno in campo di modificare la traiettoria del sistema. Questo scenario serve anche, e soprattutto, per capire qual è il potenziale distruttivo del virus. Ad esempio, durante la pandemia influenzale del 2009 – la ben nota H1N1, ricordata anche come “influenza suina” – le misure di mitigazione non sono state paragonabili a quelle degli ultimi anni perché allora anche gli scenari peggiori non mostravano un quadro catastrofico o il crollo dei sistemi sanitari, come nel caso del Covid-19. La scarsa familiarità con questi meccanismi ha fatto sì che, durante la pandemia, si sia assistito ad una cacofonia di voci che rilanciavano previsioni e scenari – o presunti tali – senza alcuna coordinazione e in maniera indistinta e conflittuale. L’informazione ha inoltre ossessivamente sollecitato singole personalità – spesso prive di competenze adeguate – a formulare previsioni, invece di richiederle ad organizzazioni dotate di risorse adeguate. A livello globale si è avvertita fortemente la mancanza di strutture in grado di proporre un tipo di comunicazione univoca, non basata su un solo modello o su un solo punto di vista ma che elaborasse un consenso a partire da modelli e algoritmi differenti, esattamente come accade nella meteorologia. Su questo punto si è concentrato, per esempio, uno degli sforzi che noi abbiamo fatto negli Stati Uniti con i Centers for Disease Control and Prevention (CDC) per cercare di avviare un meccanismo, definito “sistema a hub”, dove una rete di centri e gruppi di epidemiologi computazionali lavorano per produrre quelle che vengono dette “previsioni di ensemble”, basate su un insieme di modelli e quindi in grado di ridurre il tasso di incertezza e anche di contrastare certe derive del sistema mediatico. Per quanto riguarda questo tipo di lavoro, l’epidemiologia computazionale ha raggiunto risultati importanti durante pandemia di Covid-19: ad esempio quando in Cina venivano dichiarate poche decine di casi i sistemi computazionali erano in grado di capire come le infezioni fossero invece decine di migliaia; oppure quando a metà febbraio poteva sembrare che il quadro in Europa fosse positivo l’epidemiologia computazionale mostrava come in realtà la pandemia fosse diventata inevitabile e lo faceva proprio perché riusciva a cogliere attraverso i dati quello che non si vedeva nel mondo reale e cioè l’enorme trasmissione del virus che – completamente non vista e non misurata – stava diffondendo la pandemia a livello globale. In seguito, l’epidemiologia computazionale ha svolto un ruolo fondamentale nel contribuire a capire molte delle parti più oscure di questo virus, dal numero di infezioni asintomatiche alle complicazioni legate alle mutazioni del virus e fino alla parte di ottimizzazione della distribuzione dei vaccini. Da questo breve riepilogo si può vedere bene come si tratti di lavoro con una forte componente operazionale e anche giocato sul “giorno per giorno”, ma che speriamo possa aver gettato le basi per ripartire dai traguardi raggiunti. Occorre sperare che sul piano della comunicazione non si torni più indietro e si evitino in futuro modalità non strutturate. Su questo stanno lavorando anche molti Paesi europei con l’obiettivo di creare centri di previsione e analisi dati per tutto quello che riguarda le emergenze epidemiologiche che siano molto più forti e molto più preparati.
Leggendo il suo libro e guardando all’esperienza della pandemia si coglie appieno la potenza di questi strumenti. Una potenza di cui, in realtà, ci si può rendere conto ogni giorno pensando al potere predittivo degli algoritmi che formulano suggerimenti personalizzati. Ma quali sono i lati oscuri di tutto questo, i rischi da cui ci si deve guardare?
Alessandro Vespignani: I rischi sono molteplici perché stiamo parlando di acquisire le chiavi della costruzione di mappe del futuro su cui ragionare e agire. Tali mappe, però, vanno valutate anche dal punto di vista etico. Bisogna chiedersi su cosa è giusto fare previsioni e su quali temi è auspicabile avere un controllo di cosa può succedere nel futuro. Alla crescita della capacità previsionale a livello sociale e politico corrisponde un enorme riequilibrio degli assetti del potere politico ed economico. Tornando al caso dei dati e delle previsioni in campo pandemico si capisce bene l’importanza dell’uso di algoritmi e modelli e della capacità di lettura del futuro. Queste previsioni incidono sulla carne viva delle persone e posso fare la differenza nel salvare vite umane. Se pensiamo, invece, all’e-commerce incontriamo il caso dei giganti tecnologici che dominano il mercato a discapito degli attori di dimensioni più ridotte. Chi controlla gli algoritmi dispone di un potere predittivo sui singoli individui e riesce a capire – forse anche prima di loro stessi – quali prodotti possono interessare loro e ne suggerisce l’acquisto. Questo è solo un esempio del grande potere di questo tipo di algoritmi e di come il loro sviluppo potrebbe mutare il mondo in cui viviamo. Dobbiamo quindi capire come muoverci in questo mondo e quali sono i limiti etici delle previsioni. Negli ultimi anni si è discusso molto del tema della privacy rispetto ai dati, ma si tratta solo di un aspetto di una questione più vasta. Quando i nostri dati – anche in maniera rispettosa della privacy – vengono trattati da algoritmi che riescono a leggerli in maniera molto sofisticata, per ricavarne previsioni su individui o trend futuri, sono già in corso processi che possono toccare altri limiti etici. Fino a che punto è giusto prevedere il futuro? In che modo? Fino a quando? A quale livello di granularità: il singolo individuo, la società di un Paese? Su una questione così complessa si spalanca un enorme territorio di interrogativi scientifici e si ripropone il tema dell’interdisciplinarietà. Non si tratta infatti di un campo di applicazione solo per fisici, biologi, epidemiologi o scienziati politici ma anche per giuristi e filosofi, perché tocca sfere molto delicate di quello che è il nostro mondo e il rapporto con noi stessi e la società. Spesso quando si affrontano queste tematiche si fa riferimento ad un futuro lontano, ma è importante sottolineare come invece questi fenomeni siano già pienamente in corso e il tempo per analizzarli e capirli non è molto. Questo è vero anche per l’intelligenza artificiale, già superata dall’intelligenza aumentata: siamo già in simbiosi con la macchina, ognuno di noi attraverso lo smartphone, in questo momento, accede a informazioni e ad un potere computazionale che è mediato da algoritmi. I nostri stessi dati permettono all’algoritmo di cucirsi addosso a noi come un vestito e, allo stesso tempo, l’algoritmo ci restituisce cose che a noi fanno molto comodo. Si tratta di una simbiosi – l’algoritmo senza i dati che noi generiamo non riesce a migliorare e noi allo stesso modo senza queste macchine avremmo una vita meno facile –. Ci siamo fusi con la macchina, non come in certi film di fantascienza dove si vedono impianti di chip corporei, ma è ormai comune l’esperienza che in assenza del proprio smartphone le persone provano un bisogno quasi fisico, si sentono quasi come se mancasse un pezzo del proprio corpo. Nel quadro di queste evoluzioni, con le mappe del futuro che noi creiamo quando facciamo previsioni sulle epidemie – ma anche sulla politica e sui movimenti sociali – è come se la società acquisisse una capacità di guardare se stessa che è completamente nuova. È una forma di intelligenza collettiva che contempla i diversi possibili futuri esattamente come i singoli individui analizzano i possibili risultati delle azioni che possono compiere, o non compiere, nella propria vita. Sono evoluzioni che suscitano interrogativi importanti e affascinanti, che vanno al di là delle mie dirette competenze disciplinari, e che per questo richiedono l’ampia collaborazione interdisciplinare di saperi diversi. Rispondere a queste domande richiede un grande sforzo, ma è fondamentale per percorrere con consapevolezza la strada che abbiamo davanti.
In relazione a questo, c’è un problema di consapevolezza nella società e nel dibattito pubblico su questo insieme di fenomeni? E nel caso, come lo si può affrontare?
Alessandro Vespignani: Questa è forse la domanda chiave. La pandemia è stato un esempio della mancanza di consapevolezza, da parte della classe dirigente e dei decisori, di come usare questi metodi e questa capacità previsionale. Non c’è stata la capacità di gestire l’incertezza e il rapporto con una previsione che non è visualizzabile con un’immagine come nella meteorologia, ma a cui corrisponde invece un’analisi numerica. Questo è stato sicuramente un elemento importante. Allargando lo sguardo alla società nel suo complesso ci accorgiamo di come, in generale, ci sia un’enorme mancanza di conoscenza e di alfabetizzazione scientifica e, per così dire, “numerica”. La nostra società è carente di percorsi formativi adeguati alla complessità del presente e che permettano di capire il valore della scienza e delle capacità tecnologiche dal punto di vista dell’impatto sociale. Un buon grado di conoscenza scientifica non viene spesso considerato socialmente importante allo stesso livello rispetto ad una buona cultura di impianto umanistico. C’è una profonda mancanza di sensibilità e di consapevolezza sui temi scientifici. Occorrerebbe, innanzitutto, incrementarla per pensare di comprendere come creare un mondo che usi queste tecnologie in maniera corretta e per generare un impatto positivo, superando le numerose zone d’ombra che esistono oggi. Dobbiamo essere consci che questi algoritmi sono già con noi, che noi gli cediamo intelligenza e che a loro volta ci restituiscono altre forme di intelligenza. Ma occorre fare in modo che tutto questo si traduca, a livello sociale, in una capacità di guardare al futuro in una maniera che non sia deterministica ma nella quale la lettura delle mappe sia un momento di un percorso sul quale noi stessi decidiamo di metterci in cammino.