Scienza, dati, decisione. Intervista a Walter Quattrociocchi
- 25 Gennaio 2021

Scienza, dati, decisione. Intervista a Walter Quattrociocchi

Scritto da Giacomo Bottos

12 minuti di lettura

Questo contributo è tratto dal numero cartaceo 3/2020, dedicato al tema delle “Piattaforme”. Questo contenuto è liberamente accessibile, altri sono leggibili solo agli abbonati nella sezione Pandora+. Per ricevere il numero cartaceo è possibile abbonarsi a Pandora Rivista con la formula sostenitore che comprende tutte le uscite del 2020 e del 2021. L’indice del numero è consultabile a questa pagina.

Walter Quattrociocchi è Professore associato all’Università la Sapienza di Roma dove ha fondato il Center of data science and complexity for society. È inoltre noto per una serie di lavori pionieristici su echo-chamber e confirmation bias. In questa intervista abbiamo approfondito questi concetti in relazione alle piattaforme digitali e al rapporto tra disintermediazione, scienza e politica, discutendo anche il ruolo dei Big Data nella ricerca scientifica e nell’analisi delle dinamiche sociali nel contesto dell’attuale pandemia.


Che definizione darebbe di piattaforma? 

Walter Quattrociocchi: Una piattaforma è uno strumento che mette in comunicazione orizzontale mondi diversi. Vi sono molti tipi di piattaforme: piattaforme social, piattaforme informative… Per comprendere il concetto di piattaforma può essere utile risalire alle origini di Internet, che nasce come progetto militare con l’obiettivo di destrutturare la centralizzazione, per rendere più sicura la distribuzione dell’informazione. Questo crea un effetto di destrutturazione molto marcato dell’ordine gerarchico: rispetto ad una architettura concentrata all’interno di un unico punto se ne determina invece una più distribuita e resiliente. Questo cambiamento crea una serie di effetti a cascata: nel momento in cui ogni interazione che avviene su Internet diventa orizzontale, anche un insieme di processi epistemici mutano essendo influenzati da questa ‘piatta-forma’.

 

La grande diffusione della piattaforma come modello tecnologico e organizzativo è secondo lei da ricondurre esclusivamente alla concezione originaria della rete, a cui abbiamo accennato, oppure influisce rispetto a questo fenomeno l’emergere di bisogni ed esigenze specifiche della fase storica in cui ci troviamo?

Walter Quattrociocchi: Si tratta, a mio avviso, di una combinazione dei due fattori. Da un lato come abbiamo accennato l’architettura si presta molto bene, dall’altro vi è una tendenza fortemente umana a ricercare una connessione con il proprio simile, analogamente alla tendenza secondo cui il cervello privilegia le sinapsi già strutturate, in modo da consumare meno energia. Tra queste due dimensioni vi è una sinergia molto forte e non è facile dire quale dimensione domini sull’altra. Vi è un effetto endogeno, ma anche un effetto emergente, che nasce dall’incontro delle due esigenze, creando un circolo e una retroazione positiva tra i due elementi.

 

Una critica spesso formulata nei confronti delle piattaforme tecnologiche riguarda il ruolo ibrido che esse assumerebbero. Questo assume forme diverse a seconda della tipologia di piattaforme. In generale tuttavia esse si pongono da un lato come mere infrastrutture di intermediazione e al contempo dall’altro come attori, come parti in gioco in un mercato. Ad esempio i social network rivendicano da un lato il ruolo di contenitore neutro e dall’altro assumono, di fatto, una funzione assimilabile a quella di editori di contenuti. Un altro elemento di ambiguità riguarda l’uso dei dati nel modello di business proprio di queste realtà. In merito a questa problematica qual è la sua opinione? Questo carattere ibrido è un’ambiguità o un punto di forza?

Walter Quattrociocchi: L’argomento che tocchiamo è molto complicato. Le piattaforme – in particolare quelle social – hanno assunto un forte ruolo di aggregazione. Hanno agito in base a due spinte principali: allargare la platea dei fruitori e quella dei produttori di contenuti. È quindi esplosa sia la domanda sia l’offerta. Se prima dal giornalaio era possibile acquistare una decina di quotidiani adesso, oltre alla classiche testate, sono presenti anche blogger, influencer, personaggi, esperti, comunità e gruppi tematici. L’offerta si è differenziata in misura tale che è diventato semplice per ciascuno trovare la nicchia nella quale rifugiarsi. Questo cambiamento ha modificato il modello di business del mondo dell’informazione e della comunicazione. Anche prima la competizione aveva per oggetto l’attenzione degli utenti, ma questo avveniva a partire da una posizione privilegiata dei tradizionali soggetti editoriali. Esisteva un numero limitato di testate giornalistiche in ciascuna delle quali la redazione aveva una certa libertà di decidere cosa andasse riportato e come fosse opportuno trattare le notizie. Oggi la situazione è cambiata. Ci sono molti più soggetti che competono per l’attenzione dell’utente e talvolta alcuni di essi agiscono in maniera più efficace di quanto fanno i giornalisti. La crisi mediatica e informativa nasce proprio da questo problema. Il dibattito sulle fake news, tende a concentrarsi su un aspetto specifico, ignorando il fatto che è un intero modello di business ad aver soppiantato quello precedente: è aumentata la quantità di contenuti prodotti e la velocità con cui essi vengono diffusi. Questo causa un effetto a catena: i giornalisti sono meno pagati, spesso sviluppano una expertise ed una competenza minore, l’informazione prodotta genera meno attenzione e la qualità complessiva del dibattito pubblico diminuisce. Rispetto alla questione se le piattaforme siano da considerarsi o meno editori è in corso tuttora un complesso dibattito accademico, politico e legislativo. Se consideriamo editore colui che ha la responsabilità dei contenuti che vengono pubblicati possiamo davvero ritenere Facebook responsabile di ciò che viene postato dai suoi due miliardi di utenti? Non c’è una risposta immediata. Da parte del mondo giornalistico e dell’informazione vi è una forte spinta a responsabilizzare le piattaforme nel ruolo editoriale. Siamo di fronte ad una ambiguità dal punto di vista normativo: si tratta di una realtà ibrida, che va normata in maniera nuova. Da un lato una piattaforma non può essere responsabile del processo editoriale, perché ogni utente esprime la propria opinione. Dall’altro recentemente si sta assistendo, in determinati casi, all’applicazione da parte di alcune piattaforme di azioni di censura e di definizione di policy su ciò che può essere pubblicato o meno, dimostrando di avere quindi un approccio editoriale. Si tratta di un processo in evoluzione di cui non conosciamo ancora il punto d’arrivo.

 

Come e secondo quali percorsi sono nate le sue ricerche sulle piattaforme digitali? In che modo l’ampia disponibilità di dati ha contribuito ad aprire nuove metodologie di ricerca?

Walter Quattrociocchi: Ho una formazione da informatico: mi occupavo di algoritmi, di ottimizzazione e di scrittura di codici. In seguito arrivai ad affrontare un argomento per me particolarmente appassionante: i sistemi complessi. Allo sviluppo di questa materia aveva contribuito molto la scuola di fisica italiana: penso a nomi di grande calibro come Luciano Pietronero e Alessandro Vespignani. La mia formazione mi consentiva di dedicarmi con profitto a questo campo di studi. Nel contempo, affrontavo anche, sempre da un punto di vista esplorativo, lavori di psicologia sociale. Ad un certo punto mi resi conto di avere una ‘crisi di identità formativa’: avevo competenze di psicologia sociale, di informatica e di fisica. Quale poteva essere allora il mio percorso? Mi confrontai con Vespignani e trascorsi un periodo a Boston lavorando con lui. Vespignani si occupava allora di modelli epidemiologici e una delle componenti implicite in queste argomento riguardava le reazioni dell’essere umano e la componente sociale. Durante la mia permanenza a Boston, tra il 2012 e il 2013, seguivo anche le vicende politiche italiane. Guardavo interessato e con occhio ‘antropologico’ alle prime piattaforme politiche che stavano nascendo. Osservando in particolare il blog di Beppe Grillo e nello specifico i commenti e le reazioni degli utenti, notai alcuni fenomeni particolari. Questi tendevano a declinare gli avvenimenti politici in modo particolare, rappresentandoli ad uso e consumo del gruppo di riferimento.

Nascevano allora alcuni gruppi troll, intorno alla pagina Siamo la gente, il potere ci temono che si ponevano in contrapposizione e facevano satira a partire dalle caratteristiche del Movimento. Si poteva osservare quella tendenza populista, ‘gentista’, sgrammaticata che poteva considerarsi espressione di quella tendenza destrutturante di Internet a cui accennavamo. Se consideriamo Internet nel suo complesso non è difficile interpretarlo come una macchina che a partire da argomento ordinato e gerarchizzato lo ridicolizza e lo rende opera d’arte dadaista. In quel periodo eravamo nel pieno di questo processo di destrutturazione nel quale era facile scrivere qualsiasi cosa, vera, falsa o ludica che fosse. Molti di questi contenuti ridicoli, semplici o goliardici diventavano virali. Mi chiesi se non esistesse per caso un dataset che non pensavamo di avere. Proposi allora a Vespignani di avviare una ricerca per comprendere la dinamica di diffusione di questo tipo di informazioni. Lui fu d’accordo e quindi cominciammo questa indagine a partire dalle piattaforme social, che consentivano di ottenere questi dati in maniera veloce.

Se è vero che fenomeni come le echo-chamber e il confirmation bias erano stati, declinati in maniera diversa, oggetto di speculazione per secoli, quello che diveniva in quel momento per la prima volta possibile era misurare e modellare il fenomeno. Il 14 marzo 2014 venne pubblicato online il primo articolo su queste ricerche. Lo presentai in maniera un po’ goliardica scrivendo che gli scienziati avevano preso in giro i complottisti misurando come si comportavano e come reagivano alle informazioni false. Dopo pochi giorni, fummo ripresi dai principali media nazionali e internazionali. Quella formazione ibrida, che all’inizio era stata per me motivo di spaesamento, mi aveva permesso di interpretare questi fenomeni in una maniera coerente proponendo un’ipotesi che poi si è rivelata a tutt’oggi più sostanzialmente corretta, nonostante siano passati sei anni dal momento in cui è stata formulata.

 

Il suo gruppo di ricerca ha avuto un ruolo pionieristico nel lavoro su questi concetti di echo-chamber e di confirmation bias. Come ricapitolerebbe i principali risultati che avete raggiunto in questo ambito? 

Walter Quattrociocchi: All’inizio non comprendevamo fino in fondo che tipo di fenomeni stessimo osservando. Notavamo però alcune peculiarità. Da parte degli utenti vi era una certa facilità di interazione e, allo stesso tempo, una predisposizione all’ingenuità. Come esperimento inventammo la storia fittizia di un santo vegano vissuto ben 400 anni che chiamammo Sandro Forgione, a partire dal nome di Sandro Pertini e dal cognome di Padre Pio. Ci stupimmo perché varie persone si dimostrarono interessate ad avere ulteriori informazioni sulla sua alimentazione, dato che non riuscivano a trovarle su Internet. Ci chiedemmo quindi come fosse possibile che sui social non ci si rendesse conto dell’inganno. Escogitammo quindi un altro scherzo, inventando la storia del Senatore Cirenga che, attraverso la legge da lui proposta, avrebbe finanziato i parlamentari non rieletti con 134 miliardi di euro di denaro pubblico. Perfino il portavoce del Movimento dei Forconi, intervistato da Michele Santoro, menzionò questa figura. L’input arrivò in quel momento: il rappresentante dei Forconi affermò che non gli interessava la provenienza dell’informazione, ma che l’informazione gli piaceva e questo per lui era sufficiente. Pensai subito di essere di fronte ad un classico caso di disposizione selettiva, fenomeno studiato da Raymond Nickerson nell’ambito del confirmation bias. Quindi reinterpretammo i dati secondo quest’ipotesi e per ricostruirla facemmo un esperimento che prevedeva due momenti. In primo luogo analizzammo ‘l’ingresso’, ovvero il modo in cui la persona interagisce con le notizie che aderiscono alla sua visione del mondo, anche se contengono informazioni false e osservammo una facilità di diffusione marcatamente maggiore rispetto ad altri contesti. In secondo luogo analizzammo ‘il controllo’, cioè la modalità con cui gli utenti reagiscono ad una informazione contraria alle loro persuasioni, se la persona la rifiuta viene confermata l’ipotesi del confirmation bias.

Costruimmo quindi un setting sperimentale con un campione estremamente ampio e senza precedenti: l’esperimento d’ingresso fu misurato su tre milioni di persone, quello per le informazioni a contrasto su cinquantacinque milioni. Da questo setting emerse una decisa convalida dell’ipotesi del confirmation bias, che lasciava pochi margini d’interpretazione, potendo contare su percentuali di conferma del 90-95%. Un risultato che si spiega in maniera molto semplice: i soggetti tendono a privilegiare le informazioni coerenti con la propria visione del mondo, disinteressandosi del resto. Le persone esaminate, se contraddette, tendono a mostrare irritazione e ad accrescere la propria convinzione determinando l’effetto backfire. Alla pubblicazione di questo risultato seguì un’altra fase di forte esposizione mediatica, al punto che il «Washington Post» chiuse la rubrica dedicata al debunking facendo riferimento al nostro lavoro, poiché la giornalista che la gestiva si rese conto che trattando e smentendo le fake news contribuiva ad alimentarne il processo di diffusione. Anche i debunker, cioè coloro che lavoravano per smentire le fake news, del resto non accolsero favorevolmente il nostro studio e cercarono di confutare in tutti i modi le evidenze scientifiche che noi avevamo prodotto. Il fatto che lo facessero è un’altra testimonianza della bontà del modello. Ci fu fatta però anche un’obiezione scientificamente fondata: la ragione per cui rilevavamo questa forte polarizzazione in gruppi omofili, che condividevano informazioni aderenti alla narrativa e ignoravano informazioni a contrasto, sarebbe derivata dal fatto che avevamo scelto due mondi fortemente divisi, come campione di ingresso i complottisti e come controllo coloro che seguono l’informazione scientifica. Provammo allora a ripetere l’esperimento in un contesto più generale. Prendemmo come riferimento un dataset enorme, scaricando più di venti milioni di articoli giornalistici condivisi su Facebook nell’arco di sei anni con i quali 376 milioni di utenti avevano interagito. Anche in questo caso le nostre conclusioni furono confermate: più l’utente è attivo e più si specializza e si focalizza soltanto su una fonte. Questa tendenza all’esposizione selettiva e alla segregazione agisce anche nel mondo dell’informazione. A conferma della bontà del modello, in questo caso furono i giornalisti a criticarci affermando che il problema non fossero loro, che riportavano notizie affidabili, ma gli utenti che non le comprendevano.

Noi naturalmente non volevamo assegnare ‘colpe’ ai giornalisti. Abbiamo semplicemente osservato che quanto più un utente si specializza tanto più è difficile fargli cambiare opinione soprattutto se lo si contraddice. Ci sono ancora persone che non ammettono l’esistenza di queste dinamiche nonostante anche Facebook le abbia ammesse, rivelando in qualche modo un proprio coinvolgimento nel processo. Questi sono stati i principali passaggi del mio lavoro.

 

Sembra che nella società tenda a determinarsi un sentimento di sfiducia nei confronti delle verità condivise, che siano istituzionali, scientifiche o politiche, questo si lega poi ad una crisi e ad una trasformazione del ruolo dei mediatori. Secondo lei da dove nascono questi processi? Qual è il ruolo della tecnologia in tutto questo?

Walter Quattrociocchi: La tecnologia convoglia un malcontento che esiste al di là di essa. Internet ha aumentato la trasparenza in alcuni contesti. Mentre prima il mediatore era protetto dal principio di autorità, adesso invece è tendenzialmente l’ascoltatore ad assegnare o meno l’autorità a chi parla che ha l’onere di convincere. Si è trattato di un cambiamento molto pesante per il processo di mediazione, in ambiti come l’insegnamento o la politica. Il malessere generale è stato causato principalmente dalla crisi economica. In seguito ha giocato un ruolo anche una visione fortemente critica nei confronti delle élite a partire da una sfiducia nei confronti della loro preparazione. È difficile attribuire la responsabilità di tutto questo ad Internet, che ha avuto un ruolo nel convogliare e nel facilitare l’interconnessione del malcontento.

 

Quale ritiene che dovrebbe essere il compito dei ricercatori e degli scienziati in questo contesto? Quale rapporto dovrebbe instaurarsi tra scienza e politica?

Walter Quattrociocchi: Mi sono confrontato direttamente con questi problemi facendo parte della task-force dati del Ministero dell’innovazione tecnologica e la digitalizzazione. Ho fatto diretta esperienza della complessità del dialogo tra lavoro scientifico e mondo delle istituzioni. È difficile far comprendere i meccanismi propri del metodo scientifico ad una opinione pubblica che spesso non ha familiarità con esso. Per esempio, durante il lockdown abbiamo studiato con un articolo pubblicato su PNAS – «Proceedings of the National Academy of Sciences», l’impatto di alcune erogazioni effettuate in quel periodo. Abbiamo mostrato come erogazioni ‘a pioggia’ abbiamo un impatto economico asimmetrico. La raccomandazione implicita era chiara: nell’effettuare erogazioni occorre tenere conto di una serie di indici, della localizzazione geografica e delle caratteristiche dei territori. Se non si tiene conto di questi elementi il rischio è di generare malcontento e di non fornire risposte adeguate alla società. L’articolo è stato citato sul «Washington Post», ma in Italia le sue conclusioni non sono state recepite. Un’altra problematica che abbiamo individuato riguarda la messa a terra dei fondi e le modalità di erogazione che scontano i limiti di un sistema burocratico nel quale la buona volontà di molti elementi dotati di spirito e di iniziativa non riesce ad avere ragione di meccanismi che minano in parte l’efficacia dell’intero processo.

Tornando alla questione generale, da un lato la scienza dovrebbe confrontarsi maggiormente con i problemi sociali, dall’altro nell’ambito della politica e dell’informazione servirebbe un grado maggiore di formazione in merito al funzionamento del processo scientifico. Quest’ultimo non prevede necessariamente l’esistenza di una risposta esatta in assoluto. Occorre imparare una modalità di ragionamento in grado di misurare l’incertezza con metodi più o meno raffinati. Il grande problema della scienza è stata la comunicazione: abbiamo devastato la fiducia delle persone nel discorso scientifico. Alla scienza è stata affidata la responsabilità di portarci fuori da questa crisi, i talk show si sono riempiti di scienziati ma i cittadini non erano preparati al dibattito scientifico. Il dibattito scientifico è spesso caratterizzato da toni aspri: un ricercatore formula le proprie ipotesi, svolge un esperimento, controlla se è riproducibile e verifica se e in che misura l’ipotesi iniziale era fondata. A volte l’esperimento restituisce solo risposte parziali: la verità scientifica, infatti, è temporanea e in continua evoluzione. Questa realtà non è stata compresa dal pubblico anche perché le istituzioni e il mondo dell’informazione non hanno saputo spiegare la natura del processo scientifico.

 

Nel periodo recente lei con il suo gruppo di lavoro ha svolto delle ricerche significative riguardo l’impatto della pandemia sui fenomeni di cui abbiamo parlato. Quali sono stati i risultati principali?

Walter Quattrociocchi: Abbiamo esplorato in particolare due aspetti. In primo luogo abbiamo indagato le dinamiche dell’informazione sui social media durante il Covid-19. Abbiamo ad esempio provato a verificare la tesi proposta da un articolo scientifico di qualche anno fa secondo cui le fake news circolerebbero più velocemente rispetto alle notizie veritiere. Abbiamo quindi rifatto l’esperimento più estesamente ed è risultato che le informazioni verificabili e non verificabili circolano alla stessa velocità. In secondo luogo abbiamo osservato le differenze nella mobilità delle persone prima e dopo il lockdown, analizzando gli spostamenti delle persone con l’applicazione di Facebook installata sul cellulare e il GPS attivo. Abbiamo cercato di individuare quali territori fossero stati più colpiti, mostrando come quelli che hanno pagato di più questa crisi siano stati quelli che già prima soffrivano un maggiore disagio economico. Non si tratta di un risultato banale perché consente di creare una mappa che permette di sapere dove sia più urgente intervenire con misure economiche e sociali. Abbiamo poi comparato il nostro sistema di mobilità con quello francese e inglese e abbiamo riscontrato un sistema molto resiliente, ridondante e destrutturato, cioè in grado di far fronte al cambiamento, tanto che l’introduzione del lockdown a livello di mobilità non è stata così devastante come invece lo è stata in Francia.

 

Per concludere, quali sono le prossime linee di ricerca su cui sta lavorando, anche in relazione all’attività del neonato Center of data science and complexity for society presso La Sapienza di Roma?

Walter Quattrociocchi: Il Center of data science and complexity for society è un progetto ambizioso, che nasce soprattutto dalle esperienze che ho raccontato finora. L’obiettivo è costituire un ambiente in cui le competenze sui dati possano essere messe al servizio della collettività. Al momento tra i nostri partner vi sono Google, Facebook e alcuni stakeholder di associazioni. Allargheremo sicuramente anche a testate giornalistiche. Con Facebook Italia abbiamo ad esempio lavorato sul problema della disinformazione. Abbiamo creato alcuni corsi di formazione come ad esempio Memedia rivolto a ragazzi delle scuole medie ma anche ad anziani, per accrescere la consapevolezza su temi quali echo-chamber, polarizzazione e hate speech.

Un’altra questione che intendiamo affrontare è quella delle data driven policy, le politiche basate sui dati. In Italia manca un’adeguata disponibilità di dati, non abbiamo un’infrastruttura. Chi dovrebbe analizzare questi dati? Non possono essere figure che fino ad ora si sono occupate esclusivamente di algoritmi di machine learning. Le policy data driven non possono essere ‘figlie’ di una sola disciplina, ma devono scaturire da un incontro trasversale, cross-disciplinare, che unisca statistica, fisica, sociologia e informatica con l’obiettivo di usare il dato per capire quale sia la posizione migliore da prendere. Questo tenendo sempre presente che la responsabilità della sintesi e della decisione non spetta ad uno scienziato ma al politico, cosa che ogni tanto viene dimenticata.

Scritto da
Giacomo Bottos

Direttore di «Pandora Rivista» e Presidente di Tempora - pensare il presente, associazione, think tank ed editore della rivista. Ha studiato Filosofia presso l’Università degli Studi di Milano, l’Università di Pisa e la Scuola Normale Superiore di Pisa. Scrive su diverse riviste cartacee e online.

Pandora Rivista esiste grazie a te. Sostienila

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, ma puoi anche fare una donazione a supporto del progetto. Grazie!

Abbonati ora

Seguici

www.pandorarivista.it si avvale dell'utilizzo di alcuni cookie per offrirti un'esperienza di navigazione migliore se vuoi saperne di più clicca qui [cliccando fuori da questo banner acconsenti all'uso dei cookie]