Scritto da Giacomo Bottos
15 minuti di lettura
Dal 20 al 22 giugno a Bologna si è tenuta la XV Convention del Consorzio Nazionale della Cooperazione Sociale Gino Mattarelli (CGM), con il titolo “Direzioni. Intelligenze collettive per una nuova economia sociale”, di cui Pandora Rivista è media partner. Il tema di questa convention sono state le direzioni che è necessario intraprendere per fronteggiare le transizioni ambientale, digitale, demografica e culturale. Per approfondire i temi trattati abbiamo intervistato Giulio Quaggiotto, strategic innovation advisor e già responsabile dell’innovazione strategica per il Programma delle Nazioni Unite per lo sviluppo (UNDP). Durante la convention, Quaggiotto ha moderato il panel “Dati, infrastrutture «phygital» e intelligenze collettive” a cui hanno partecipato: Flaviano Zandonai, Francesca Martinelli, Corrado Priami, Maurizio Napolitano e Italo Monfredini. In questa intervista si approfondiscono i diversi approcci culturali alla raccolta e all’uso dei dati, delineando in particolare le implicazioni e le sfide che questo tipo di pratiche pone alle organizzazioni di tipo cooperativo e alle imprese sociali. L’intervistato ringrazia Giusi Biaggi e Flaviano Zandonai per l’opportunità di essere intervento alla Convention e avere avuto l’occasione di riflettere ulteriormente su queste tematiche.
La centralità del tema dei dati nella discussione odierna porta anche al nascere di retoriche e narrative in parte distorte. Quali sono alcuni di questi discorsi?
Giulio Quaggiotto: Credo che la lista sia piuttosto lunga e articolata, mi soffermerei in particolare su un elemento che è emerso molto durante la Convention CGM, che riguarda un presupposto che viene dato spesso per scontato: avere a disposizione una maggior quantità di dati porta inevitabilmente a decisioni migliori. Questo presupposto, purtroppo, è semplicemente un’ipotesi, una possibilità: la realtà è che i dati sono una condizione necessaria, ma non sufficiente, per arrivare a prendere decisioni migliori. Negli ultimi anni c’è stato un fortissimo interesse intorno ai dati, a come sono raccolti e in che modo si potrebbe farlo in maniera etica; c’è però meno attenzione su ciò che succede una volta che i dati sono stati raccolti, sulle modalità con cui i decisori li usano e su chi siano questi decisori. Si è infatti largamente diffusa l’idea – che i recenti sviluppi dell’intelligenza artificiale hanno ulteriormente rafforzato – secondo cui quando si arriva ad avere a disposizione un sistema di raccolta e analisi dati, le istituzioni e le organizzazioni siano in grado, in tempo reale, di prendere decisioni migliori. Purtroppo, spesso non funziona così. La diffusione dell’intelligenza artificiale ha inoltre – e per fortuna – iniziato a evidenziare come i dati non siano un elemento neutro, tecnico, oggettivo ma bensì un costrutto sociale. Come sono raccolti i dati, con quali motivazioni, cosa resta escluso nel momento in cui vengono raccolti? Le risposte a queste – e ad altre – domande influiscono profondamente su ciò che viene capito o non viene capito del nostro mondo. Oggi – col rapido sviluppo dei sistemi di intelligenza artificiale e dei large language model (tra cui GPT di OpenAI e Gemini di Google / DeepMind) che si basano tutti sui dati – ragionare su quanto pregiudiziali siano questi sistemi e su quanto riflettano tutti gli aspetti della realtà è diventato ancora più necessario.
Al di là della fase di grande interesse e focus sul tema dei dati, va ovviamente ricordato che questi sono sempre stati prodotti e raccolti. L’attuale focalizzazione può portare da un lato a una maggiore ipostatizzazione del dato, ma dall’altro a una maggiore attenzione anche a determinati aspetti problematici del loro utilizzo?
Giulio Quaggiotto: Sì, credo che si sia sviluppato un certo livello di discussione da quel punto di vista; non sono però ancora sufficienti le soluzioni introdotte. Sembra comunque che si stia – lentamente – capendo meglio il problema: ci sono stati molti casi di utilizzo di decisioni automatiche basate su dati pregiudiziali che hanno causato ripercussioni drammatiche sulle condizioni socioeconomiche di intere famiglie o ingiuste esclusioni dall’accesso ai servizi sociali, e ci sono state anche persone che sono state portate a suicidarsi. Ad esempio, in Australia c’è stato il caso di Robodebt, un sistema automatizzato di valutazione e recupero del debito che ha escluso determinate famiglie dai sussidi sociali, ha colpito persone vulnerabili o affette da malattie mentali e ha causato suicidi tra le persone che avevano ricevuto avvisi automatizzati di recupero crediti per somme molto elevate. Il Governo australiano è stato formalmente ritenuto responsabile di questi fatti, e ha pagato circa 800 milioni di dollari di compensazione alle famiglie coinvolte. Un altro caso – che ha addirittura causato la caduta di un governo – ha riguardato i servizi per i minori in Olanda, dove è scoppiato un enorme scandalo quando è stato rivelato che i dati erano stati raccolti sulla base di un pregiudizio razziale, con il risultato che famiglie appartenenti a determinate minoranze etniche erano state escluse dai servizi e accusate di aver ricevuto sussidi illegalmente, deprivandole quindi di servizi a cui avevano legalmente diritto di accedere. Questi sono solo alcuni esempi, casi simili continuano purtroppo infatti ad aumentare e a presentarsi in diversi Paesi.
Venendo nello specifico all’evento che ha moderato all’interno della Convention CGM, quali sono gli elementi più interessanti che sono emersi nelle esperienze presentate e più in generale nell’ambito di quella discussione?
Giulio Quaggiotto: Ritengo che siano emersi molti elementi interessanti, ma la cosa forse più importante è stata la smentita della vulgata che vede il mondo della cooperazione e del sociale più arretrato rispetto agli altri settori per quanto riguarda l’impiego dei dati. Prima della Convention, ad esempio, era stata lanciata la call “Segnali dal futuro” che ha selezionato interessanti progetti data driven e di innovazione attraverso il digitale, e anche nel panel è stato nuovamente evidenziato come il settore della cooperazione sociale si stia già muovendo in questa direzione. Poi, dialogando con le persone che guidano concretamente questi processi è emersa una serie di problemi e di tematiche molto interessanti. Uno in particolare, su cui abbiamo focalizzato la conversazione, è proprio quello che abbiamo già delineato in precedenza e che riguarda la questione dell’utilizzo dei dati – più che della raccolta – e della loro capacità di guidare positivamente le decisioni. Scavando su questo tema sono emerse fondamentali questioni tecnologiche, a partire dall’interoperabilità dei dati: se ci sono decine di cooperative che singolarmente raccolgono dati con i propri sistemi indipendenti diventa molto difficile, per esempio, comparare trend e operare analisi strutturate. Decisioni prese contando sui dati di una singola cooperativa e guardando a un solo caso, se paragonate a dati e casi a disposizione di altre organizzazioni, potrebbero invece essere prese in maniera migliore. O, nel caso di organizzazioni diverse che raccolgono dati sulle stesse persone, è possibile cogliere a un livello più globale qual è la situazione di una particolare famiglia, di un particolare individuo invece di vedere semplicemente specifiche prestazioni offerte indipendentemente da singole realtà. Il secondo punto cruciale che è emerso riguarda le competenze: in particolare, il farsi delle domande diverse su quali dati sono veramente necessari da raccogliere e quali dati effettivamente vengono utilizzati nel momento di prendere decisioni. L’impressione è che ci sia ancora molta raccolta di dati che non sono necessariamente utili; tra l’altro, raccoglierli è un investimento sia dal punto di vista dell’organizzazione che da quello dell’utente, a cui vengono richieste molte informazioni che poi magari non saranno utilizzate per le decisioni. È importante, quindi, definire esattamente quali sono le domande più utili, quali sono le informazioni che si traducono in intelligenza e che strutturano le future decisioni. Un terzo aspetto che è stato affrontato – e che giustamente Giusi Biaggi, Presidente di CGM, ha sottolineato molto – riguarda una domanda cruciale: chi prende le decisioni? Anche nel settore dell’economia sociale può esserci la tendenza a riprodurre dinamiche estrattive e di controllo centralizzato dei dati, il cui presupposto è che ci debba essere un decisore centrale che sa meglio di tutti gli altri come utilizzare questa conoscenza. Una situazione che porta i dati raccolti a non essere utili per chi, ad esempio, sta portando avanti un progetto di ricerca o per chi si avvale di un servizio sociale e che fa si che i dati vengano conferiti controvoglia, spesso risultando di scarsa qualità perché chi li fornisce non riceve assolutamente nulla in ritorno. È necessario quindi arrivare a disegnare sistemi molto diversi e adatti alle specificità proprie dell’economia sociale, e questo è stato anche lo stimolo rivolto a CGM. Per invitare a pensare secondo questo nuovo schema ho fatto ricorso a un paragone, sicuramente semplicistico ma allo stesso tempo utile per chiarire il concetto: invece di avere un elefante con un singolo cervello centrale sarebbe meglio avere un polpo con un’intelligenza distribuita, con un cervello per ognuno dei suoi otto tentacoli; infatti, più le persone sono vicine al problema, più conoscono il contesto e più possono interpretare i dati in maniera maggiormente contestuale e adeguata. Quindi se si è capaci di disegnare un sistema non perché ci sia un decisore centrale, ma affinché la decisione sia distribuita e più vicina possibile ai problemi, si è sulla strada per ottenere quella dinamica di intelligenza collettiva che era il tema principale della Convention. Si tratta di una questione di disegno, di architettura e di come una rete quale quella di CGM – con la grande varietà e diversità delle organizzazioni che la compongono – può pensare e realizzare una struttura che prenda la forma di un polpo invece che quella di un elefante.
Riprendendo quest’ultima suggestione, e anche il fatto che precedentemente ha sottolineato come nel settore dell’impresa e della cooperazione sociale spesso si adotti un approccio al dato che è proprio anche di altre organizzazioni, le chiederei di riflettere su esperienze in cui esiste uno specifico uso del dato che è legato alla struttura dell’impresa e della cooperazione sociale. Oppure questo elemento non è ancora maturato ed è un aspetto su cui bisogna ragionare in prospettiva, sulle linee che accennava?
Giulio Quaggiotto: Non conosco in maniera approfondita molte realtà di questo tipo nel contesto italiano, ma so che esistono. E so che si sta sperimentando anche in Italia la forma della “cooperativa dei dati” che gestisce la governance dei dati secondo modalità specifiche e che riflettono i valori della cooperazione. La città di Bologna ha cercato di creare “l’opposto di Deliveroo”. Nel resto del mondo esistono diversi casi di questo tipo. In Argentina, ad esempio, c’è una cooperativa che affronta il problema delle realtà dell’economia sociale che devono creare una loro piattaforma digitale. Se per farlo si assumono persone provenienti dal settore commerciale il software sarà programmato con logiche di scala, di aggregazione ed estrattive, e in generale secondo gli schemi applicati dal settore privato. Se chi si deve occupare della digitalizzazione di una cooperativa sociale ha in mente soltanto il modello di Amazon (o di altre aziende che operano con la stessa logica) inevitabilmente privilegerà certe dinamiche che non sono necessariamente quelle che una cooperativa o un’organizzazione del settore sociale vuole privilegiare. Per Amazon, ad esempio, può andare benissimo che le cose più popolari siano quelle che vengono messe in evidenza e che abbiano più pubblicità, ma magari per una cooperativa è l’opposto a essere importante: che le visioni di minoranza non siano penalizzate nella visibilità. Questa cooperativa argentina si è quindi impegnata a “riprogrammare” i propri techie, che venivano dal settore privato, insegnando loro come disegnare il software a partire dai valori e dagli obiettivi della cooperazione sociale. Una cosa in parte simile sta succedendo con i large language model, dove si assiste ai primi esempi di organizzazioni che stanno ragionando su quanto e come sia possibile infondere valori sociali in questi sistemi di intelligenza artificiale attraverso un training dei modelli operato in maniera partecipativa con i cittadini.
Possiamo approfondire quest’ultimo punto? Come si potrebbe agire sul rapporto tra intelligenza artificiale e dinamiche democratiche e cooperative?
Giulio Quaggiotto: Negli Stati Uniti esiste, ad esempio, un progetto chiamato Constitutional AI che ha preso un campione rappresentativo della cittadinanza e gli ha fatto fare il training di un large language model a partire dai valori della Costituzione americana. Così facendo nei risultati del modello il livello di pregiudizio è molto diminuito. Qui la questione è proprio come infondere dei valori all’interno di un software, della tecnologia che tutti utilizziamo, a mio giudizio questa sarà una questione sempre più rilevante. Tornando all’Italia abbiamo Monithon, un programma che è nato da alcuni attivisti, impegnati in “maratone” di monitoraggio civico della spesa dei fondi europei e nazionali, che hanno creato un sistema di raccolta partecipativa dei dati che monitora la spesa pubblica. Oggi attraverso il programma “A Scuola di OpenCoesione” collaborano con le scuole superiori, insegnando ai ragazzi come fare monitoraggio partecipativo del budget comunale. Hanno inoltre un progetto con Il Sole 24 Ore sul monitoraggio dei fondi relativi al PNRR e su come vengono impiegate le risorse destinate agli asili nido. Si tratta di un esempio di attività partecipativa distribuita su tutto il territorio nazionale e oggi estesa anche ad altri Paesi a livello europeo. Un ultimo esempio è quello de “Il semaforo della povertà”, un’organizzazione nata in Paraguay per affrontare a partire dai dati il problema della povertà. In Paraguay le amministrazioni locali somministrano alle persone in situazioni di povertà dei questionari sulla loro condizione, ma una volta compilati e firmati le persone non hanno la più pallida idea di cosa succederà e se il questionario avrà una qualche utilità per loro. Questa organizzazione si è allora dedicata al reverse engineering del questionario in modo che sia più utile alle persone povere, lo hanno ridisegnato dando maggiore spazio all’autonomia decisionale delle famiglie per quanto riguarda la loro condizione e i loro bisogni, secondo il principio del self-assessment. Appena hanno fornito i dati richiesti, le famiglie ricevono un piano personalizzato e le indicazioni di possibili strumenti per uscire dalla povertà. “Il semaforo della povertà” organizza poi attività che coinvolgono direttamente queste famiglie facendo nascere anche una forma di “competizione” virtuosa su chi esce più velocemente dalla condizione di povertà. Per esempio, uno degli indicatori di povertà è lo stato di salute dei denti e allora organizzano campagne comunicative sui social network su chi in una determinata città avrà i denti migliori. Con queste modalità hanno raggiunto risultati significativi, non solo aiutando immediatamente a trovare le azioni più adeguate per migliorare le condizioni delle famiglie, ma anche raccogliendo dati sempre migliori perché le persone hanno un incentivo a fornire i loro dati nella maniera più corretta. Questo progetto che è nato in Paraguay, adesso è attivo in circa trenta Paesi del mondo e di nuovo la logica estrattiva è stata sostanzialmente capovolta e a me sembra una logica che le cooperative, e il settore sociale più in generale, potrebbero adottare quasi come default.
La discussione che abbiamo fatto finora si può mettere in relazione anche alla riflessione più generale, che lei da tempo porta avanti, sulle logiche dei modelli di innovazione e sulla critica o relativizzazione del modello tecno-soluzionista nello stile della Silicon Valley. Ecco, all’interno di questo tipo di modello l’idea della centralità del dato ha un ruolo e un modo in cui viene specificamente declinata?
Giulio Quaggiotto: Sì, proprio perché è centrale nel modello della Silicon Valley che porta con sé un certo tipo di valori e di ideologie. Se invece la si intende come una questione sociale, allora occorre iniziare a porsi delle domande diverse, che non riguardino semplicemente la velocità e la scala. Ma che riguardino invece la “direzione” e il valore pubblico: disegnare un sistema che porti nel tempo a maggiore disuguaglianza – che è quello a cui, non sempre ma molto spesso, il modello della Silicon Valley ha portato – oppure scegliere di costruire un sistema di raccolta e analisi dei dati che porti a prendere decisioni migliori per le persone più vicine ai problemi, riducendo nel tempo la disuguaglianza e costruendo capitale sociale. Questa è la domanda fondamentale, che riguarda due direzioni completamente diverse. Moltissime volte i problemi sociali sono profondamente complessi e quello che serve non è tanto scalare la soluzione – la caccia all’unicorno, in una logica dispersiva, a imbuto – quanto invece scalare la capacità di risolverli in una logica di aggregazione. E questo è un discorso molto diverso, che richiede una logica diversa nel disegnare i sistemi. Purtroppo, abbiamo ancora troppe poche esperienze concrete che possano dimostrare che ci sia già un modello realmente alternativo. Ma tutta la discussione sulle missioni e sulla direzione dell’innovazione sta piano piano cercando di trovare una risposta alternativa, affermando che può esistere un modo diverso per fare innovazione.
Al di là delle esperienze che ha citato – relative singoli progetti e organizzazioni – nella prospettiva dell’intelligenza collettiva, dell’idea di puntare non tanto necessariamente su un singolo progetto che poi può scalare e diventare quella soluzione che viene adottata in tutti i contesti, ma su una pluralità di soluzioni possibili, su un accrescimento delle possibilità e quindi su una logica anche più diffusa, può essere importante ragionare anche su come i dati possano poi circolare anche attraverso progetti e contesti diversi. A questo livello più di rete, esistono delle esperienze interessanti dal punto di vista della circolazione e dell’uso dei dati?
Giulio Quaggiotto: Sono sicuro che esistono, e giustamente meriterebbero una maggiore attenzione. Ci sono tentativi di creare infrastrutture che permettano a un ecosistema di vedersi, di conoscersi in maniera migliore e, sostanzialmente, di condividere i dati. La parte veramente difficile, e quella che in cui tutti stiamo facendo più fatica, riguarda come dicevamo in precedenza, l’interoperabilità dei dati e tutte le questioni legate a cosa può essere condiviso e a cosa non può essere condiviso in maniera etica e responsabile. Sarebbe interessante riflettere sui casi di soggetti che siano in qualche modo più avanzati da questo punto di vista. Guardando poi ai progetti che coinvolgono le istituzioni, in India c’è ad esempio Societal Thinking, un’organizzazione che sta cercando di costruire un’infrastruttura che permetta a livello di ecosistema di utilizzare i dati e le conoscenze locali in maniera diversa. Un’altra che ho recentemente scoperto si chiama CoreStack e riunisce una stack, un insieme di software disegnati perché le comunità rurali possano prendere decisioni in maniera migliore. CoreStack è nata sull’idea e sul presupposto che siano le comunità stesse a prendere direttamente le decisioni e lo stack di software è stato disegnato per permettere, ad esempio, a più comunità di condividere i dati meteorologici in modo che possano piantare i semi o mietere i raccolti al momento giusto, sfruttando al meglio le previsioni meteorologiche locali. Sulla stessa linea concettuale si muove PetaBencana in Indonesia, una piattaforma per il coinvolgimento delle comunità e delle loro conoscenze nel rispondere alle emergenze ambientali come le alluvioni che di recente si è anche ampliata alle Filippine. La piattaforma permette la condivisione di dati a diversi livelli della risposta alle calamità. Ci sono inoltre progetti europei che stanno iniziando a lavorare in questa direzione, ad esempio Viable Cities che in Svezia ha messo assieme circa trecento organizzazioni – amministrazioni locali, università e centri di ricerca, imprese e enti no profit – attive sul net zero e nel contrasto al cambiamento climatico, creando “dimostratori di sistema” (system demonstrator), piattaforme che supportino la condivisione di dati fra stakeholder diversi. Questo è assolutamente un esempio di quello di cui c’è bisogno, come sottolineato già nella domanda, se vogliamo arrivare a una logica che io chiamo di “portafoglio”, che non punta sulla single point solution, una sola soluzione che poi scala, ma aggrega conoscenze e apprendimenti nel tempo su una serie di attori distribuiti che agiscono in maniera diversa ma potenzialmente sinergica.
Ecco se nel modello “mainstream” ci sono figure specifiche che si occupano di data science e degli aspetti a essa collegati, in un modello alternativo quali sono le competenze o il mix di competenze che è necessario avere e che le organizzazioni devono sviluppare per maneggiare i dati in maniera utile e intelligente?
Giulio Quaggiotto: Tre cose inizialmente sono, a mio giudizio, le più importanti. La prima: per chi lavora su questioni complesse come la povertà, la disuguaglianza, la fragilità e l’emarginazione è fondamentale poter contare su persone che hanno competenze – di sociologia, antropologia, etnografia, topografia – che siano qualitative e non solo quantitative. Questo permette di interrogare i dati in maniera molto diversa, di passare dal trend astratto alle storie concrete, di rivalutare cosa viene considerato come evidence. La seconda cosa ovviamente sono le questioni etiche di responsabilità sull’utilizzo dei dati, che sono questioni strategiche e non possono essere relegate a una postilla. La sfida in questo ambito è di come rendere effettive e operative linee guida che spesso si fermano a una generica dichiarazione di principi. È anche importante per le organizzazioni del sociale sviluppare competenze in-house in modo da poter ingaggiare alla pari e commissionare in maniera intelligente soluzioni dal settore privato. Il terzo aspetto ha a che fare con la governance. Credo sia fondamentale che il team che lavora sui dati sia integrato in un gruppo più ampio che si occupa di strategia, direzione, missione e organizzazione. Questo permette di disegnare sistemi di raccolta e interpretazione di dati che riflettono i valori alla base del lavoro di un’organizzazione e gli obiettivi sociali che si prefigge. Oggi invece trovo ancora troppo spesso che le persone che gestiscono i dati siano relegate a un ruolo di “infrastruttura” di IT e lavorino in realtà isolate all’interno delle imprese, che non ne riconoscono appieno l’importanza. L’estremo opposto è che vengono trattate come “smanettoni” che hanno soluzioni magiche a problemi strutturali perché si intendono di dati e intelligenza artificiale, e più mancano i fondi più c’è la tendenza a credere che l’intelligenza artificiale possa risolvere tutto. In entrambi i casi, queste figure non prendono parte alla discussione strategica e quindi non possono capire come utilizzare i dati per portare avanti nel modo migliore la missione dell’organizzazione. Fatemi cogliere l’occasione anche per parlare di una delle mie ossessioni, che riguarda un cambiamento di modello mentale quando si tratta di orientare la raccolta dei dati. Parlo dell’idea che, quando si ottengono dei fondi per un progetto con fini sociali, ci sia spesso la necessità di dimostrare che si sta facendo qualcosa di “nuovo”, di aver fatto un intervento dall’esterno che è stato quello che ha risolto veramente il problema, o ha portato nuove dinamiche in un sistema. L’istinto primario è spesso quello di immaginare una tabula rasa per poi dire che è solo grazie a questo nuovo progetto che le persone hanno migliorato la loro condizione. Capisco perfettamente questa tentazione, sono stato anch’io colpevole! Cosa succederebbe però se il primo istinto fosse quello di utilizzare i dati per identificare chi, in una località, ha già risolto un particolare problema? Una serie di ex colleghi ha avviato un progetto che si chiama Data Powered Positive Deviance che sostanzialmente invita le organizzazioni no profit che iniziano a lavorare su un territorio a utilizzare i dati per capire chi ha già risolto questo problema e quali azioni risultate in dinamiche positive sono già state avviate. L’idea è che si possono ottenere risultati migliori partendo da dinamiche già in essere e focalizzando l’attenzione su “anomalie”, che sono in realtà competenze già espresse nel territorio ma non in maniera uniformemente distribuita. Convincere le organizzazioni a condividere e utilizzare i dati in questo modo è una sfida molto difficile, che richiede un diverso modello mentale e competenze diverse (per esempio, utilizzando big data per integrare osservazioni qualitative). L’ultimo punto che vorrei affrontare riguarda l’utilizzo dei dati o, forse più appropriatamente, il disegno dei processi decisionali. Mi pare che ci sia ancora spesso un paradigma dominante che si rifà alla “stanza dei bottoni”: di qui l’ossessione con le dashboard e l’idea di decisori davanti a un PowerPoint. “Questo è quello che dicono i dati e quindi faremo così”. Quello di cui abbiamo spesso bisogno, invece, sono processi decisionali che problematizzino i dati e aiutino i decisori a trasformare l’informazione in intelligenza. I dati, infatti, certe volte forniscono indicazioni chiarissime ma altre volte danno indicazioni contraddittorie, specie se si è in situazioni impreviste o di emergenza, come è stato ad esempio durante la pandemia, in cui le interpretazioni possono variare profondamente. È chiaro quindi come sia necessario sviluppare una serie di competenze nuove su come si effettuano i processi interpretativi dei dati: come si disegnano le stanze dove si prendono le decisioni (ancora meglio se non sono stanze!), come si strutturano il dialogo e i rituali organizzativi sui dati e come si prendono le decisioni. Credo vedremo sempre più esperimenti in questo campo, all’intersezione fra antropologia, architettura/design e scienze cognitive. C’è chi ha parlato di “santuari cognitivi” che portino a decisioni migliori. Con Geoff Mulgan ho proposto l’idea di “policy steering room”. Il Development Intelligence Lab in Australia sta facendo un lavoro all’avanguardia in questo campo a beneficio dei decisori nel settore dello sviluppo.
In conclusione, quali azioni potrebbero essere intraprese per andare nelle “direzioni” emerse in questa conversazione?
Giulio Quaggiotto: Io credo molto nel concetto di lavorare con quello che si ha e nel partire dal presupposto che ci sono esperienze e competenze già acquisite (anche se magari ancora di nicchia) su cui costruire nel presente, piuttosto che da un modello ideale del futuro da cui cercare di andare a ritroso. Quindi partire da una logica di abbondanza piuttosto che da una di deficit (“o se solo avessimo le risorse, le competenze, ecc.”). Spesso la logica del modello ideale porta, infatti, a investimenti massicci in infrastrutture dei dati che poi vengono utilizzate poco e male. Meglio guardare – come è successo alla Convention di CGM – a chi sta già lavorando sul territorio e ha sviluppato esperienza pratica: i prototipi del futuro. La parte più difficile, ma anche interessante, del lavoro da fare è identificare e aggregare queste esperienze. Creare una nuova logica per cui questi esperimenti, spesso nati da esigenze individuali possano essere visti in un’ottica di sistema, al di là degli interessi specifici dell’organizzazione che li ha originati. Chiedersi quali nuovi servizi e infrastrutture possano permettere a questi casi isolati di diventare il new normal. Rimuovere sistematicamente le barriere culturali e organizzative che impediscono dinamiche di accelerazione e aggregazione. Ecco, sembrerà banale ma magari è proprio da una osservazione attenta del presente (e dei casi che al momento possono sembrare “anomali” o marginali) che si può partire per elaborare modelli innovativi di cura, educazione, inclusione nell’era data driven che stiamo vivendo.