Dare una direzione alla tecnologia: etica, multilateralismo e prospettive dal Sud globale. Intervista a Gabriela Ramos
- 18 Giugno 2025

Dare una direzione alla tecnologia: etica, multilateralismo e prospettive dal Sud globale. Intervista a Gabriela Ramos

Scritto da Alice Fill

14 minuti di lettura

Reading Time: 14 minutes

Gabriela Ramos è un’economista, diplomatica ed esperta di politiche pubbliche. Ha ricoperto il ruolo di Vicedirettrice Generale per le Scienze Sociali e Umane presso l’UNESCO ed è attualmente la candidata del Messico alla direzione generale dell’Organizzazione. Dal 2020, ha contribuito a guidare l’agenda dell’UNESCO in settori cruciali come l’etica, la giustizia sociale e l’inclusione. Uno dei risultati più significativi di questo lavoro è stata la Raccomandazione sull’etica dell’intelligenza artificiale del 2021, il primo standard globale in materia, adottato da tutti i 194 Stati membri dell’UNESCO. Al centro della Raccomandazione vi è la tutela dei diritti umani e della dignità, incardinata su principi di trasparenza, responsabilità ed equità.

Prima di entrare all’UNESCO, Ramos ha ricoperto importanti incarichi all’OCSE, tra cui quello di G20 Sherpa e di Capo di Gabinetto del Segretario Generale. In questa conversazione riflette sulle promesse e sui limiti del multilateralismo nella governance dell’intelligenza artificiale e su come istituzioni come l’UNESCO possano fungere da piattaforme di dialogo tra diversi attori in contesti profondamente asimmetrici. La sua visione sottolinea l’importanza di radicare lo sviluppo tecnologico nei diritti umani e di garantire che le prospettive del Sud globale non siano solo rappresentate, ma contribuiscano attivamente a plasmare le norme internazionali.


L’intelligenza artificiale è oggi al centro di profonde rivalità geopolitiche. Quale spazio può ancora occupare il multilateralismo come luogo di mediazione?

Gabriela Ramos: Spesso affrontiamo queste questioni in compartimenti stagni: da un lato il progresso tecnologico, dall’altro gli sviluppi politici, altrove ancora i movimenti sociali. Ma questa separazione è illusoria. La tecnologia non si sviluppa nel vuoto, è plasmata dalle società e dai contesti politici in cui emerge. Se vivessimo in un mondo fondato sulla cooperazione e sulla solidarietà, credo che l’IA avrebbe una forte vocazione al bene comune. Al contrario, ci troviamo tuttavia a fare i conti con una frammentazione e polarizzazione crescenti. La crisi che attraversa oggi il multilateralismo non è soltanto politica, ma riflette una disillusione più ampia a livello sociale. Molti leader stanno virando verso forme di bilateralismo, se non addirittura di unilateralismo, segno di una più generale erosione della fiducia nell’azione collettiva. È questa la vera sfida: non solo difendere il multilateralismo, ma dimostrarne l’efficacia, l’utilità, la necessità.

 

Quali sono, secondo lei, i principali rischi legati a questa competizione tecnologica globale? E quali opportunità potrebbe cogliere il multilateralismo per promuovere un approccio inclusivo alla governance e all’etica dell’intelligenza artificiale?

Gabriela Ramos: La governance dell’IA è, per sua natura, un compito globale. È proprio per questo che gli standard internazionali sono fondamentali. Ed è per questo che all’UNESCO abbiamo elaborato la Raccomandazione sull’etica dell’intelligenza artificiale, adottata da 194 Stati membri. Ciò che ha reso unico questo processo è stato l’impegno per un approccio multidisciplinare e geograficamente equilibrato. Esperte ed esperti provenienti da tutte le regioni del mondo – in filosofia, biologia, ingegneria, economia e psicologia – si sono riuniti per affrontare una domanda essenziale: in che modo possiamo orientare la rivoluzione tecnologica affinché generi benefici sociali e rispetti i diritti umani? È questa la questione che ha attraversato le negoziazioni. Non ci siamo limitati a discutere come correggere gli algoritmi, ma abbiamo posto al centro il rispetto della dignità umana, la trasparenza, la responsabilità. La Raccomandazione ha proposto quindi un vero cambio di prospettiva: non più cosa può fare l’IA, ma cosa può fare l’IA per noi nell’affrontare le sfide contemporanee. Da secoli costruiamo quadri giuridici ed etici per tutelare lo stato di diritto e le libertà fondamentali. L’IA deve essere allineata a questa eredità. E sia chiaro: il problema non è l’intelligenza artificiale in sé, ma i quadri attraverso cui la regoliamo. La maggior parte dei Paesi non dispone nemmeno di una struttura ministeriale dedicata all’IA. La governance è quindi frammentata: i ministeri del digitale, delle finanze, della scienza hanno ciascuno una competenza parziale, ma nessuno ha una visione d’insieme. E c’è quindi una certa competizione: chi sta guidando davvero la regolamentazione dell’IA?

 

Come viene implementata la Raccomandazione UNESCO sull’etica dell’intelligenza artificiale? Quali sono i meccanismi di monitoraggio previsti per garantirne l’efficacia?

Gabriela Ramos: Non ci siamo fermati alla redazione della Raccomandazione: fin dall’inizio abbiamo voluto integrare un meccanismo concreto per la sua attuazione – un elemento spesso assente negli accordi multilaterali. Questo, a mio avviso, è un aspetto molto interessante per comprendere come funziona davvero il multilateralismo: quando si negozia un accordo, bisogna pensare subito anche a come lo si renderà operativo. Uno degli strumenti innovativi che abbiamo sviluppato è la Readiness Assessment Methodology (RAM), parte integrante del piano di attuazione. Si tratta di una metodologia che aiuta i Paesi a valutare le proprie capacità e i propri bisogni in materia di governance dell’IA. L’obiettivo non era semplicemente fissare uno standard, ma capire a che punto si trovano realmente i singoli Paesi. Non si tratta solo di misurare la connettività o le infrastrutture, ma di partire da una visione: come l’IA può sostenere piani di sviluppo specifici, come può favorire un dibattito inclusivo a livello nazionale, coinvolgendo attori diversi attorno a queste domande. È anche per questo che ho insistito perché l’attuazione diventasse parte integrante della Raccomandazione. A differenza di molti precedenti, abbiamo voluto che il follow-up fosse scritto nel testo della Raccomandazione. E questo è un reale passo verso un cambiamento nel modo stesso in cui funzionano le istituzioni internazionali. Vengo da una cultura di segretariati forti, come quello dell’OCSE. Quando sono arrivata all’UNESCO, mi è stato detto: «Il Segretariato deve restare invisibile». La mia risposta? Assolutamente no. Parlerò quando necessario. Interverrò se i negoziati prendono una direzione sbagliata. E gli Stati membri hanno apprezzato questo approccio. È così che si cambia il sistema dall’interno.

Ad oggi, abbiamo realizzato oltre settanta valutazioni in materia di IA negli Stati membri – dai Paesi Bassi al Mozambico, dal Cile al Vietnam. Ognuna di esse porta con sé un potenziale trasformativo, dimostrando che il multilateralismo può essere realmente utile. C’è una tendenza a percepire il multilateralismo come qualcosa di astratto o distante. Eppure, esistono esempi molto concreti che mostrano come esso possa aiutare i Paesi a tradurre i principi in azione, anche in settori come l’IA. In Cile, ad esempio, dopo aver completato la RAM, la Ministra della Scienza ha individuato e affrontato le debolezze della legislazione nazionale in materia di protezione dei dati, presentando una proposta di riforma al Parlamento. Al nostro ultimo Global Forum on the Ethics of Artificial Intelligence – una piattaforma multilaterale annuale organizzata dall’UNESCO – ho incontrato un Ministro del Mozambico. Due settimane dopo, mi ha richiamata con il suo team: avevano completato la RAM, analizzato i risultati, fissato le priorità e individuato le aree in cui avevano bisogno di supporto. Questo dovrebbe fare il multilateralismo: fornire strumenti concreti affinché i Paesi possano definire le proprie priorità e perseguirle.

Lo scorso febbraio, un Ministro cambogiano è intervenuto all’AI Action Summit di Parigi – un evento di alto livello che riunisce governi, settore privato e società civile per discutere misure concrete sull’implementazione etica dell’IA – e ci ha ringraziati. Ha detto: «Ora so con chiarezza cosa dobbiamo fare». Questo è il potere di radicare il nostro lavoro nei contesti locali, e devo dire che gli uffici sul campo dell’UNESCO sono davvero fondamentali in questo senso. È questo il tipo di coordinamento di cui abbiamo bisogno. Il multilateralismo funziona quando è utile, quando offre strumenti concreti che aiutano i Paesi ad agire secondo le proprie priorità. Se dimostriamo la nostra utilità, non serve predicare le virtù della cooperazione. Basta presentarsi e chiedere: cosa vi toglie il sonno? E poi mettersi al lavoro. Di conseguenza, il multilateralismo funziona solo se è su misura. Non si possono imporre soluzioni preconfezionate a Paesi che non si conoscono. Quando ero all’OCSE, in Messico, nei primi anni Duemila, eravamo ancora sotto l’ombra del Washington Consensus. Gli esperti arrivavano con ricette standard. Solo una volta, in sei anni, qualcuno mi chiese: «Avete un libro di storia del Messico, per capire meglio il Paese?».

 

In che modo le prospettive del Sud globale sono emerse nella redazione della Raccomandazione?

Gabriela Ramos: La composizione del gruppo di esperti è stata decisiva: ventiquattro specialisti provenienti da ogni parte del mondo, ciascuno portatore non solo di competenze tecniche, ma anche di visioni culturali ed etiche radicate. Uno degli esempi più significativi è quello della filosofia Ubuntu, introdotta dagli esperti africani. Ha impregnato il processo di uno spirito collettivo, allontanandolo da modelli individualistici e orientati al profitto, e riformulando l’IA come uno strumento al servizio delle comunità e del benessere relazionale. Questa influenza è visibile in tutta la Raccomandazione: c’è una forte enfasi sui giovani, sulla coesione sociale, sui diritti collettivi. La Presidente del gruppo era una accademica sudafricana straordinaria, Emma Ruttkamp-Bloem.

Un altro contributo essenziale del Sud globale è stato l’insistere sulla sostenibilità ambientale. Esperti del Messico e del Sudafrica hanno voluto fortemente che le questioni ecologiche non fossero lasciato in secondo piano. È per questo che abbiamo incluso un intero capitolo dedicato all’impatto ambientale – un tema spesso trascurato in altri quadri normativi. E poi c’era la questione di genere. Quando sono arrivata, ho chiesto: «Dov’è il capitolo sul genere?». La risposta iniziale è stata: «Non serve, parliamo già di discriminazione». Ma non era sufficiente. Il capitolo sul genere è diventato in breve tempo un’aggiunta forte e profondamente collettiva.

 

L’ascesa dell’IA è accompagnata da una concentrazione inedita di capitale tecnologico nelle mani di pochi attori privati e di alcuni Stati. Come possiamo affrontare questo squilibrio?

Gabriela Ramos: La concentrazione di capacità nel campo dell’IA è impressionante. Secondo Oxford Insights, tre Paesi – Stati Uniti, Cina e Regno Unito – dominano il settore. Tuttavia, anche all’interno di questo podio, le disparità sono notevoli: gli Stati Uniti vantano capacità diciannove volte superiori rispetto al Regno Unito, e nove volte rispetto alla Cina. E non è solo una questione di scala: è una questione di modelli. La logica prevalente è aggressivamente competitiva, dominata da uomini, guidata dal profitto. Tuttavia, non mancano le leve per agire. Le politiche pubbliche nazionali hanno un grande potere. Basta guardare al Brasile: quando X (ex Twitter) ha violato certe regole, le autorità hanno reagito rapidamente. I Paesi hanno la possibilità di modellare i propri ecosistemi tecnologici, e all’UNESCO siamo partiti proprio da questo presupposto. Non ci chiediamo solo cosa manca, ma che cosa desideriamo ottenere dall’IA. Come può questa tecnologia servire obiettivi nazionali in ambiti come la sanità, l’istruzione, la cultura, lo sviluppo?

Ed è proprio in questi settori che abbiamo visto cambiamenti reali. L’esempio di DeepSeek, un foundation model sviluppato in Cina con soli sei milioni di dollari e un impatto ambientale minimo, dimostra che non servono miliardi per innovare. Molti Paesi non stanno sviluppando propri foundation model – e francamente, non ne hanno bisogno – ma possono creare applicazioni significative, su misura per le loro priorità. Questo apre la strada a uno sviluppo dell’IA localizzato, finalizzato, e accessibile anche ai Paesi più poveri. Bisogna anche riconoscere le opportunità offerte dagli ecosistemi open source: i costi d’ingresso sono scesi drasticamente. Ora la chiave è la strategia: comprendere i propri bisogni e agire di conseguenza. Il Sud globale non resterà indietro. Al contrario, ha oggi l’opportunità concreta di affermarsi secondo le proprie condizioni.

 

In che modo il multilateralismo può contribuire a redistribuire le capacità in materia di intelligenza artificiale e a rafforzare la sovranità digitale del Sud globale?

Gabriela Ramos: Una delle iniziative di cui vado più orgogliosa è quella degli AI Experts Without Borders. L’idea è semplice: i governi non dovrebbero essere lasciati soli di fronte a sfide tecnologiche così complesse. Possiamo costruire reti di esperti capaci di offrire orientamento e supporto, in particolare quando i Paesi si trovano a negoziare con attori privati o ad elaborare politiche efficaci in contesti estremamente dinamici. E la cosa più bella è questa: il Sud globale ha già le competenze, spesso più di quanto immagini. Ciò che manca, semmai, è la visibilità, il riconoscimento. All’UNESCO abbiamo fatto una scelta precisa: le valutazioni nazionali tramite la RAM devono essere affidate a esperti locali – persone che parlano la lingua, conoscono la cultura, comprendono la storia. È così che si producono analisi non solo tecnicamente solide, ma anche radicate socialmente e rilevanti dal punto di vista culturale. In Cile, in Mozambico, in Senegal: abbiamo sempre trovato la persona giusta. Recentemente, quando il Camerun ha chiesto un’esperta di IA, abbiamo mandato una brillante professionista marocchina. È un esempio concreto di cooperazione Sud-Sud in azione, e ha funzionato brillantemente. Questo tipo di collaborazione orizzontale genera non solo competenza, ma anche fiducia e solidarietà.

 

E in contesti in cui modelli tecnologici o economici dominanti sembrano difficili da mettere in discussione, come può il multilateralismo creare spazi di manovra e resistenza? Può condividere qualche esempio di cooperazione alternativa?

Gabriela Ramos: Questa, per me, è la vera forza del multilateralismo. Nonostante i suoi limiti, crea spazi: spazi per resistere, per sperimentare, per fare le cose in modo diverso. La sfida è che, come istituzioni multilaterali, non siamo sempre bravi a raccontare queste storie di successo. Troppo spesso il multilateralismo viene ridotto ai vertici di Ginevra o New York. E sì, anche quelli contano: sono i luoghi in cui si negoziano le norme e si costruiscono narrazioni condivise. Ma la vera trasformazione avviene quando quelle idee mettono radici sul campo – e quel momento resta spesso invisibile.

Fin dall’inizio, una delle nostre maggiori preoccupazioni è stata la tendenza dell’IA a riprodurre, o addirittura amplificare, le disuguaglianze esistenti. La connettività è un caso emblematico: un terzo del pianeta è ancora offline. Come possiamo parlare di futuri digitali inclusivi? Un altro esempio è il genere. Nell’ambito dell’IA, i numeri sono peggiori che in altri settori dominati dagli uomini: le donne sono solo il 22% della forza lavoro, e i numeri scendono drasticamente guardando alle posizioni di leadership. Le donne sono sottorappresentate nei dataset, nella progettazione dei prodotti, nell’intero ecosistema tecnologico – eppure subiscono in modo sproporzionato gli effetti negativi: abusi online, bias algoritmici, violenza digitale. Non è solo un sistema diseguale, può essere strutturalmente ostile.

Per reagire, abbiamo creato Women4Ethical AI, insistendo sull’importanza di portare il genere al centro il dibattito. È una rete di donne di tutto il mondo – non solo esperte di genere, ma professioniste in ambito tecnologico – che lavorano su soluzioni etiche e concrete nel campo dell’IA. Una di loro, Alessandra Sala, che co-presiede Women4Ethical AI con me, sta guidando un progetto sul watermarking dei contenuti generati dall’IA. L’obiettivo è garantire trasparenza e protezione, soprattutto per le giovani donne e ragazze, contro gli effetti dei deepfake e della manipolazione digitale. È una soluzione concreta, nata dalla cooperazione multilaterale e animata da un’urgenza etica.

 

Se lo sviluppo dell’intelligenza artificiale è sempre più guidato da interessi commerciali e geopolitici, come possiamo pensare che ne derivino sviluppi positivi su larga scala?

Gabriela Ramos: Il nodo centrale, quando si parla di IA, è la finalità. A cosa serve ciò che stiamo costruendo? È una tecnologia potentissima, dirompente – e può esserlo anche nei suoi effetti negativi. Lo scontro tra chi vuole orientarla al bene comune e chi invece la vede solo come strumento di profitto o di potere è durissimo. Ci sono aziende – e sono molte – che cercano sinceramente di fare le cose per bene. Ma dobbiamo dirlo chiaramente: esistono anche attori che rifiutano ogni forma di vincolo. Per loro, l’IA è una corsa globale da vincere a ogni costo. E se nel frattempo qualcosa si rompe, poco importa: si penserà a ripararlo dopo. È questa la logica che domina in certi ambienti dell’innovazione: agire in fretta, senza preoccuparsi delle conseguenze. Ma con l’IA, questo approccio è molto pericoloso. Se rompiamo qualcosa ora, potremmo non riuscire più a rimettere insieme i pezzi. È per questo che la governance è fondamentale. Non per soffocare l’innovazione, ma per garantire che ciò che costruiamo resti responsabile, trasparente, allineato ai diritti umani. Il multilateralismo è l’unico spazio dove questo può essere fatto in modo collettivo, inclusivo e con una prospettiva di sostenibilità a lungo termine.

 

Regolare una tecnologia così rapida, dirompente e trasversale come l’intelligenza artificiale è una sfida inedita.

Gabriela Ramos: Il ritmo con cui si evolve l’IA – soprattutto con i modelli generativi come ChatGPT – è senza precedenti. Ciò che mi preoccupa di più non è solo la velocità, ma l’assenza di barriere. L’IA oggi viene usata non solo per fini commerciali, ma anche come strumento di guerra e per rendere più efficace la sorveglianza dei cittadini. E la verità è che la regolazione diventa impossibile se cerchiamo di rincorrere ognuno di questi sviluppi. È una trappola, in un certo senso. Non possiamo regolare ciò che si sta ancora sviluppando e costruendo: dobbiamo tornare ai principi fondamentali, ai diritti e alle libertà. Uno degli strumenti più preziosi che abbiamo oggi è l’impact assessment, la valutazione d’impatto. Non si deve lanciare un prodotto sul mercato senza valutarne prima le conseguenze. È una forma basilare di diligenza. ChatGPT, per esempio, sarebbe stato rilasciato in modo diverso se fosse stata prevista una valutazione d’impatto.

Nel 2023, all’AI Safety Summit nel Regno Unito – un incontro internazionale nato per affrontare i rischi legati ai sistemi avanzati di IA e promuovere la cooperazione globale sugli standard di sicurezza – abbiamo discusso proprio di come spostare la responsabilità sugli sviluppatori. Non è necessario definire ogni dettaglio tecnico, ma si può esigere che siano pronti a identificare le soglie critiche, anticipare i rischi, integrare meccanismi di mitigazione. Non è controllo capillare: è accountability. Se rompiamo questo legame di responsabilità, siamo perduti. Non puoi ispezionare ogni cucina del mondo, ma puoi fare in modo che chi cucina sia responsabile se qualcuno si sente male: dobbiamo pensare a una regolazione basata sugli effetti. E quando qualcosa va storto – come è successo con diversi casi di discriminazione algoritmica a livello nazionale o con strumenti di selezione del personale che escludevano sistematicamente le donne – i governi devono avere gli strumenti per reagire. Serve documentare i problemi, analizzare i pattern, imparare da chi ha affrontato casi simili. Ma sempre con un obiettivo chiaro: non la tecnologia in sé, ma il suo impatto sociale.

 

Oggi sembra che, in materia di regolamentazione, si stia facendo marcia indietro – anche nell’Unione Europea. Quali spazi multilaterali sono più adatti per affrontare le sfide che ne derivano?

Gabriela Ramos: L’UNESCO è senza dubbio uno degli spazi più preziosi – non solo per il proprio mandato, ma anche per le alleanze che sa costruire: con l’International Telecommunication Union (ITU), specializzata negli standard tecnici; con il Programma delle Nazioni Unite per lo Sviluppo (UNDP), che lavora sullo sviluppo sostenibile; con i governi nazionali. Queste collaborazioni contano, oggi più che mai. È vero, in alcuni Paesi si registra una tendenza a ritornare a un modello laissez-faire. Ma resto fiduciosa. La consapevolezza di ciò che è in gioco è cresciuta enormemente. I politici e i governi non possono più invocare l’ignoranza, fingere di non sapere – e anzi, molti stanno chiedendo a gran voce una governance più solida. C’è un fermento politico reale, anche se non sempre visibile. Parlare di regolamentazione non ha lo stesso richiamo mediatico delle promesse legate alle tecnologie emergenti, e per questo molte delle sperimentazioni in corso passano sotto traccia. Ma stanno accadendo cose importanti. Ad esempio, vediamo sempre più nuove legislazioni sull’IA in settori come la sanità, l’istruzione, gli appalti pubblici. È il momento di documentare queste innovazioni normative – e le piattaforme multilaterali possono essere decisive in questo compito.

 

In ambito normativo, il multilateralismo passa spesso anche per la cooperazione regionale. Può raccontarci un caso in cui questa dimensione ha prodotto risultati significativi?

Gabriela Ramos: Abbiamo creato un forum dedicato ai Paesi che stanno conducendo la RAM – la Readiness Assessment Methodology – per incontrarsi, scambiarsi esperienze, imparare gli uni dagli altri. In questo, l’America Latina è stata all’avanguardia. Ministri e direttori generali si sono ritrovati non solo per ascoltare gli esperti, ma per condividere tra loro cosa ha funzionato, cosa no, e perché. Questo confronto tra pari ha generato capacità reali, al punto che oggi il forum è diventato un appuntamento annuale: prima in Cile, poi in Uruguay, quest’anno nella Repubblica Dominicana. Da questi incontri sono nate proposte straordinarie. Una su tutte: Latam GPT, un modello linguistico di grandi dimensioni sviluppato a livello regionale per la lingua spagnola, sostenuto congiuntamente da Cile, Uruguay, Messico e Repubblica Dominicana, con il finanziamento della Banca di Sviluppo dell’America Latina. Hanno capito che nessun Paese da solo avrebbe potuto costruire un simile modello. Ma unendo le forze, sì. Questo è un esempio di sovranità digitale che passa attraverso la cooperazione. E non finisce qui. Durante uno di questi incontri, qualcuno ha proposto di condividere le infrastrutture per i dati tra i Paesi dell’America Latina. Tutti hanno concordato sull’importanza di procedere in questa direzione. Ma poi il Ministro dominicano ha detto: «Sapete quanti accordi di condivisione dei dati abbiamo? Uno solo». Quel momento di consapevolezza – reso possibile dal semplice fatto di sedersi allo stesso tavolo – ha dato il via a nuove negoziazioni. Non è retorica: è realizzazione concreta.

 

Cosa possiamo imparare dall’ultimo Global Forum on the Ethics of AI, che si è tenuto a Bangkok a giugno di quest’anno?

Gabriela Ramos: Sono molto orgogliosa del fatto che il Global Forum sia ormai diventato un punto di riferimento solido e ampiamente riconosciuto. Quest’anno abbiamo registrato la partecipazione di ottanta Paesi: un record. Oggi esistono innumerevoli summit e conferenze sull’IA, ma ciò che distingue davvero questo forum è il suo legame diretto con l’attuazione di uno standard globale: la Raccomandazione sull’etica dell’IA. Il Forum non è un evento estemporaneo, ma parte di un processo continuo che si rinnova ogni anno. È uno spazio in cui governi, istituzioni e attori sociali arrivano preparati, pronti a condividere risultati concreti. È questa continuità che lo rende così significativo.

Una delle cose di cui sono più fiera è che l’attuazione della Raccomandazione avviene in modo realmente multi-attoriale. Spesso la parola “multi-stakeholder” viene usata come slogan, ma ciò che conta è l’effettiva capacità di coinvolgere settori che solitamente non dialogano tra loro. Grazie al suo mandato, l’UNESCO è in grado di convocare tavoli in cui il settore privato, il mondo accademico, la società civile e le autorità pubbliche si ritrovano attorno a una stessa agenda. Questo ha dato vita a reti solide che avevamo già costruito: il Business Council, gli AI Experts Without Borders, Women4Ethical AI. Ma mancava ancora un pilastro dedicato alla società civile. A Bangkok, questo tassello si è finalmente concretizzato: è stata lanciata una piattaforma dedicata, frutto di un lavoro iniziato all’AI Action Summit di Parigi. Le organizzazioni della società civile sono ora pienamente coinvolte, ciascuna con il proprio focus – dalle sfide legate all’infanzia, al genere, ai diritti digitali – e stanno lavorando per radicare la Raccomandazione nei propri contesti di azione. Del resto, è proprio la società civile a essere nella posizione migliore per chiedere conto della governance dell’IA, e lo fa con una legittimità che nessun altro attore può rivendicare.

Un’altra iniziativa fondamentale è stata il lancio della rete internazionale delle agenzie di supervisione sull’IA. Una cosa è, infatti, definire standard globali, un’altra è costruire istituzioni nazionali in grado di monitorare gli impatti reali dell’intelligenza artificiale. In collaborazione con la Commissione Europea, abbiamo lavorato a lungo su questa sfida. Al Forum, autorità di supervisione di Africa, Asia e America Latina hanno preso parte attivamente al confronto, ponendo le basi per uno spazio comune di scambio e rafforzamento reciproco.

 

Quali lezioni possiamo trarre dall’esperienza della Raccomandazione sull’etica dell’intelligenza artificiale, in merito all’UNESCO e alle istituzioni multilaterali?

Gabriela Ramos: È stata una lezione potente su come rendere le istituzioni rilevanti. All’UNESCO non possiamo limitarci a riconoscere il patrimonio culturale, che siano siti o tradizioni immateriali. La cultura deve essere messa a servizio dello sviluppo. Non solo come capitale economico, ma come vettore di dignità, identità, comunità. Lo stesso vale per l’istruzione e la scienza. Dobbiamo chiederci: come facciamo sì che questi mandati abbiano un impatto concreto? Come passiamo dal riconoscimento alla trasformazione? È qui che intravedo un grande potenziale per l’UNESCO: superare il ruolo simbolico, incidere nella sostanza, e passare dalla tutela e dalla custodia ad un’autentica co-costruzione dei nostri futuri globali.

Scritto da
Alice Fill

Dottoranda in Relazioni internazionali e diritti umani all’École Normale Supérieure di Parigi, fellow all’Institut Convergences Migrations (CNRS) e teaching assistant in Migration policies a SciencesPo Paris. È allieva di Scienze politiche alla Scuola Superiore Sant’Anna di Pisa.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici