L’impatto dell’intelligenza artificiale nel mondo del lavoro. Intervista a Ivana Pais
- 04 Dicembre 2025

L’impatto dell’intelligenza artificiale nel mondo del lavoro. Intervista a Ivana Pais

Scritto da Tommaso Malpensa, Francesco Nasi

12 minuti di lettura

Reading Time: 12 minutes

Quali trasformazioni sta introducendo l’intelligenza artificiale nel mondo del lavoro? In che modo le previsioni sull’impatto dell’IA influenzano le politiche del lavoro e l’opinione pubblica? E quali spazi esistono oggi per una partecipazione collettiva nell’adozione dell’IA nei contesti aziendali e sociali?

In questa intervista a Ivana Pais, docente di sociologia economica all’Università Cattolica di Milano, riflettiamo sul ruolo delle previsioni relative all’impatto dell’IA, ponendo l’attenzione su chi le produce e sul loro peso nell’orientare le politiche. Tra i temi affrontati: la concentrazione del potere, il possibile effetto omologante dei sistemi algoritmici, e il rapporto tra innovazione tecnologica e innovazione sociale. Pais esplora, inoltre, il ruolo della contrattazione aziendale e delle prime forme di partecipazione dei lavoratori nei processi di adozione dell’IA, sottolineando l’importanza di affiancare alla regolamentazione politiche attive e modelli organizzativi alternativi.


Cosa cambia nei rapporti di lavoro con il crescente utilizzo dell’intelligenza artificiale generativa? Quali sono i pericoli e le possibilità?

Ivana Pais: Dovremmo innanzitutto riflettere su come è impostato il dibattito stesso. Mi sembra che, ogni volta che si parla di intelligenza artificiale e mondo del lavoro, la questione ruoti attorno al fare previsioni: cercare di azzeccarle il più possibile, per poi reagire agli impatti. Abbiamo un track record di previsioni sull’impatto delle tecnologie nel mondo del lavoro che, se qualcuno andasse a ricostruirle sistematicamente, scoprirebbe che raramente si sono avverate. Prendiamo, ad esempio, il paper di Carl Frey e Michael Osborne sull’automazione e l’automatizzazione nel mondo del lavoro, che ha dato origine a un dibattito infinito sull’impatto della tecnologia in questo ambito: sono passati abbastanza anni da poter verificare che quelle previsioni non si sono affatto realizzate, nemmeno lontanamente. Tuttavia, quel dibattito ha stimolato non solo molte riflessioni – anche interessanti – ma anche diverse politiche.

Quello su cui mi interrogo è l’impatto performativo di queste previsioni, che vengono spesso ripetute meccanicamente, senza essere messe davvero in discussione. Sembra quasi una gara al rialzo su chi riesce a prevedere il maggior numero di posti di lavoro a rischio, o quali figure professionali saranno eliminate. Raramente c’è cautela o riflessività sulla nostra capacità stessa di fare previsioni. E soprattutto manca un dibattito sull’impatto che questo discorso pubblico produce. Perché, a prescindere dal fatto che le previsioni si verifichino o meno, il dibattito pubblico che ne è orientato ha un impatto reale. Potrebbe avere più impatto la previsione stessa che non l’effettivo cambiamento tecnologico che quella previsione tenta di stimare. Perché, se tutti dicono che qualcosa accadrà, allora tutti si comportano di conseguenza, all’interno di quel frame cognitivo. E quindi i comportamenti individuali e collettivi, ma soprattutto le politiche pubbliche, vengono orientate da queste previsioni che sappiamo essere, potenzialmente, fallaci. Nonostante questo, mettiamo comunque in atto delle misure che si fondano proprio su quelle previsioni forse sbagliate. Ecco perché, invece di entrare a mia volta nel dibattito su cosa accadrà tra cinque o dieci anni – se verranno eliminati i lavoratori manuali o quelli creativi, le attività routinarie oppure no, e così via – penso sia più interessante capire chi diffonde queste previsioni, che ruolo gioca, e chi valuta l’effetto che queste hanno sulle azioni messe in campo. Quanto mettiamo collettivamente in discussione, in modo critico, queste previsioni? E quanto invece le accettiamo come buone e ci comportiamo di conseguenza? Che impatto ha tutto questo sulle trasformazioni sociali del mercato del lavoro?

 

Nei suoi studi si è concentrata sulle forme di organizzazione del lavoro, dal modello fordista alle reti, fino più recentemente alle piattaforme. Come si inserisce l’intelligenza artificiale in questa traiettoria di sviluppo? Siamo di fronte ad una nuova trasformazione? Ritiene che l’intelligenza artificiale stia contribuendo a rafforzare le gerarchie nel mondo economico, o piuttosto a ridistribuire maggiormente poteri e responsabilità?

Ivana Pais: La diffusione dell’intelligenza artificiale e, più in generale, del management algoritmico nelle aziende di ogni tipo è un processo ancora in corso. È presente, ma non ovunque, e in modo ancora abbastanza limitato. Però sta avvenendo proprio questo: alcune logiche organizzative tipiche delle aziende-piattaforma stanno entrando, attraverso gli algoritmi, anche in imprese e servizi di altro tipo. E quindi alcuni tratti che abbiamo osservato nelle piattaforme diventano interessanti da ricostruire anche altrove. Quali sono questi tratti? Il primo è la concentrazione. Nelle aziende-piattaforma ci sono pochissimi attori e si creano monopoli o oligopoli. Questo accade perché, essendo basate sull’elaborazione dei dati, tendono a concentrare tutto in una o in pochissime aziende per ogni settore. Quando l’intelligenza artificiale entra in altri ambiti, il modello basato sui dati – che richiede quantità enormi di informazioni – attiva dinamiche di scala simili. E quindi quelle stesse logiche di concentrazione economica e di potere rischiano di estendersi a molti altri settori. Poi ci sono altri aspetti legati al funzionamento stesso degli algoritmi, relativi a tutte le potenzialità e i limiti che conosciamo bene.

C’è un fenomeno che, a mio giudizio, è molto sottovalutato ma centrale: ci concentriamo sull’innovazione tecnologica e consideriamo l’intelligenza artificiale come innovazione tout court. Ma quello che sta succedendo con l’ingresso dell’intelligenza artificiale nelle aziende è che, a fronte di un’apparente innovazione (perché si introduce una nuova tecnologia), in realtà si riduce l’innovazione economica e sociale. L’intelligenza artificiale è una tecnologia che tende a produrre omologazione: più si usano questi sistemi, più ci si appiattisce sulla media. Il meccanismo alla base dell’intelligenza artificiale è, appunto, un meccanismo di “compressione” della varietà. È stato definito “la tirannia della gaussiana”, un’espressione che mi piace molto perché riflette il funzionamento stesso di questi modelli statistici: vince l’informazione più diffusa, non quella più originale. Abbiamo quindi un paradosso: un’innovazione tecnologica che viene trattata come innovazione in senso assoluto, mentre in realtà, introducendola, riduciamo la capacità di innovazione economica e sociale. Le conseguenze di questo abbassamento del livello di innovazione – causato dalla concentrazione in poche aziende e dall’adozione di modelli che soffocano l’originalità invece di stimolarla – le vedremo nei prossimi anni. Ma già ora, le premesse non sono incoraggianti. Perché ogni volta che togli elementi di innovazione da un sistema, sottrai anche un potenziale di imprenditività, in senso stretto.

 

Si è parlato della concentrazione del potere nelle mani di poche grandi corporation, soprattutto nella Silicon Valley, e del fatto che lo sviluppo dell’intelligenza artificiale sembra ormai dominato da attori con risorse e scala sufficienti per imporsi a livello globale. Questa dinamica, però, rischia di escludere altri modelli di innovazione e sviluppo, che potrebbero emergere se ci fosse un accesso più diffuso ai dati. Proprio per questo motivo, alcuni propongono nuovi modelli economici alternativi, come quello del neomutualismo o delle cooperative di dati. Queste esperienze rappresentano una novità interessante dal punto di vista giuridico, sociologico ed economico, e pongono al centro la possibilità di costruire un’intelligenza artificiale più cooperativa, inclusiva e democratica. Che cosa possiamo trarre dal dibattito su questi temi?

Ivana Pais: Avendo studiato le precedenti ondate di innovazione tecnologica, noto come questa attuale, guidata dall’intelligenza artificiale generativa, presenti tratti peculiari. Pensiamo, ad esempio, all’ultima grande trasformazione legata alla diffusione delle piattaforme digitali, emerse subito dopo la crisi economica del 2008. Anche grazie al contesto storico, queste piattaforme hanno dato vita a un fermento culturale e sociale: accademici, attivisti, Terzo settore e società civile hanno aperto spazi di riflessione e sperimentazione per capire come utilizzare queste tecnologie per finalità di innovazione sociale. È stato un momento di forte dinamismo, in cui si è acceso un dibattito vivo sulla sharing economy e le sue varianti, mosso dalla volontà di immaginare economie alternative. Quel movimento, pur con i suoi limiti e insuccessi, ha prodotto pratiche, idee, esperimenti. Abbiamo vissuto, ascoltato e praticato quel dibattito civico, e pur avendo avuto nel passato esperienze non sempre riuscite, almeno ci sono state. Con l’intelligenza artificiale generativa, al contrario, il dibattito è prevalentemente incentrato su rischi e opportunità, ma in modo reattivo. Manca quasi del tutto una riflessione proattiva su come utilizzare la tecnologia per realizzare obiettivi individuali e collettivi. È come se la tecnologia fosse data, e dati fossero anche i suoi scopi. L’unico margine di azione che resta è la reazione, individuale o collettiva. Questo approccio riflette una narrazione dominante secondo cui certi effetti sono inevitabili, e quindi l’unico spazio è quello della preparazione a subirli.

La domanda che segue è: potrebbe esserci un altro tipo di dibattito? E se la risposta è no, perché? Non si tratta di una mancanza di materia prima, perché l’attuale ondata di innovazione tecnologica è guidata dai dati. E intorno alla gestione collettiva, cooperativa e sociale dei dati esistono già spazi di riflessione. Paradossalmente, oggi ci troviamo in una situazione inedita: di solito si dice che la regolazione è lenta rispetto all’innovazione tecnologica, ma in questo caso abbiamo strumenti normativi già esistenti, come quelli sulle cooperative di dati o sull’altruismo dei dati, ma ancora poche pratiche reali. Abbiamo un quadro regolatorio, ma mancano politiche attive, strumenti di supporto e incentivi per far nascere e crescere queste esperienze. In Europa, e in Italia in particolare, è forte il pilastro della regolamentazione ma debole quello delle politiche, soprattutto industriali. Regolamentare è utile e necessario ma non basta: serve anche promuovere, sostenere, facilitare. Viceversa, togliere la regolamentazione non farebbe emergere automaticamente nuove politiche: serve lavorare su entrambi i fronti.

In questo contesto, il mondo della cooperazione ha un potenziale enorme, sia per innovare le forme tradizionali del fare cooperativa, sia nella direzione delle cooperative di dati, e l’Unione Europea potrebbe giocare un ruolo distintivo rispetto ai modelli dominanti statunitensi e cinesi. La retorica “gli Stati Uniti innovano, la Cina copia, e l’Unione Europea regola” oggi non regge più. La Cina non copia: in molti settori innova. E siamo noi europei, spesso, a rincorrere. L’Unione Europea regola, sì, ma dovrebbe anche agire. E potrebbe farlo in una direzione propria, valorizzando quella sfera intermedia tra Stato e mercato in cui operano cooperazione, Terzo settore, associazionismo. È lì che l’Unione Europea può costruire uno spazio di innovazione sociale autentica, dove l’IA venga messa al servizio del bene comune. Immaginiamo, ad esempio, l’uso dell’IA per migliorare i servizi sociali in un continente che invecchia rapidamente. Lì abbiamo un interesse specifico e possiamo sviluppare un ecosistema capace di far dialogare gli attori, abbattere i silos, condividere dati e competenze per obiettivi comuni. Sarebbe un campo d’azione concreto, distintivo e utile. Uno spazio del fare, non solo del regolare.

 

Un altro aspetto che merita un approfondimento è il potenziale dell’intelligenza artificiale come fattore abilitante di nuove forme di partecipazione e di alleanze tra attori diversi coinvolti in questa transizione. Non parliamo solo di legislatori e policy maker, ma anche di chi è chiamato a implementare concretamente queste politiche: le aziende, i sindacati, il Terzo settore. L’intelligenza artificiale sta già funzionando come motore di trasformazioni partecipative e collaborative?

Ivana Pais: Il dibattito sull’IA è molto focalizzato sulla cosiddetta “intelligenza artificiale responsabile”. C’è una forte attenzione – giusta, legittima – sull’etica dell’intelligenza artificiale. Quello che però questo dibattito non vede è la dimensione collettiva del rapporto con l’IA. Ogni volta che si parla di intelligenza artificiale responsabile ed etica ci si ferma al rapporto tra persona e macchina: è un rapporto tipicamente individuale, in cui si guarda – legittimamente – alla tutela dei diritti della singola persona nella relazione con la macchina e nell’utilizzo dell’IA. Quello che manca, di nuovo, è l’intera dimensione collettiva. E se pensiamo che oggi l’IA viene applicata prevalentemente nelle aziende, questo è particolarmente paradossale, perché è come se non si vedesse il livello organizzativo entro cui questi dispositivi vengono utilizzati. Il livello collettivo, sia dei lavoratori nelle aziende, sia dei clienti che utilizzano i servizi basati su questi dispositivi. Il problema è che applichiamo una lente di lettura individualista a fenomeni che invece sono collettivi. Recuperare degli spazi di azione collettiva, sia nell’analisi sia nell’implementazione di pratiche legate all’intelligenza artificiale, è fondamentale. E oggi non è previsto. Anche l’AI Act agisce solo a livello di tutela dei diritti individuali e non prevede in alcun modo un livello di rappresentanza degli interessi collettivi. È proprio un buco nero nella regolamentazione europea, che pure è molto antropocentrica e attenta al ruolo delle persone nell’implementazione dell’intelligenza artificiale, ma sempre intese come individui singoli.

Per questo, al CNEL – il Consiglio Nazionale dell’Economia e del Lavoro – ho avviato un osservatorio, che coordino, che si chiama OPERA (Osservatorio PolitichE e Relazioni industriali per l’intelligenza Artificiale partecipativa), su un’intelligenza artificiale che abbiamo definito “partecipativa”. L’obiettivo è mappare, analizzare e raccontare tutti i casi in cui c’è un’elaborazione collettiva delle applicazioni dell’intelligenza artificiale a diversi livelli. Il livello più formalizzato è quello della contrattazione collettiva, sia settoriale sia – soprattutto – aziendale. Stiamo analizzando tutti i contratti di lavoro per capire quando c’è una contrattazione tra sindacato e azienda: quali sono i temi oggetto di negoziazione, cosa prevedono gli accordi, che tipo di approccio adottano. Gli elementi più stimolanti, dal punto di vista della riflessione, si trovano proprio nella contrattazione aziendale. Accanto a questo, stiamo esplorando anche altre forme di coinvolgimento del lavoratore che non passano necessariamente da una contrattazione formalizzata, ma che prevedono comunque una partecipazione attiva dei lavoratori – o dei clienti – nella progettazione e nell’implementazione dell’intelligenza artificiale all’interno delle organizzazioni. Stiamo rilevando diverse questioni interessanti. Per esempio, i primi contratti sono stati stipulati soprattutto su temi legati alla salute e sicurezza dei lavoratori, che è probabilmente il terreno su cui è stato più facile individuare un interesse comune tra azienda e lavoratori nell’introduzione dell’intelligenza artificiale. Perché? Perché salute e sicurezza sono un interesse condiviso, e trovare soluzioni che aumentino la tutela dei lavoratori è una priorità riconosciuta da entrambe le parti. Questo ha portato, più rapidamente rispetto ad altri ambiti maggiormente controversi, alla firma di contratti che regolano l’uso di questi dispositivi, che accettano una certa logica di sorveglianza, a patto che sia finalizzata alla salute e alla sicurezza e che ci sia la garanzia che i dati raccolti vengano utilizzati esclusivamente per quello scopo.

Un altro aspetto molto rilevante è che in quasi tutti gli accordi c’è molta attenzione alla formazione dei lavoratori. Anche questo è un interesse condiviso da aziende e lavoratori, in quanto l’innovazione tecnologica sta ampliando un mismatch di competenze. L’obiettivo è che i lavoratori siano preparati, che abbiano le competenze necessarie per padroneggiare queste tecnologie, invece che subirle. Allo stesso tempo, ci sono contratti che – in modo più o meno esplicito – anticipano potenziali esuberi, e cercano quindi di accompagnare questi processi tutelando i lavoratori. Si tratta di contratti molto diversi tra loro, che stiamo raccogliendo e classificando per cercare di capire che tipo di contrattazione si stia sviluppando, e anche per individuare delle buone pratiche da raccontare, in modo che possano essere fonte di ispirazione. Proprio negli ultimi mesi abbiamo iniziato a vedere i primi contratti che includono riferimenti espliciti all’intelligenza artificiale. Un caso è la firma del rinnovo del contratto nazionale del settore chimico, all’interno del quale sono stati inseriti alcuni elementi specifici relativi all’intelligenza artificiale.

Per quanto riguarda invece la partecipazione informale, anche qui osserviamo modalità abbastanza diffuse. Per esempio, l’individuazione dei cosiddetti champion: persone all’interno dell’azienda coinvolte nella progettazione e implementazione dei processi di intelligenza artificiale. A questo coinvolgimento si accompagna spesso l’offerta di percorsi formativi per chi si mette a disposizione dell’azienda, che ottiene la possibilità di seguire una formazione specifica, funzionale all’esercizio di quel ruolo legato all’intelligenza artificiale. Anche qui vediamo un interesse convergente: l’azienda beneficia del coinvolgimento diretto dei lavoratori nei processi di innovazione e le loro competenze sono utili ad “addestrare” i modelli e a renderli aderenti ai reali processi aziendali; d’altro canto, il lavoratore ha tutto l’interesse a essere parte attiva di quel processo e a ricevere una formazione adeguata. Quindi, anche al di fuori della contrattazione collettiva, stiamo osservando – soprattutto nelle aziende di dimensioni medio-grandi – esperienze di coinvolgimento attivo dei lavoratori. Sono esperienze interessanti, perché escono dalla logica del rapporto uno-a-uno e aprono una dimensione collettiva nella riflessione sul futuro dell’intelligenza artificiale.

 

L’intelligenza artificiale influenza anche un ambito come il welfare, dove le piattaforme stanno diventando sempre più centrali. Questo fenomeno risponde a necessità legate all’invecchiamento della popolazione e ai cambiamenti sociali, ma anche al lavoro povero e poco tutelato, soprattutto fuori dalle grandi aziende. In questo contesto, quali soluzioni potrebbero emergere per superare questi limiti, in particolare nel lavoro di cura e nelle politiche sociali?

Ivana Pais: I servizi alla persona sono sicuramente tra quelli in maggiore crescita e rispetto ai quali si registra un bisogno crescente nella nostra popolazione, anche a causa delle ben note dinamiche demografiche. In questo settore, le criticità sono molto forti ed evidenti sotto diversi aspetti. L’innovazione tecnologica può offrire un contributo importante, ed è quindi fondamentale provare a percorrere queste strade, perché si tratta di un ambito che ha un profondo bisogno di rinnovamento per affrontare sfide che sono già visibili oggi e che, in prospettiva, non potranno che acuirsi. Siamo uno dei Paesi in cui questi bisogni si stanno già manifestando – anche e soprattutto per via dell’invecchiamento della popolazione, che da noi è più accentuato che altrove – ma siamo anche un Paese che non ha compiuto le tappe precedenti. L’introduzione dell’intelligenza artificiale o dell’automazione, infatti, può avvenire laddove c’è già stata una digitalizzazione dei processi. È molto difficile, in Italia, pensare di arrivare all’intelligenza artificiale senza prima avere digitalizzato in misura significativa. A volte si notano tentativi di spinta in avanti, con l’adozione immediata di tecnologie di ultima generazione, pur avendo saltato i passaggi precedenti. Ma questo approccio non sta funzionando nemmeno nelle aziende.

Non possiamo immaginare di introdurre l’intelligenza artificiale senza aver attraversato le fasi precedenti, anche nelle imprese manifatturiere. Non si può passare direttamente da Industria 1.0 all’intelligenza artificiale: prima devono esserci stati i passaggi di Industria 2.0, 3.0, 4.0. Sono tappe non necessariamente lineari, ma comunque imprescindibili: la digitalizzazione dei processi è una condizione necessaria per introdurre le innovazioni più recenti. Quello che succede, tentando di introdurre direttamente l’intelligenza artificiale senza digitalizzazione, è che i processi devono essere digitalizzati nel mentre, generando ridondanze e disfunzionalità. Da un lato, quindi, ci troviamo in una situazione generale di scarsa digitalizzazione, che rende più difficile l’introduzione dell’intelligenza artificiale. Dall’altro, però, chi arriva in ritardo può avere alcuni vantaggi, come quello di imparare dagli errori altrui. Ma serve la capacità di farlo, altrimenti si corre il rischio di arrivare in ritardo senza trarre quel tipo di insegnamenti. Se chi è arrivato prima ha potuto sbagliare e imparare, noi, arrivando dopo, dovremmo almeno evitare di ripetere gli stessi errori. E invece, soprattutto nei servizi alla persona, stiamo vedendo proprio questo: arriviamo tardi, saltiamo le tappe, e facciamo gli stessi errori che altri hanno già compiuto.

 

Arriviamo quindi all’ultima domanda, che riguarda il management algoritmico. Cos’è esattamente? Come sta cambiando il mondo del lavoro, soprattutto nel nostro Paese, grazie all’introduzione di questi strumenti?

Ivana Pais: Oggi l’impatto degli algoritmi lo stiamo osservando soprattutto in alcune funzioni aziendali. In Italia, l’adozione di queste tecnologie è generalmente più lenta rispetto ad altri Paesi, anche a causa del nostro tessuto produttivo composto in larga parte da piccole e medie imprese. In molti casi, prima ancora di parlare di applicazioni dell’intelligenza artificiale bisognerebbe arrivare alla digitalizzazione, come sottolineavo. Tra i settori in cui l’adozione è più visibile troviamo il customer service, dove l’IA viene sempre più spesso utilizzata per processare e classificare le richieste dei clienti, rispondere automaticamente alle domande più ricorrenti e lasciare agli operatori umani solo i casi più complessi o anomali. Un altro ambito trasversale è quello del reclutamento, in cui l’automazione dei processi di gestione delle candidature sta diventando sempre più comune nelle fasi di selezione del personale. Anche nella manifattura, l’intelligenza artificiale sta trovando spazio, soprattutto per quanto riguarda le attività di tipo previsionale, come il tracciamento e la previsione degli interventi di manutenzione di macchinari e dispositivi. In ciascuno di questi ambiti, l’adozione degli algoritmi crea opportunità ma anche rischi. Ad esempio, nel reclutamento e nel customer service, una delle criticità principali è la riproduzione di bias e distorsioni preesistenti. Negli usi più previsionali, invece, il rischio è quello di cristallizzare il passato, riproducendo l’esistente e limitando la possibilità di innovazione. Questo è un limite strutturale dell’IA: gli output generati dipendono dai dati di addestramento, che riflettono inevitabilmente le distorsioni presenti nella realtà. Questi bias non derivano necessariamente da scelte intenzionali dei programmatori, ma sono radicati nei dati stessi e vengono poi amplificati quando vengono proiettati nel futuro.

È questo il rischio più sottovalutato: la replica del passato come modello di riferimento per le decisioni future. Un esempio evidente è, in particolare, nel reclutamento: se ci basiamo sui dati storici, non solo non riconosciamo i cambiamenti sociali (come l’aumento della partecipazione femminile al mercato del lavoro), ma rischiamo di penalizzare nuovamente le donne. Invece, bisognerebbe introdurre bias positivi, capaci di correggere le disuguaglianze storiche. Più abbiamo bisogno di grandi quantità di dati, più tendiamo ad andare indietro nel tempo per recuperarli, e più rischiamo di utilizzare modelli superati, che ignorano le trasformazioni avvenute negli ultimi anni, come una maggiore attenzione alla parità di genere. Infine, va considerata anche la questione della sorveglianza: molti di questi sistemi implicano una tracciabilità continua delle attività, sia nella vita privata che in quella lavorativa. Questo ha un impatto diretto sul modo in cui operiamo, prendiamo decisioni e viviamo la quotidianità, sapendo di essere costantemente osservati. Su questi temi, per fortuna, il dibattito pubblico si sta attivando e c’è un’attenzione crescente, e anche una sensibilità diffusa, che è fondamentale per orientare lo sviluppo di queste tecnologie in modo più consapevole e giusto.

Scritto da
Tommaso Malpensa

Studente del corso di laurea magistrale in Giurisprudenza e allievo del Collegio Superiore dell’Università di Bologna. Ha ricoperto la carica di rappresentante degli studenti del Dipartimento di Scienze Giuridiche e di rappresentante degli allievi del Collegio Superiore dell’Università di Bologna. Ha partecipato al corso 2023 della scuola di formazione “Traiettorie. Scuola di lettura del presente”.

Scritto da
Francesco Nasi

Dottorando in Sociologia della cultura e dei processi comunicativi all’Università di Bologna. Ha lavorato presso l’Istituto per gli Studi di Politica Internazionale (ISPI) e il Centro Studi di Politica Internazionale (CESPI). I suoi interessi di ricerca si concentrano sull’impatto politico e sociale delle nuove tecnologie, in particolare per quanto riguarda l’IA e l’innovazione democratica.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici