Intelligenza artificiale e partecipazione. Intervista a Gianluca Sgueo
- 04 Dicembre 2025

Intelligenza artificiale e partecipazione. Intervista a Gianluca Sgueo

Scritto da Emma Ceragioli, Francesco Nasi

11 minuti di lettura

Reading Time: 11 minutes

La democrazia digitale solleva interrogativi cruciali: le tecnologie rafforzano davvero la partecipazione o rischiano di svuotarla? L’intelligenza artificiale e le piattaforme digitali trasformano il rapporto tra cittadini e istituzioni, ma aumentano anche disuguaglianze e sfiducia. Il dibattito si concentra sulle contraddizioni tra innovazione tecnologica e processi democratici, tra efficienza e inclusione, tra regolazione e libertà.

Gianluca Sgueo, esperto di democrazia digitale e autore del libro La democrazia migliore. Tecnologie che trasformano il potere (Rubbettino 2022), propone una visione critica ma costruttiva. Nell’intervista evidenzia come l’intelligenza artificiale possa facilitare il dialogo pubblico e l’accesso alle decisioni, ma mette in guardia dai rischi di esclusione e manipolazione. Per affrontare queste sfide, invita a puntare su educazione digitale continua e politiche pubbliche più eque.


Quando si parla di intelligenza artificiale e democrazia, il dibattito si concentra spesso sui rischi di questa tecnologia, come ben esemplificato dall’attenzione pubblica sul tema della disinformazione. Esiste la possibilità che l’IA sia utilizzata anche a vantaggio della democrazia, favorendo una partecipazione democratica più ampia e migliori servizi pubblici? 

Gianluca Sgueo: Si parla molto dell’intelligenza artificiale in relazione al consumo di informazioni, basti pensare alla questione dei deepfake e all’impatto negativo che possono avere sul discorso pubblico. Questo è un tema cruciale per la salute di un sistema democratico, tanto che l’Unione Europea ha già adottato alcune misure, e ne sta progettando altre, per limitare gli effetti sul dibattito pubblico della disinformazione artificiale. Tuttavia, è altrettanto vero che esistono applicazioni positive di questa tecnologia per il confronto democratico. Ne cito tre, già sperimentate e particolarmente interessanti. Si tratta di usi apparentemente semplici, ma molto utili.

La prima applicazione è la traduzione simultanea di alta qualità. Soprattutto nelle piattaforme che ambiscono a favorire un dialogo transnazionale, la barriera linguistica può diventare un fattore di esclusione, in particolare per chi non è madrelingua inglese. Oggi, le intelligenze artificiali dedicate alla traduzione simultanea hanno raggiunto un livello di sofisticatezza tale da garantire risultati eccellenti in tempo reale. La seconda applicazione riguarda il filtraggio dei commenti, un aspetto altrettanto rilevante. Nel corso che tengo a Parigi, nel 2024 abbiamo condotto un esperimento con la piattaforma di dibattito democratico Pol.is, già utilizzata in vari Paesi del mondo come Taiwan, Austria, e Stati Uniti. Questo strumento utilizza un algoritmo che seleziona i commenti in base alla loro rilevanza, individuando le aree di consenso tra opinioni diverse per arrivare a risultati condivisi. Nel nostro test simulato, con un numero limitato di commenti, il sistema si è rivelato molto efficace. Ovviamente, con migliaia di commenti potrebbero emergere alcune criticità, ma resta comunque un tool promettente. Infine, la terza applicazione riguarda la comunicazione nelle iniziative democratiche. L’intelligenza artificiale oggi è in grado di creare rapidamente contenuti di vario tipo, rendendoli accessibili a pubblici differenti. Anche se nessuna di queste innovazioni rappresenta una rivoluzione copernicana, il loro impatto sulla qualità del dibattito pubblico è significativo e contribuisce alla vitalità della democrazia.

 

Che cosa distingue l’intelligenza artificiale dalle altre tecnologie digitali usate in passato per i processi democratici, come piattaforme di civic tech quali Decidim o Consul? Qual è il valore aggiunto di queste innovazioni? 

Gianluca Sgueo: La caratteristica più interessante che distingue l’intelligenza artificiale dalle tecnologie precedenti è la sua capacità di generazione creativa di contenuti. Esiste un ampio dibattito sulla creatività e su quanto possano essere effettivamente creative le intelligenze artificiali. Di certo, non si tratta di una creatività paragonabile a quella umana: un’IA non è in grado di immaginare qualcosa di completamente nuovo partendo dal nulla. Noam Chomsky definisce questo processo rule-governed creativity, ovvero una creatività regolata da un sistema di regole che indicano all’algoritmo quali informazioni utilizzare e quali inferenze statistiche compiere. Questo aspetto è dirompente: la possibilità di avere un agente in grado di generare contenuti intellegibili e di buona qualità all’interno di un dialogo tra più persone è una novità assoluta. Altri elementi, come la maggiore velocità o la semplificazione dei processi, sono già presenti in molte tecnologie e ci siamo abituati a considerarli normali. Invece, la capacità dell’IA di affiancare il pensiero umano nella creazione di contenuti rappresenta qualcosa di inedito e, a mio avviso, il suo aspetto più significativo.

 

Nei suoi lavori, si è concentrato sulle forme di partecipazione democratica digitale per i cittadini. Tuttavia, in molte realtà, sembra persistere un forte attaccamento a meccanismi più “tradizionali”. Crede che questa preferenza per l’analogico sia dovuta a una resistenza culturale o piuttosto a barriere strutturali, come la complessità delle procedure digitali? Un esempio recente è il voto dei fuori sede, che richiedeva una registrazione online preventiva e ha scoraggiato molti studenti e lavoratori. La digitalizzazione sta davvero rendendo più accessibile la partecipazione democratica o, paradossalmente, rischia di escludere alcune categorie di cittadini? 

Gianluca Sgueo: L’esempio che proponete è molto calzante, perché mostra chiaramente come la trasposizione di un processo analogico in un contesto digitale non comporti automaticamente una semplificazione radicale. Anzi, può introdurre passaggi diversi che rendono l’interazione più lenta o macchinosa. La mia prima risposta è che, certamente, l’interazione digitale è più agevole rispetto a quella analogica, ma il guadagno in termini di efficienza non è immediato nella maggior parte dei casi. Questo perché la digitalizzazione di una procedura si innesta su una struttura preesistente, in cui molte altre componenti rimangono analogiche. Inoltre, l’accessibilità dipende dal livello di competenze digitali degli utenti, che è estremamente variabile. Non ridurrei quindi il problema a una semplice questione generazionale, per quanto questo aspetto sia rilevante. Chi studia e si forma oggi è la prima generazione a farlo con l’intelligenza artificiale, un elemento che va oltre la definizione tradizionale di nativi digitali. C’è poi un fattore legato alla maturità nell’uso delle tecnologie. Se consideriamo, per esempio, la coesistenza tra strutture tradizionali e strumenti digitali, il tempo necessario affinché una semplificazione diventi effettiva e accessibile, e infine la diversità di competenze e comprensione tecnologica tra gli utenti, emerge una spiegazione plausibile del perché spesso le tecnologie digitali non semplificano immediatamente i processi. Molte volte, finiscono per tradurre in formato digitale una complessità che già conoscevamo.

 

Nel suo libro dal titolo La democrazia migliore (Rubbettino), analizza la relazione tra piattaforme digitali private e spazi pubblici, evidenziando come il capitalismo digitale abbia trasformato Internet in un’arena dominata da logiche di mercato. Fino a che punto questo fenomeno potrebbe e dovrebbe essere regolato? 

Gianluca Sgueo: Noi europei viviamo in un contesto di iper-regolamentazione della tecnologia. Non dico che sia necessariamente un male, ma è evidente che negli ultimi otto anni – al netto della pandemia, che per un certo periodo ha ridefinito le priorità – l’Unione Europea ha mostrato una chiara tendenza a intervenire in modo deciso e regolatorio su tutti i principali ambiti tecnologici. Voi citate il caso delle piattaforme digitali e di Internet, ma questo vale per tutto, compresa l’intelligenza artificiale, che è stata recentemente oggetto di uno dei regolamenti più rilevanti, l’Artificial Intelligence Act. 

La questione non è fino a che punto si possa regolamentare. Le aziende, soprattutto quelle statunitensi, quando operano sul mercato europeo si adeguano alle normative dell’Unione. Piuttosto, i temi fondamentali sono due. Il primo riguarda il grado di uniformità con cui il mercato può essere regolato. Questo è un aspetto complesso, perché vediamo quotidianamente come le posizioni dei diversi regolatori divergano su questi temi. Ripercorrendo il 2024, possiamo ricordare numerosi episodi in cui la regolamentazione della tecnologia, inclusa l’intelligenza artificiale, ha generato fratture tra diversi attori istituzionali. Un caso emblematico si è verificato all’inizio del 2025, al Summit di Parigi, dove i governi di tutto il mondo avrebbero dovuto concordare uno standard globale. Invece, l’evento ha evidenziato profonde spaccature: il Regno Unito ha dichiarato di voler procedere autonomamente, gli Stati Uniti hanno preso una direzione distinta, e l’Unione Europea si è trovata a dover gestire un panorama frammentato.

Il secondo tema riguarda la legittimità stessa di un sistema normativo così pervasivo. L’approccio statunitense privilegia la libertà del mercato, con tutti i disequilibri che questo comporta. Personalmente, ritengo preferibile un sistema con una maggiore regolamentazione, ma i dati economici non supportano questa posizione in modo netto. L’economia statunitense, pur caratterizzata da disuguaglianze sociali significative, garantisce un livello di benessere complessivo più elevato per chi ne fa parte. Non si tratta di un modello migliore in senso assoluto, ma i dati mostrano che mercati meno regolati tendono a essere più competitivi. Dunque, la domanda da porsi non è solo fino a che punto vogliamo spingere la regolamentazione, ma anche quante regole vogliamo realmente avere.

 

Strumenti di intelligenza artificiale come i bot possono distorcere l’interazione tra cittadini e istituzioni nello spazio democratico, amplificando artificialmente alcune opinioni e creando una falsa percezione del consenso pubblico. In che misura l’uso dei bot e di altre forme di automazione nella sfera politica rappresenta una minaccia per la rappresentatività? Esistono strategie o regolamentazioni efficaci per distinguere una partecipazione autentica da una manipolata? 

Gianluca Sgueo: La prima riflessione che vorrei proporre è che l’ingresso di elementi artificiali nel dibattito pubblico è pericoloso, perché questi possono influenzare o addirittura monopolizzare la discussione senza essere veri portatori di interessi. Tuttavia, occorre prestare attenzione a un fenomeno altrettanto rilevante: una parte non trascurabile della popolazione ritiene che le decisioni politiche dovrebbero essere prese direttamente dalle macchine, poiché queste opererebbero secondo il principio della mera efficienza, senza essere condizionate da opportunismi, emozioni o pressioni politiche. Il sondaggio European Tech Insight, condotto in Europa nel 2020, ha chiesto ai cittadini quanto avrebbero desiderato che i loro rappresentanti politici fossero sostituiti da algoritmi, in virtù della loro presunta efficienza. Il dato emerso è sorprendentemente alto: ben il 25% si dichiarava favorevole all’idea che un algoritmo prendesse decisioni politiche.

Regolamentare questi strumenti è estremamente complesso. Dove siamo consapevoli della loro presenza – come nel caso della piattaforma X, notoriamente popolata da bot – ci troviamo comunque di fronte a spazi privati. Le istituzioni europee aspirano a regolamentare queste piattaforme, ma resta da capire quanto tali misure possano essere realmente efficaci. Nel contesto europeo, il Digital Markets Act e il Digital Services Act introducono limiti per i cosiddetti gatekeeper, ovvero i grandi operatori digitali, comprese le piattaforme che ospitano algoritmi e bot potenzialmente in grado di influenzare il dibattito pubblico. Tuttavia, l’efficacia di queste normative è ancora tutta da verificare. Un’altra proposta – avanzata da alcuni ma non ancora adottata in nessun Paese – prevede di vincolare l’iscrizione ai social media all’identità reale dell’utente, per contrastare la proliferazione di profili falsi. Si tratta di un’idea potenzialmente interessante, ma non priva di criticità. Un caso simile è quello dell’Australia, che ha imposto il divieto di accesso ai social per i minori di 16 anni: una misura che, per quanto rigorosa, può essere facilmente aggirata. Del resto, sappiamo che i divieti digitali spesso si rivelano poco efficaci. Basti pensare ai banner di avviso su contenuti sensibili nei social network: per quanto imposti da normative che vietano la diffusione di materiali violenti, nella pratica basta un clic per accedervi. Questo dimostra come una regolamentazione possa esistere formalmente, ma senza un’effettiva capacità di impedire la diffusione di contenuti indesiderati. In linea di principio, dunque, l’idea di una maggiore regolamentazione è interessante, ma non appare necessariamente risolutiva per un problema così complesso.

 

Con deplatforming si intende l’esclusione di individui o gruppi di persone dalle piattaforme digitali, spesso per motivi legati alla moderazione dei contenuti. Se da un lato questo strumento può essere visto come una tutela contro la disinformazione e l’incitamento all’odio, dall’altro solleva questioni critiche sulla libertà di espressione e sul potere delle Big Tech nel definire i confini del dibattito pubblico. Crede che il deplatforming sia un meccanismo efficace per proteggere la democrazia o rischia di diventare una forma di censura arbitraria? Quali alternative potrebbero esistere per garantire sia la libertà di espressione che la responsabilità nell’ecosistema digitale? 

Gianluca Sgueo: L’esempio più evidente di deplatforming è quanto accaduto dopo la fine della presidenza di Donald Trump, a seguito degli eventi di Capitol Hill del 6 gennaio 2021. Diverse piattaforme, principalmente Meta, hanno allontanato Trump, privandolo di uno dei suoi principali canali di comunicazione. Cosa possiamo osservare? Sono passati cinque anni e Trump non è stato presente su queste piattaforme per lungo tempo, ma ciò non gli ha impedito di creare la sua piattaforma, attraverso la quale continua a comunicare liberamente. Non ha avuto problemi. Ciò che è più rilevante, però, è che tutte le principali piattaforme hanno cambiato radicalmente il loro approccio. Facebook, dopo l’elezione di Trump, ha dichiarato di non fare più filtraggio dei contenuti, abbandonando questa policy. La piattaforma X, gestita da Elon Musk, è stata abbandonata da molte persone che credevano in un dibattito libero. Al di là della mia opinione sull’efficacia del deplatforming, ciò che emerge è che sono le stesse piattaforme a dimostrare l’inefficacia di questa pratica. Può avere effetto su utenti più marginali che fanno commenti offensivi, dove l’algoritmo riesce a individuare questi comportamenti e a sospendere l’account. Tuttavia, per le grandi figure divisive ma centrali nel dibattito pubblico, il deplatforming non si è rivelato uno strumento efficace. Il risultato finale, infatti, è stato quello che abbiamo visto; quindi, la mia valutazione non è positiva.

 

Tendenzialmente, sono le classi più privilegiate a beneficiare maggiormente dello sviluppo tecnologico. Per ridurre questo gap, ritiene sia possibile e/o necessario investire di più sul fronte dell’educazione e della formazione? In che modo un’alfabetizzazione digitale mirata potrebbe ridurre il divario nell’accesso e nell’uso consapevole della tecnologia, trasformandola in uno strumento maggiormente democratico? 

Gianluca Sgueo: Sono convinto che l’educazione sia la strada più importante da percorrere. È essenziale fornire a ogni individuo, indipendentemente dall’età o dal livello di maturità tecnologica, gli strumenti per comprendere il mondo digitale. Tuttavia, si tratta di una sfida estremamente complessa. Primo, l’educazione digitale dovrebbe partire dalle famiglie. Sono genitore di due bambine ancora troppo giovani per usare strumenti digitali, ma so che presto ci arriveremo. Nonostante la mia attenzione al tema, vedo molti amici, ottimi genitori, che non hanno piena consapevolezza dei rischi legati all’uso della tecnologia da parte dei loro figli. Questo significa che, in molte famiglie, manca una vera educazione digitale fin dalla prima infanzia. Secondo, governi e amministrazioni possono promuovere programmi educativi – e in Italia ne esistono diversi – ma è difficile raggiungere efficacemente l’intera popolazione. La formazione digitale non può essere uguale per tutti: ciò che è utile per me potrebbe non esserlo per un mio genitore o per un adolescente. Per questo motivo, la scuola deve giocare un ruolo centrale. Terzo, c’è il problema dell’obsolescenza delle competenze. Anche se domani avessimo fondi illimitati per creare i migliori programmi di formazione digitale e, in due anni, portassimo l’intera popolazione a un livello di competenza elevato, quelle stesse conoscenze risulterebbero già superate nel giro di poco tempo. L’educazione digitale non può essere un intervento una tantum, ma deve diventare un processo continuo. Per questo si insiste molto sul self-learning, anche se molte persone faticano ad aggiornarsi autonomamente.

L’educazione digitale deve anche essere “valoriale”. Per le generazioni più anziane, che non sono nate nell’era digitale, serve un’educazione di base sull’uso degli strumenti e sulla capacità di discernere le informazioni. Molti ultrasessantenni, ad esempio, considerano Facebook una fonte di notizie affidabile, ignorando che spesso vi circolano informazioni distorte. Per i nativi digitali, invece, il problema non è imparare a usare la tecnologia – lo fanno naturalmente osservando gli adulti – ma acquisire una consapevolezza critica e un’etica del digitale. È necessario comprendere che gli spazi digitali hanno regole simili a quelli fisici: nella vita reale non ci sentiremmo autorizzati a urlare contro qualcuno per strada, mentre online questo comportamento è ancora troppo diffuso. L’educazione digitale dovrebbe quindi diventare parte della programmazione scolastica, come un tempo lo era l’educazione civica, ma adattata al contesto tecnologico. Alcuni Paesi stanno sperimentando buone pratiche in questa direzione, ma manca ancora un’attenzione sistematica e radicale. L’idea di una “patente digitale” è interessante però il problema dell’obsolescenza rimane. Anche i valori di riferimento devono essere aggiornati in base all’evoluzione della tecnologia. Cinque anni fa, ad esempio, non ci preoccupavamo di immagini offensive generate artificialmente, mentre oggi l’intelligenza artificiale introduce nuove sfide etiche e comunicative che dobbiamo affrontare.

 

Storicamente, le innovazioni hanno favorito l’emergere di nuove classi sociali, come la borghesia e la classe operaia durante la rivoluzione industriale, che hanno fatto sentire con forza la propria voce per ottenere cambiamenti politici e sociali. Oggi, però, nonostante la presenza di strumenti potentissimi come i social media e l’intelligenza artificiale, sembra che la partecipazione politica si sia indebolita, e che forme di mutamento sociale “dal basso” siano meno frequenti. Come si spiega questo apparente paradosso? Come si è arrivati a questa disconnessione tra innovazione tecnologica e innovazione democratica? 

Gianluca Sgueo: Questo è uno dei punti centrali del mio ultimo libro, il cui sottotitolo è Tecnologie che trasformano il potere. Le grandi trasformazioni tecnologiche degli ultimi due secoli hanno sempre ridistribuito le quote di potere. Non si tratta di una mia idea, ma di un concetto sviluppato dall’ultimo premio Nobel per l’economia, Daron Acemoğlu, nel suo libro Potere e progresso. Acemoğlu analizza il ruolo delle tecnologie nel ridisegnare i rapporti di potere, dalle innovazioni rudimentali del 1200-1300 fino alla rivoluzione industriale e all’attuale rivoluzione dell’informazione. Il punto cruciale è che queste trasformazioni non si traducono immediatamente in cambiamenti sociali. Il legame tra innovazione tecnologica e progresso democratico può esistere, ma non è automatico né immediato. La rivoluzione industriale, ad esempio, non ha portato subito a un miglioramento delle condizioni di vita delle classi meno agiate. È stato necessario un lungo processo affinché la ricchezza venisse distribuita in modo più equo. Oggi ci troviamo all’inizio di una fase altrettanto cruciale, che probabilmente richiederà decenni prima di generare cambiamenti sociali significativi. Un esempio concreto riguarda il mondo del lavoro: leggiamo spesso che molte professioni scompariranno a causa dell’intelligenza artificiale, ma nel concreto questo impatto non si è ancora manifestato su larga scala.

Un altro aspetto fondamentale è il ruolo delle politiche pubbliche. In passato, quando il potere è stato redistribuito, ciò è avvenuto grazie a interventi mirati. Oggi, invece, manca un approccio redistributivo strutturato. Se guardiamo all’intelligenza artificiale e all’economia dei dati, gli interventi governi appaiono frammentati e più focalizzati sulla competizione che sugli impatti sociali. Questo scenario ha prodotto una distribuzione diseguale dei benefici: pochi ne traggono vantaggi enormi, mentre molti restano esclusi. Credo che sia solo una questione di tempo. Non vedo nell’attuale fase una rottura rispetto alle dinamiche storiche, ma piuttosto una trasformazione in corso, che avremo bisogno di tempo per comprendere e interpretare appieno.

Scritto da
Emma Ceragioli

Studentessa di Scienze giuridiche all’Università di Bologna e all’Università di Münster. É appassionata di attualità e politica, con un focus sugli aspetti giuridici. Dimostra un forte interesse per le dinamiche sociali e l’evoluzione della società. Ha svolto attività di volontariato in vari ambiti del servizio sociale, tra cui l’educazione infantile e i campi antimafia, collaborando con organizzazioni come ARCI e Libera. Ha partecipato al corso 2024 di “Traiettorie. Scuola di lettura del presente”.

Scritto da
Francesco Nasi

Dottorando in Sociologia della cultura e dei processi comunicativi all’Università di Bologna. Ha lavorato presso l’Istituto per gli Studi di Politica Internazionale (ISPI) e il Centro Studi di Politica Internazionale (CESPI). I suoi interessi di ricerca si concentrano sull’impatto politico e sociale delle nuove tecnologie, in particolare per quanto riguarda l’IA e l’innovazione democratica.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici