L’intelligenza artificiale può sostituire la democrazia?
- 14 Gennaio 2026

L’intelligenza artificiale può sostituire la democrazia?

Scritto da Francesco Nasi

13 minuti di lettura

Reading Time: 13 minutes

In un racconto del 1955, Isaac Asimov ha immaginato le elezioni americane del 2008. Quelle che sarebbero passate alla storia per la vittoria del primo presidente afroamericano della storia statunitense, Barack Obama, in Asimov non hanno nulla di particolare. Se non per il fatto che si tratta dell’ennesimo appuntamento elettorale deciso da un supercomputer (che oggi chiameremmo intelligenza artificiale) di nome Multivac. A Multivac bastano i dati di una sola persona per prendere la sua decisione. Così, ogni quattro anni viene sorteggiato un cittadino per essere intervistato dal sistema. Alla luce delle sue risposte, Multivac sceglierà ciò che è meglio per il futuro del Paese.

Fino a poco tempo fa, chiedersi se un sistema di intelligenza artificiale potesse sostituire i processi democratici, come nel visionario racconto di Asimov, sarebbe sembrata una domanda adatta solo a un film di fantascienza o a un esercizio provocatorio. Oggi, però, la questione appare tremendamente attuale. Tra le paure più diffuse legate allo sviluppo dell’intelligenza artificiale c’è infatti quella secondo cui questa tecnologia potrebbe, in qualche modo, “prendere il potere”. Si tratta di un timore più circoscritto rispetto a quello della singolarità (l’ipotesi di un’intelligenza artificiale generale capace di superare l’essere umano in tutte le sue facoltà, sulla cui reale possibilità esperti e scienziati restano divisi). Qui il nodo è diverso e più politico: l’idea che l’IA possa acquisire un peso crescente nei processi decisionali, fino ad assumere un potere politico superiore a quello umano, sottraendo agli individui e alle istituzioni democratiche il proprio ruolo.

Non sono solo le opere di finzione a dare forma a questi timori. Uno degli intellettuali più seguiti degli ultimi anni, lo storico Yuval Noah Harari, autore del bestseller Sapiens e, più recentemente, di Nexus, dedicato all’intelligenza artificiale, è tra i principali sostenitori della tesi secondo cui dovremmo preoccuparci di un’IA capace di prendere il potere. In Homo Deus, Harari introduce il concetto di dataismo, la “religione dei dati”, in cui la fonte ultima di legittimità e di autorità risiede nelle informazioni, nei flussi di dati e nella capacità di elaborarli nel modo più efficiente possibile. Nella sua ricostruzione, il dataismo starebbe gradualmente soppiantando l’umanesimo, aprendo così le porte ad un governo sempre più pervasivo degli algoritmi. Harari non immagina questo scenario in termini hollywoodiani, come un sistema centralizzato che prende tutte le decisioni al posto degli esseri umani. Piuttosto, descrive il progressivo affermarsi di una “burocrazia dell’IA”, destinata a estendersi a molti ambiti della vita sociale (dall’amministrazione pubblica alla sanità, dall’università al sistema bancario e finanziario) e a incidere sempre più direttamente sulle scelte che riguardano gli individui. Come scrive, «il passaggio dell’autorità dagli esseri umani agli algoritmi si sta già verificando tutto intorno a noi, come risultato dell’inarrestabile flusso di scelte personali quotidiane»[1].

Alle posizioni di Harari si affiancano quelle di chi adotta una prospettiva lungotermista, un filone dell’etica contemporanea che attribuisce particolare importanza alle sfide esistenziali e ai rischi a lungo termine per l’umanità, come la possibilità di un’estinzione di massa causata dal dominio dell’intelligenza artificiale. Non a caso, Harari e diversi esponenti di questo mondo sono stati tra i firmatari della lettera aperta che chiedeva una moratoria sullo sviluppo dell’IA, diffusa nei mesi successivi al rilascio di ChatGPT dal Future of Life Institute, dal titolo “Pause Giant AI Experiments: An Open Letter”.

Tra le preoccupazioni si intravedono però anche posizioni di segno opposto. Alcuni studiosi sottolineano infatti che la sostituzione degli esseri umani nei processi democratici con sistemi automatizzati potrebbe portare vari benefici. Henrik Sætra, per esempio, docente al dipartimento di informatica all’Università di Oslo, afferma che, a patto di predisporre adeguati meccanismi di controllo e di backup e di progettare un sistema in cui gli esseri umani mantengano la supervisione sugli indirizzi generali e sugli obiettivi fondamentali della società, l’intelligenza artificiale potrebbe servire obiettivi politici meglio dell’attuale sistema rappresentativo. A suo avviso, queste tecnologie superano gli esseri umani nel ragionamento strategico avanzato e nell’analisi di enormi quantità di dati, risultando quindi più efficaci nell’affrontare problemi complessi e nel produrre output politici nell’interesse della collettività[2].

Questi discorsi si sono intensificati soprattutto con lo sviluppo dei sistemi generativi, che in molti ambiti hanno dimostrato capacità di elaborazione delle informazioni (in particolare in termini di rapidità) nettamente superiori a quelle umane. Ma questo è sufficiente per ritenere dei sistemi di IA legittimati a prendere decisioni politiche? E, più in generale, che cosa significa parlare di un’intelligenza artificiale che “prende il potere” in contesti democratici? In altre parole, un sistema di intelligenza artificiale può realmente sostituire le pratiche democratiche, o addirittura rappresentanti politici democraticamente eletti?

 

Sostituzione o miglioramento? La politica sintetica dell’intelligenza artificiale nei processi democratici

Per affrontare queste domande, il primo passo è osservare chi già oggi sta cercando di sviluppare sistemi di intelligenza artificiale pensati per la politica, con l’ambizione di sostituire almeno in parte le attività umane. È bene distinguere questi progetti dai numerosi strumenti di civic tech progettati per rafforzare o facilitare le pratiche democratiche esistenti, migliorare il dialogo pubblico o supportare i processi deliberativi. Non ci si riferisce quindi a piattaforme che aiutano ad analizzare grandi quantità di opinioni (come Pol.is) o a strumenti pensati per favorire il confronto collettivo e la deliberazione (come Dembrane ECHO), ma piuttosto a quei tentativi che mirano a rimpiazzare direttamente l’azione umana con sistemi di intelligenza artificiale. Un fenomeno che, negli studi sociologici e di comunicazione, sta iniziando a essere definito come “politica sintetica”.

L’economista, fisico e data scientist César Hidalgo ha messo in discussione il ruolo tradizionale dei politici attraverso la sua idea di “democrazia aumentata”: un sistema che permetterebbe a ogni cittadino di creare un avatar basato sull’intelligenza artificiale, modellato sulle proprie preferenze, in grado di votare simultaneamente su una molteplicità di questioni. La democrazia aumentata consisterebbe quindi nell’uso di gemelli digitali per ampliare la capacità delle persone di partecipare direttamente a un grande numero di decisioni democratiche, rendendo i politici eletti de facto obsoleti.

Interessante è il fenomeno dei “candidati IA”. Nel 2023 Andrew Gray si è candidato al Parlamento britannico nel collegio di Selby and Ainsty. Il suo programma elettorale è stato costruito raccogliendo le opinioni dei cittadini e individuando automaticamente le aree di maggiore consenso con un sistema di machine learning. La promessa era di continuare a utilizzare l’algoritmo anche in caso di elezione, mantenendo un canale costante con i suoi elettori e votando le proposte parlamentari sulla base dei loro input. La candidatura ha attirato una certa attenzione mediatica, con articoli su POLITICO e The Guardian, ma i risultati sono stati deludenti: appena 99 voti, pari allo 0,3% dell’elettorato. Similmente, nel 2025, nel collegio di Brighton Pavilion, i cittadini inglesi hanno avuto la possibilità di votare per AI Steve, «l’unico candidato che può avere una conversazione con 45.000 elettori nello stesso tempo e basare le sue politiche su ciò che viene discusso». Il sistema prevedeva di raccogliere costantemente le opinioni dei cittadini, e di usarle per decidere come votare su ogni proposta. Da un punto di vista fisico, il sistema sarebbe stato rappresentato da Steve Endacott, un imprenditore del Sussex che sarebbe stato disposto a partecipare alle sedute del Parlamento e votare come indicato dall’algoritmo. Anche in questo caso però la proposta sintetica non ha incontrato il supporto degli elettori, con appena 179 voti registrati (di nuovo: lo 0,3% dell’elettorato).

Il tentativo di andare oltre la rappresentanza umana ha coinvolto anche i partiti politici. Nel 2022 un gruppo di attivisti ha fondato il Danish Synthetic Party, il primo partito politico guidato da un algoritmo, il chatbot “Leader Lars”. Progettato da un collettivo di artisti, l’obiettivo del progetto è dare voce a chi non trova rappresentanza nel sistema politico danese, incluse le forze che non superano la soglia di sbarramento per entrare in Parlamento e i cittadini che non partecipano alle elezioni. Un’iniziativa simile è arrivata dalla Finlandia, nel 2018, con la nascita dell’AI Party, un progetto nato da un collettivo di artisti per attirare l’attenzione sulle questioni che vengono spesso tralasciate dai partiti tradizionali, offrendo un’alternativa rispetto a schemi politici percepiti come sempre più distanti e delegittimati da parte della cittadinanza.

Abbiamo visto alcuni tentativi di sostituire i politici con sistemi di IA anche nelle elezioni comunali. Nel 2023, nella piccola cittadina costiera giapponese di Manazuru, nella regione di Kanagawa, si è candidato un AI Mayor, con la promessa di «prendere tutte le principali decisioni riguardo la politica locale usando l’intelligenza artificiale, eliminando così qualsiasi bias umano per assicurare una governance più equa». Dall’altra parte dell’Oceano Pacifico, la città di Cheyenne, in Wyoming, ha visto uno schema simile, avendo tra i suoi candidati alle elezioni municipali Victor Miller con la piattaforma Vic (Virtual Integrated Citizen), un bot personalizzato di ChatGPT per prendere decisioni sulla comunità analizzando una grande serie di dati e gli input provenienti dai cittadini. Di nuovo, il risultato sperato non è arrivato, anche se è stato superiore rispetto a casi simili nel Regno Unito (con 327 voti raccolti, pari al 2,96%). Anche l’Italia non è esente da questo fenomeno. Seppur non abbiamo ancora avuto veri e propri sistemi automatici sulla scheda elettorale, ci sono alcuni profili social che si sono presentati come candidati generati dall’IA. Un esempio è la pagina Anna Luce D’Amico per le elezioni comunali di Taranto del 2025, un sistema sviluppato dal consulente Andrea Santoro per portare l’attenzione su «logica, trasparenza e partecipazione».

È evidente che, allo stato attuale, questi progetti non costituiscano né una reale minaccia né una vera alternativa ai sistemi democratici. In primo luogo, perché si presentano, almeno nelle intenzioni, come strumenti pensati per rendere la democrazia più diretta e partecipata, seppur attraverso modalità che ne alterano profondamente l’impianto rappresentativo e che si alimentano di un forte sentimento tecnocratico e antipolitico. In secondo luogo, si tratta perlopiù di esperimenti isolati che, nonostante il loro numero sia aumentato con l’avvento dell’intelligenza artificiale generativa, hanno avuto finora uno scarso impatto politico. I risultati parlano chiaro: pochi voti, una presenza mediatica limitata e un’influenza pressoché nulla sui processi politici più ampi. È vero però che lo scenario cambierebbe radicalmente se su questo terreno investisse un attore dotato di grande potere, o un’azienda con risorse economiche ingenti e una forte credibilità pubblica, decidendo di sostenere un proprio candidato o progetto politico basato sull’IA.

 

Quattro limiti: opinione pubblica, decisioni soggettive, emozioni e fisicità

Lo scarso successo dei progetti di politica sintetica può essere ricondotto a diversi fattori specifici. Si tratta, innanzitutto, di iniziative che nascono dal basso, con capitali limitati (sia economici sia politici) e che faticano a trovare spazio all’interno dell’attuale quadro giuridico. Non a caso, spesso sono costrette ad appoggiarsi a un candidato umano, affiancato o assistito da un sistema di intelligenza artificiale. Anche le proposte di riforma più ambiziose e sistemiche, come la democrazia aumentata di Hidalgo, restano per ora sul piano teorico e faticano a tradursi in programmi politici concreti. Non è impossibile immaginare che, in futuro, queste idee trovino maggiore ascolto. Tuttavia, allo stato attuale, è difficile pensare a un attore politico (che si tratti di un movimento, un candidato o un partito) disposto a fare della propria sostituzione con un sistema di intelligenza artificiale un punto centrale della propria agenda. Una simile scelta implicherebbe infatti una forma di auto-delegittimazione difficilmente sostenibile nel gioco della politica.

A questi elementi se ne aggiungono almeno altri quattro, più profondi, che riguardano in generale il rapporto tra intelligenza artificiale e democrazia e che aiutano a spiegare perché sia strutturalmente difficile che dei sistemi automatizzati possano sostituire i processi democratici.

Innanzitutto, c’è il tema dell’opinione pubblica. Si tratta di un aspetto banale ma che viene spesso trascurato: parliamo di processi sociali, intrinsecamente complessi, che prima di tutto dipendono da ciò che le persone vogliono e percepiscono. Quando si parla della possibilità che l’IA assuma un maggior ruolo politico, ci si scorda che questa cessione di potere non può avvenire da sola, ma deve passare da qualche forma di consenso e dalla volontà di almeno un gruppo di esseri umani. I sistemi di IA hanno una loro agency, ma non una loro soggettività completamente autonoma[3]. Prendiamo il caso dell’augmented democracy di Hidalgo: come potrebbe diventare un sistema politico funzionante? Piccoli esperimenti dal basso che danno riscontri positivi, un movimento che lo sostiene e cerca di influenzare l’opinione pubblica, attori politici che ne fanno la loro bandiera, fino a venire eletti (o prendere il potere con altri strumenti) sulla base di quella piattaforma: tutto questo richiede una dimensione sociopolitica in cui il consenso popolare è centrale.

Seppur con alcune differenze, i vari studi per ora condotti sono concordi nell’evidenziare come la maggior parte dei cittadini delle democrazie sviluppate sia contraria a cedere un crescente ruolo politico a un’IA. Poche persone infatti preferirebbero che un sistema di intelligenza artificiale prendesse decisioni politiche rispetto ad altri attori: in uno studio recente basato su un campione della popolazione del Regno Unito, si tratterebbe appena del 2,3% della popolazione. Molti hanno però un’opinione favorevole nei confronti di soluzioni ibride, in cui cittadini, esperti, politici e sistemi di IA collaborano insieme per individuare le decisioni migliori[4].

C’è poi un secondo limite di natura epistemica, messo in luce dal filosofo Daniel Innerarity. Secondo Innerarity, l’essenza della democrazia risiede nel riconoscimento che, anche quando gli individui condividono valori comuni e dispongono di dati completi, un esito univocamente ottimale può comunque rimanere irraggiungibile. La politica, infatti, implica decisioni prese in assenza di verità nette e incontrovertibili, in contesti in cui gli obiettivi sono spesso oggetto di conflitto, restano ambigui o richiedono di essere ulteriormente definiti[5]. Questa indeterminatezza è il cuore stesso della politica, per sua natura soggettiva e regno dell’azione umana. In altre parole, «una decisione è politica quando, anche al termine di un lungo processo deliberativo e dopo aver preso in considerazione tutte le analisi oggettive a nostra disposizione, l’opzione finale non risulta comunque del tutto evidente»[6]. Il sogno antipolitico e tecnocratico di un sistema che prende decisioni oggettivamente giuste è un’illusione. Queste tecnologie non possono quindi adempiere la loro principale promessa, ovvero fornire soluzioni definitive ai problemi sociali, perché tali soluzioni sono per loro natura parziali, controverse e profondamente intrecciate con valori, giudizi e bias umani.

Il terzo limite ha a che fare con il ruolo delle emozioni, e più in generale con il fatto che la politica democratica non sia un semplice processo di raccolta e aggregazione delle informazioni, né una sequenza lineare di passaggi finalizzati a individuare la decisione migliore. Gran parte del dibattito su se e come l’intelligenza artificiale possa sostituire i politici o i processi democratici muove invece proprio da questo presupposto implicito, da una sorta di reductio ad informationem della democrazia, che finisce per appiattirla su un problema tecnico di calcolo e selezione delle opzioni. Numerosi studi mostrano come il consenso politico non derivi semplicemente dall’elaborazione dei programmi più razionali o valutati come migliori dalla popolazione. I leader non ottengono voti solo perché “hanno ragione” o perché propongono le politiche più efficaci, ma perché riescono a costruire identità collettive, a risultare credibili e a suscitare emozioni[7]. La politica è anche, e forse soprattutto, un terreno emotivo e simbolico.

Da questo punto di vista, i sistemi di intelligenza artificiale mostrano oggi un limite evidente. Le emozioni che tendono a suscitare quando vengono immaginati o introdotti nella sfera politica sono prevalentemente curiosità, diffidenza e timore: sentimenti difficilmente associabili a chi esercita ruoli di leadership, che richiedono invece credibilità, carisma e forza simbolica. Anzi, abbiamo visto come per la maggior parte delle persone ci sia un vero e proprio rifiuto (razionale ed emotivo) rispetto al loro utilizzo. È vero che stanno emergendo, in altri ambiti, forme di relazione parasociale tra esseri umani e chatbot (utilizzati come AI companion, talvolta anche in chiave emotiva o sessuale, come con la piattaforma Replika) che dimostrano come le macchine possano generare legami affettivi. Tuttavia, per ora, siamo ancora molto lontani dal vedere dinamiche simili traslate in modo credibile e socialmente accettato nella sfera politica.

L’ultimo limite (che, di nuovo, si collega alla natura non esclusivamente informazionale della politica) riguarda la dimensione fisica e corporea di quest’attività. La politica è corporea non solo perché riguarda il governo dei corpi, attraverso la normazione della sessualità, la fissazione di canoni estetici o le politiche sulla natalità (come ben analizzato da Michel Foucault con il concetto di biopolitica), ma soprattutto perché la politica si fa con i corpi. Dal basso, ad esempio, quando le persone occupano una piazza per una manifestazione o, al contrario, il corpo può diventare uno strumento per esercitare relazioni di potere top-down, come nella nota pratica del manspreading[8]. La politica si fa con i corpi quando si compiono azioni di rottura dello status quo, come nel caso della Global Sumud Flotilla, partita dai porti di tutta Europa per raggiungere Gaza, usando la propria presenza fisica per mettere in luce le contraddizioni dell’occupazione israeliana della Striscia. Ma la politica è corporea anche nella sua forma più istituzionale: un politico eletto non è chiamato solo a prendere decisioni, ma a rappresentare una comunità e dei valori specifici. Deve partecipare fisicamente a inaugurazioni, mostre, tagli di nastri e riunioni. Mantenere il consenso, indispensabile per governare, implica intrecciare relazioni personali, fare telefonate, prendere caffè, organizzare iniziative. La politica include anche dimensioni di performance corporea: il modo di vestire, lo stile, la proiezione di sé, l’aspetto fisico e la percezione di competenza influenzano massicciamente le scelte di voto[9]. In altre parole, chi fa politica non deve soltanto dire A o B, ma deve essere A o B, anche fisicamente.

Se un sistema di intelligenza artificiale può già oggi (e probabilmente in molti contesti lo fa) supportare i decisori politici nelle loro scelte, è difficile immaginare come un LLM potrebbe svolgere la parte fisica della politica. Le competenze necessarie per interagire fisicamente, rappresentare valori, costruire consenso e tessere relazioni personali restano lontane dalla portata dell’IA, se non con uno straordinario sviluppo della robotica da qui ai prossimi anni, parallelo a un profondo mutamento di ciò che riteniamo socialmente accettabile in campo politico. D’altro canto, i repentini mutamenti politici degli ultimi anni ci hanno insegnato che il cambiamento sociale può essere ben più rapido delle nostre aspettative.

 

Di cosa parliamo quando parliamo di democrazia?

Abbiamo quindi visto come una sostituzione della politica democratica risulti difficile sotto molteplici aspetti. I limiti messi in evidenza descrivono le difficoltà che, oggi, incontrano le iniziative di politica sintetica, sia per le percezioni diffuse nella cittadinanza sia per i limiti strutturali di ciò che l’attività politica è e richiede.

Il fatto che la formale cessione del potere democratico sia a oggi una prospettiva distante non comporta, però, sminuire il timore di Harari richiamato all’inizio dell’articolo riguardo una graduale e involontaria cessione di potere quotidiano. Forse i sistemi automatizzati non avranno “preso il potere” se è un algoritmo a decidere in quale ristorante andrò a cena, o quale notizia leggerò scorrendo il feed dei social, ma avranno certamente accresciuto la loro capacità di influire sulle nostre decisioni. Esiste poi una cessione di potere nel delegare un numero crescente di attività quotidiane agli LLMs: che si tratti di scrivere un’e-mail, organizzare un’agenda o sistemare uno dei paragrafi di questo stesso articolo. Certo, dividere eccessivamente l’agency umana da quella artificiale è sbagliato, perché i sistemi di IA dipendono da come vengono progettati e addestrati da esseri umani, e gli utenti possono in parte governarli attraverso diverse pratiche di “addomesticamento”. Tuttavia, il rischio di un graduale deskilling e dell’erosione di spazi di decisione esclusivamente umani è reale[10].

Bisogna infine ricordare che ciò che intendiamo per democrazia non è un concetto assoluto né immutabile. Bernard Manin ha mostrato con chiarezza come i sistemi che oggi chiamiamo democratici siano nati in opposizione alla democrazia stessa, all’epoca ancora legata all’esperienza ateniese del sorteggio, e guardata con sospetto come fondamentalmente inadatta alla complessità delle moderne società commerciali[11]. Oggi, almeno nei Paesi occidentali, democrazia significa democrazia rappresentativa. Ma cosa significherà domani per le persone che la vivono quotidianamente?

Ad Atene, la democrazia coincideva con la partecipazione diretta alle decisioni della polis, un sistema fatto esclusivamente da e per uomini adulti e che escludeva donne, schiavi e stranieri. Nell’Italia del secondo dopoguerra, democrazia significava votare e, per molti, partecipare attivamente alla vita politica attraverso partiti e sindacati. Nell’Italia del 2025, la democrazia passa sempre più dall’informarsi, dall’esprimersi sui social media, e sempre meno dall’esercizio attivo del voto. Nel 2060, non è da escludere che nell’immaginario collettivo la democrazia si riduca a un mero sistema per prendere decisioni, distaccato dalla partecipazione di una cittadinanza ormai definitivamente sfiduciata e disillusa. Ma se la politica democratica viene progressivamente ridotta a un mero meccanismo di elaborazione delle decisioni, se la sua dimensione fisica, emotiva e umana si indebolisce, mentre continua a crescere il sentimento antipolitico, allora non si può escludere che in futuro i sistemi automatizzati assumano un ruolo sempre più centrale, anche se con forme che oggi difficilmente riusciamo a immaginare. In questo scenario, l’intelligenza artificiale potrebbe effettivamente aspirare a prendere, in qualche forma, il posto della democrazia, ancora più direttamente di come immaginato da Harari. A un rischio simile aveva già alluso Hannah Arendt, quando (criticando le teorie comportamentiste che riducevano l’essere umano a un semplice schema di stimolo-risposta) metteva in guardia contro una concezione dell’umanità svuotata dell’azione e della pluralità, in grado di trasformarsi in una profezia autoavverante con profonde conseguenze politiche:

«Il problema delle moderne teorie del comportamento non è che siano sbagliate, ma che potrebbero diventare vere, che sono realmente la miglior concettualizzazione possibile di certe evidenti tendenze della società moderna. È perfettamente concepibile che l’età moderna – cominciata con un così eccezionale e promettente rigoglio di attività umana – termini nella più mortale e nella più sterile passività che la storia abbia mai conosciuto»[12].


[1] Yuval Noah Harari, Homo Deus. Breve storia del futuro, Bompiani, Firenze 2018, p. 421.

[2] Henrik Skaug Sætra, A shallow defence of a technocracy of artificial intelligence. Examining the political harms of algorithmic governance in the domain of government, «Technology in Society», 62 (2020), 101283.

[3] Luciano Floridi, AI as Agency without Intelligence. On Artificial Intelligence as a New Form of Artificial Agency and the Multiple Realisability of Agency Thesis (SSRN Scholarly Paper 5135645), «Social Science Research Network», 2024.

[4] Tessa Haesevoets, Bram Verschuere, Kim Dierckx, Alain Van Hiel e Arne Roets, Who Do People Prefer to Be in Charge? An In-Depth Analysis of UK Citizens’ Preferences for Politicians, Citizens, Experts, and/or Artificial Intelligence in Policymaking, «Political Studies», 2025, 00323217251323406.

[5] Daniel Innerarity, The epistemic impossibility of an artificial intelligence take-over of democracy, «AI & SOCIETY», 2023.

[6] Ibi, p. 35

[7] Christopher H. Achen e Larry M. Bartels, Democracy for Realists. Why Elections Do Not Produce Responsive Government, Princeton University Press, Princeton 2017.

[8] Il manspreading può essere definito come quel comportamento (tipicamente maschile) di occupare deliberatamente o inconsapevolmente più spazio del necessario, esercitando una forma implicita di potere e dominanza negli spazi condivisi.

[9] Shawn W. Rosenberg, Lisa Bohan, Patrick McCafferty e Kevin Harris, The Image and the Vote. The Effect of Candidate Presentation on Voter Preference, «American Journal of Political Science», 30(1), 1986, 108-127.

[10] Sul rapporto tra autodeterminazione e potere degli algoritmi, si veda l’ottimo lavoro di Giacomo Pisani, Piattaforme digitali e autodeterminazione. Relazioni sociali, lavoro e diritti al tempo della “governamentalità algoritmica”, Mucchi Editore, Modena 2023.

[11] Bernard Manin, Principi del governo rappresentativo, il Mulino, Bologna 2010.

[12] Hannah Arendt, Vita Activa. La condizione umana, Bompiani, Firenze 2017, p. 339.

Scritto da
Francesco Nasi

Dottorando in Sociologia della cultura e dei processi comunicativi all’Università di Bologna. Ha lavorato presso l’Istituto per gli Studi di Politica Internazionale (ISPI) e il Centro Studi di Politica Internazionale (CESPI). I suoi interessi di ricerca si concentrano sull’impatto politico e sociale delle nuove tecnologie, in particolare per quanto riguarda l’IA e l’innovazione democratica.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici