Oltre il mito: l’intelligenza artificiale tra simulacri e narrazioni. Intervista ad Andrea Daniele Signorelli
- 20 Maggio 2025

Oltre il mito: l’intelligenza artificiale tra simulacri e narrazioni. Intervista ad Andrea Daniele Signorelli

Scritto da Francesco Nasi

14 minuti di lettura

Reading Time: 14 minutes

Le tecnologie contemporanee stanno ridefinendo il confine tra realtà e rappresentazione, mentre alcune narrazioni dominanti circondano lo sviluppo tecnologico con effetti sulla percezione collettiva. Le strategie di marketing e comunicazione, soprattutto afferenti alle Big Tech e relative all’IA, creano aspettative spesso scollegate dalle reali applicazioni pratiche. Ne abbiamo parlato con Andrea Daniele Signorelli, giornalista freelance che si occupa del rapporto tra nuove tecnologie, politica e società, a partire dal suo ultimo libro Simulacri digitali. Le allucinazioni e gli inganni delle nuove tecnologie (add editore 2025), dove analizza lo storytelling legato a queste nuove tecnologie e l’alleanza tra Big Tech e politica.


La pervasività delle tecnologie digitali e, più recentemente, l’ascesa dell’intelligenza artificiale hanno reso sempre più sottile il confine tra realtà e rappresentazione. Nel suo ultimo libro, Simulacri digitali. Le allucinazioni e gli inganni delle nuove tecnologie, lei descrive questo processo attraverso i concetti di simulacri e simulazione. Da dove derivano queste idee e cosa significano? Può fare alcuni esempi concreti?

Andrea Daniele Signorelli: L’idea di portare il concetto di simulacri nel mondo tech mi è venuta entrando in contatto con le teorie di Jean Baudrillard, in particolare con il breve saggio Simulacri e impostura. Nello stesso periodo in cui leggevo queste cose, ci trovavamo immersi nell’hype del metaverso, attorno al 2022. All’epoca notai come il racconto del metaverso avesse completamente fagocitato e coperto la realtà della tecnologia che si stava sviluppando. Esistevano davvero un insieme di piattaforme molto diverse tra loro per scopi, tecnologie e dispositivi, ma erano state raccontate da Zuckerberg – e poi da tutti quelli che cercavano di salire sul carro del vincitore – come se costituissero un unico ecosistema interoperabile e aperto, cosa nient’affatto vera. Mi ha colpito molto questo aspetto perché, leggendo Baudrillard e la sua teoria sulla simulazione che sostituisce la realtà, mi è venuto naturale un parallelismo con il metaverso. Questa intuizione è poi diventata una chiave interpretativa che ho ampliato in altri ambiti, perché questa dinamica ritorna spesso: chi sviluppa una nuova tecnologia, prima ancora che sia pronta, prima ancora che se ne conoscano le reali potenzialità e utilizzi, prima ancora che si crei una massa critica di utenti o che venga adottata su larga scala, costruisce una narrazione progettata a tavolino. Questa narrazione serve soprattutto ad alimentare un hype stratosferico, spesso totalmente scollegato dalla realtà delle applicazioni concrete e dello sviluppo tecnologico. Si crea così un meccanismo particolare, che si potrebbe definire una sorta di profezia che si autoavvera – almeno temporaneamente. Il potere economico e politico della Silicon Valley – o di chi per essa – riesce a trasformare la narrazione in realtà, perché il mondo dei media la rilancia e le società di consulenza la amplificano. Spesso, infatti, queste ultime pubblicano report che magnificano le potenzialità economiche di una tecnologia, per poi vendere consulenze alle aziende. Aziende che, leggendo quei report, iniziano a investire in una tecnologia che in realtà non esiste nei termini in cui viene raccontata. Quello che vediamo è, in pratica, la creazione di un simulacro di innovazione tecnologica: un fenomeno narrativo che non corrisponde a nulla di concreto, ma che mette in moto meccanismi economici e speculativi sulla base del nulla. Talmente coperta da questi strati di marketing e narrazione, la realtà diventa inafferrabile.

 

Baudrillard parlava di questi concetti già negli Ottanta. Cosa è cambiato oggi rispetto ad allora? Non vivevamo già prima, con la televisione, la centralità del consumismo e i mass media, in una società basata sui simulacri?

Andrea Daniele Signorelli: Le dinamiche che Baudrillard aveva individuato nel mondo mediatico non solo si sono amplificate, ma anche ampliate e diversificate. Stiamo assistendo a un processo in cui il mondo digitale e le nuove tecnologie sembrano essere l’unica forza capace di immaginare un futuro, e questo conferisce loro un potere che prima non esisteva. Il digitale ha creato un mondo con cui interagiamo attivamente, non più solo passivamente. Un mondo che non è soltanto fisico, ma anche online, in cui le due esperienze, quella reale e quella virtuale, si intrecciano sempre di più. Questo ha amplificato un senso di straniamento, che si manifesta in diversi modi. Da un lato, nelle esperienze legate alla comunicazione e all’intelligenza artificiale, come i deepfake, che stanno appena iniziando a mostrare il loro potenziale disorientante. In futuro, potremmo vivere un’esperienza costante di incertezza, in cui non sapremo più se ciò con cui interagiamo sia genuino o solo una proiezione. Poi c’è tutta la questione dello storytelling, per cui si creano narrazioni che percepiamo come reali, ma che poi scopriamo essere puro e mero marketing. Le smart city sono un ottimo esempio di tutto questo. Le smart city sono letteralmente un termine di marketing, nato con il concorso sulle “Smarter Cities” nel 2010, di IBM. Ma non sono mai esistite vere e proprie smart city, soprattutto in Occidente: esistono alcune funzionalità che, tra l’altro, hanno il difetto di diventare obsolete in tempi rapidissimi. In Italia, l’unica cosa che possiamo considerare “smart” sono i monopattini e le biciclette in sharing abbandonate sui marciapiedi. Laddove, invece, le città sono davvero “smart”, come in Cina, si tratta fondamentalmente di giganteschi dispositivi di sorveglianza. Quindi, ancora una volta, un’enorme etichetta di marketing che alla fine non ha portato a nulla. In mezzo a tutto questo, ci sono tantissime altre esperienze che ci riportano al concetto di simulacro. Una che trovo particolarmente rilevante è l’esperienza stessa che facciamo del web oggi. Il web è popolato da un’enorme percentuale di contenuti generati direttamente da chatbot, che sta crescendo sempre di più. Questo crea un circolo vizioso, affascinante ma anche inquietante: con l’uso di strumenti come ChatGPT, sempre più materiale viene prodotto artificialmente e diffuso in rete, e la quantità è talmente elevata che progressivamente va a sostituire i contenuti generati dagli esseri umani. Questo materiale entra a sua volta nel web, diventando la base con cui nuove intelligenze artificiali vengono addestrate. Si genera così un circolo vizioso che ha almeno tre conseguenze. Primo: saremo sempre più sommersi da materiale generato artificialmente senza nemmeno rendercene conto. Secondo: la qualità del materiale generato sarà sempre più scadente, perché il ciclo si autoalimenta. Terzo: gli stereotipi e le discriminazioni già presenti negli algoritmi – che con fatica stiamo cercando di mitigare – rischiano invece di consolidarsi definitivamente.

 

Un esempio emblematico dell’erosione del confine tra reale e fittizio sono probabilmente le “allucinazioni” delle intelligenze artificiali. Di cosa si tratta e da cosa sono causate?

Andrea Daniele Signorelli: Fondamentalmente, si tratta della tendenza di tutti i modelli linguistici – quindi ChatGPT e i suoi simili – a presentare informazioni errate o completamente inventate come se fossero fatti indiscutibili. Questo dipende dal fatto che questi sistemi sono puramente statistici. Faccio sempre l’esempio dell’autocompletamento dello smartphone: suggerisce la parola successiva basandosi su ciò che abbiamo scritto in precedenza e su ciò che è stato scritto da milioni di altri utenti, prevedendo statisticamente quale sarà la parola più probabile. Ovviamente, ogni tanto sbaglia. I large language model (LLM) funzionano su una scala immensamente più grande, cercando di prevedere la parola più probabile in base a tutte le parole precedenti. Ed è per questo che alcuni linguisti ed esperti di intelligenza artificiale, come Kate Crawford o Emily Bender, dicono che l’IA “inventa sempre”. La differenza è che, nella maggior parte dei casi, ci azzecca. Ma ci azzecca solo perché la parola più probabile viene cercata all’interno di materiale tendenzialmente di qualità. Questo però non significa che non sbaglia mai, e ciò porta ad una serie di problemi. Molti utenti usano ChatGPT e simili come se fossero motori di ricerca. Il rischio è che, così facendo, ogni tanto ricevano informazioni fasulle senza nemmeno rendersene conto, anche perché pochi controllano fonti e link. Un altro problema è che, paradossalmente, più questi modelli migliorano, più diventano insidiosi. Certo, diventano anche più affidabili, ma soprattutto più subdoli: se gli errori si nascondono in dettagli complessi, diventa molto difficile accorgersene. All’inizio le allucinazioni erano grossolane, tipo “un chilo di ferro pesa più di un chilo di piume”, e chiunque poteva riconoscere l’errore. Ora, invece, se chiedessi come funziona lo sviluppo della struttura di una proteina – argomento che non conosco – non avrei alcun modo di capire se l’informazione è corretta o meno. Ovviamente, anche i contenuti trovati online possono contenere errori, ma lì almeno entra in gioco la nostra agency: possiamo scegliere le fonti, confrontarle, approfondire. Con i modelli linguistici, invece, la nostra agency si riduce quasi a zero, perché invece di confrontarci con un motore di ricerca ci confrontiamo con una “macchina delle risposte” che ci fornisce un’unica versione della realtà, senza alternative. E questa “macchina delle risposte” conferisce un potere enorme ai colossi della Silicon Valley che sviluppano questi sistemi. Se smettiamo di valutare diverse fonti stiamo consegnando a un’oligarchia di Big Tech il potere di plasmare ciò che vediamo e sappiamo a livello informativo e mediatico.

 

La fantascienza ha giocato un ruolo chiave nel costruire l’immaginario collettivo sull’intelligenza artificiale, basti pensare a Terminator, Matrix, 2001: Odissea nello spazio o Ex Machina. Queste narrazioni hanno spesso esplorato il timore che la tecnologia possa diventare autocosciente e superare l’essere umano, portando alla cosiddetta AGI (artificial general intelligence). Si tratta di un rischio concreto di cui dovremmo preoccuparci? Quale impatto hanno queste paure oggi nello sviluppo dell’intelligenza artificiale?

Andrea Daniele Signorelli: L’impatto di queste storie è enorme. Se non fosse per film come Terminator, probabilmente oggi non avremmo la paura di una superintelligenza fuori controllo. Perché non c’è nessun segnale che l’intelligenza artificiale possa prendere il potere e trasformarsi in un’entità intelligente che rende l’umanità obsoleta. Parliamo di un sistema avanzato, ma puramente statistico, capace di identificare correlazioni e prevedere testi con straordinaria efficacia. Tuttavia, da qui a un’IA autocosciente e indipendente non c’è alcun nesso logico. Mi riferisco al deep learning e ai suoi derivati, ovviamente, perché in un futuro potrebbe essere creato un altro sistema di intelligenza artificiale che effettivamente ha quelle caratteristiche. Oggi come oggi non ne vediamo nemmeno l’ombra. Eppure, questa narrazione è diventata dominante. Perché se ne parla così tanto? Perché la paura di una super-intelligenza fuori controllo è un dispositivo narrativo funzionale a chi sviluppa l’IA. Possiamo capire questo fenomeno se ci togliamo le lenti dello sviluppo tecnologico e indossiamo quelle del marketing. Per anni, le stesse aziende che lavorano su questi sistemi hanno diffuso allarmi sulla loro pericolosità, suggerendo che fossero così potenti da richiedere regolamentazioni speciali o addirittura di fermarne lo sviluppo. Ma se fosse davvero così pericolosa, perché continuano a investire miliardi in questa tecnologia? Perché coloro che ne lamentano la pericolosità continuano tranquillamente a svilupparla? Il punto è che dietro a questa strategia ci sono almeno tre obiettivi chiave. Il primo è creare un senso di rivoluzione epocale, facendo percepire l’IA come un cambiamento senza precedenti per attrarre più investimenti, essenziali per sostenere un settore che brucia enormi quantità di denaro e che, ad oggi, è in profondo rosso. Il secondo obiettivo è consolidare il potere delle Big Tech, alimentando la narrazione che solo poche aziende selezionate hanno le competenze per sviluppare e controllare l’IA in modo sicuro. Questo spinge i governi a rivolgersi proprio a loro per consigli su regolamentazione e policy, concedendo loro un’influenza sproporzionata. Non a caso, a eventi internazionali come l’AI Safety Summit, l’IA è stata paragonata a una crisi globale pari al cambiamento climatico – un’assurdità, considerando che la crisi climatica ha conseguenze tangibili ogni giorno, mentre la minaccia della superintelligenza è puramente speculativa. Infine, questa narrazione distoglie l’attenzione dai veri problemi dell’IA, come la sorveglianza di massa, la perpetuazione di bias e discriminazioni, l’uso improprio in settori critici – dalla selezione del personale ai mutui, dalla polizia predittiva al riconoscimento facciale. Così tutti i rischi reali, concreti e scientifici dell’intelligenza artificiale vengono sepolti ancora una volta sotto una coltre narrativa che fa molto più presa sull’immaginario, e che serve a plasmare l’idea di futuro nella direzione voluta dalle Big Tech.

 

Negli ultimi decenni abbiamo visto tecnologie che hanno suscitato enormi aspettative, ma che alla fine si sono rivelate ben al di sotto dell’hype: basti pensare agli NFT, al metaverso o alla blockchain. L’intelligenza artificiale è diversa da queste tecnologie? Quanto c’è di reale nell’entusiasmo che la circonda?

Andrea Daniele Signorelli: L’intelligenza artificiale è diversa. Esistono diverse gradazioni di simulacro, e quella del metaverso è distinta da quella dell’intelligenza artificiale. Il metaverso era un dispositivo narrativo sotto al quale, fondamentalmente, non c’era nulla. L’intelligenza artificiale, invece, è una tecnologia realmente rivoluzionaria, che ha già cambiato il mondo. Non tanto – o non solo – con ChatGPT, ma soprattutto con gli algoritmi predittivi, che ormai sono talmente pervasivi da essere diventati parte della nostra quotidianità senza che ce ne accorgiamo. Altre due tecnologie che utilizziamo costantemente senza più farci caso sono l’elettricità e Internet. E qui si crea una concatenazione interessante: non può esistere intelligenza artificiale senza Internet, e non può esistere Internet senza elettricità. Quando una tecnologia diventa così pervasiva da recedere sullo sfondo delle nostre vite, significa che ha avuto un impatto realmente rivoluzionario. Detto ciò, anche l’intelligenza artificiale è vittima di dispositivi narrativi che spesso ne distorcono la percezione, sovrastando le sue reali applicazioni e i suoi veri utilizzi. Lo scollamento tra le reali potenzialità della tecnologia e il suo racconto è evidente. Stiamo parlando – nel caso dell’IA generativa, che si discute più spesso – di una tecnologia che serve principalmente a produrre immagini di scarsa qualità – a meno che non venga utilizzata da persone con competenze specifiche. ChatGPT, invece, è utile per compiti banali, come scrivere un’e-mail professionale oppure per fare riassunti che però richiedono comunque un attento lavoro di revisione. Può aiutare a scrivere codice, ma con il rischio di allucinazioni che generano errori. Nella traduzione, invece, il livello di qualità è ormai molto alto. In generale si tratta di strumenti utilissimi, ma per compiti quotidiani piuttosto banali. Io stesso li uso costantemente, ma sempre con un occhio critico, perché spesso mi fanno perdere più tempo di quello che mi fanno guadagnare. Alla luce di tutto ciò, ci viene detto che siamo all’inizio di una rivoluzione. In realtà ci sono molti segnali che potremmo essere già alla fine dello sviluppo di questi sistemi. Il modo in cui raccontiamo queste tecnologie ha un peso enorme: se invece di chiamarla “intelligenza artificiale” l’avessimo definita “sistema statistico avanzato”, staremmo davvero facendo questi discorsi? Probabilmente no. Forse una sola etichetta diversa, un po’ più scientifica, un po’ meno immaginifica, avrebbe potuto letteralmente cambiare la storia economica-finanziaria degli ultimi decenni. Un altro aspetto dove l’hype intorno all’IA sta diventando problematico è quello finanziario. Recentemente abbiamo visto aziende come OpenAI raccogliere 20 miliardi di dollari in pochi anni, ma nel 2024 ha perso 5 miliardi, con 9 miliardi di spese e 4 di incassi. Anthropic, la società fondata da Dario Amodei, ha una valutazione di 60 miliardi, pur avendo meno utenti di BlueSky, che con 30 milioni di utenti è valutata solo 700 milioni. C’è uno scollamento enorme tra il mondo finanziario, che segue logiche proprie, e il reale valore economico di queste tecnologie. Il modello di business sembra scollegato dalla realtà. Ancora una volta, torniamo al tema del racconto: c’è una patina narrativa, un gioco speculativo che muove enormi investimenti e crea un mondo che, in realtà, non esiste. Ma anche se ne siamo consapevoli, ne restiamo vittime. Se la bolla dell’intelligenza artificiale dovesse scoppiare – e probabilmente succederà, anche se potrebbe volerci tempo – le ripercussioni sarebbero significative.

 

L’emergere di nuove tecnologie ha dato spazio nel panorama intellettuale, e non solo a nuove filosofie e correnti di pensiero. Tra queste, viene spesso citato il lungotermismo, che avrebbe un’influenza significativa su molti protagonisti dello sviluppo tecnologico, soprattutto nella Silicon Valley. In cosa consiste questa corrente di pensiero?

Andrea Daniele Signorelli: Il lungotermismo è una scuola di pensiero nata nelle accademie della Bay Area. Sostiene che, quando decidiamo di quali problemi occuparci, non dovremmo fare distinzioni temporali: un problema che potrebbe verificarsi tra 10 anni va considerato con la stessa urgenza di uno che potrebbe manifestarsi tra 100, 10.000 o persino 100.000 anni. Secondo questa logica, le persone che nasceranno domani hanno lo stesso valore di quelle che vivono oggi. Un esempio per comprendere meglio il lungotermismo è il concetto di giustizia intergenerazionale, che troviamo anche nel dibattito sulla crisi climatica. L’idea di ridurre le emissioni non riguarda solo il benessere attuale, ma anche quello delle generazioni future: vogliamo lasciare ai nostri figli e nipoti un mondo abitabile. Questo principio, in sé nobile e razionale, viene però estremizzato dal lungotermismo, che non si limita a considerare le prossime generazioni, ma guarda a un futuro remoto, anche tra milioni di anni. L’obiettivo diventa prevenire qualsiasi evento che possa rappresentare una “catastrofe esistenziale” per la specie umana, e di farlo a qualsiasi costo, anche sacrificando il benessere e i diritti delle persone che vivono oggi sulla Terra. Questa visione è profondamente antropocentrica: secondo i lungotermisti, l’esistenza dell’umanità è un valore assoluto e va preservata a ogni costo. Si parla spesso di concetti come la “luce della coscienza” o il “destino manifesto” dell’essere umano, sostenendo che tutte le risorse disponibili devono essere impiegate per scongiurare rischi, anche con probabilità infinitesimali, ma dalle conseguenze potenzialmente irreversibili. Un esempio tipico è la paura della superintelligenza artificiale: sebbene la possibilità che diventi una minaccia sia incerta, il solo fatto che esista una probabilità diversa da zero giustificherebbe, secondo loro, l’allocazione di enormi risorse per prevenirla. Questo approccio, però, apre a una critica sollevata dal filosofo Émile P. Torres: se ogni rischio, anche remoto, con una possibilità infinitesimale di verificarsi deve essere trattato come prioritario, allora qualsiasi scenario improbabile – persino l’emersione di un “demone” dal sottosuolo – meriterebbe lo stesso livello di attenzione. Forse anche per questo oggi il lungotermismo sta perdendo terreno rispetto ad altre teorie, ma rimane una filosofia molto influente, specialmente nei circoli dell’élite della Silicon Valley. Più che una vera filosofia, appare come una pseudo-filosofia con tratti quasi settari. Il suo vero scopo non è tanto quello di riflettere sul futuro, quanto piuttosto di influenzare il presente, adattandolo agli interessi economici e politici dei suoi sostenitori. Attraverso questa dottrina e le tecnologie ad essa collegate – in primis l’intelligenza artificiale – molti esponenti del lungotermismo hanno ottenuto posizioni di rilievo in istituzioni di grande peso, come il World Economic Forum, la Banca Mondiale e l’Organizzazione Mondiale della Sanità. Potremmo vederlo come un “simulacro” di filosofia che crea una narrazione sul futuro dell’umanità con lo scopo di agire sul presente.

 

Oltre al lungotermismo come pseudo-filosofia, nel suo libro parla anche di tecnologia come pseudo-religione. Che cosa significa?

Andrea Daniele Signorelli: «Quest’epoca ultratecnologica ci attira come uno sciame di falene verso le luci tremolanti della religione», come dice Erik Davis in TechGnosis. Se ci fai caso, quando si parla di intelligenza artificiale e di superintelligenza, il linguaggio usato richiama sempre l’avvento di un’entità superiore, qualcosa che arriva dall’alto per cambiare le sorti del mondo e dell’umanità. È, letteralmente, un linguaggio religioso applicato alla tecnologia. Sembra quasi che l’essere umano non riesca a liberarsi di un certo dispositivo religioso, forse per ragioni antropologiche, forse perché ne ha proprio un bisogno esistenziale. E così lo proietta anche nelle tecnologie che più si prestano a una lettura millenarista. L’intelligenza artificiale, in particolare, ha generato una visione di questo tipo che si è diffusa enormemente, anche all’interno della Silicon Valley. Poi, come sempre, questa tendenza si è trasformata in una pseudo-religione, in un simulacro. Un meccanismo che, all’inizio, può anche sembrare affascinante, perché fa leva su bisogni profondi, ma che in realtà è stato captato e usato per farci credere, ancora una volta, di essere di fronte all’avvento di un’entità superiore destinata a cambiare tutto. È un gioco narrativo che sfrutta elementi della religione per scopi molto concreti. Perché, in realtà non esiste “l’intelligenza artificiale” come qualcosa di unitario e autonomo, ma solo sistemi statistici basati sul deep learning, che al massimo possiamo definire “sistemi di intelligenza artificiale”. Non è Matrix, non piove dal cielo: è qualcosa che abbiamo costruito e che continuiamo a sviluppare. E non cambierà le sorti dell’umanità in modo mistico o definitivo. Sarà un altro strumento di cui faremo uso. Certo, con una novità importante: per la prima volta, ci confrontiamo con un sistema che simula una propria agency e con cui interagiamo attraverso il linguaggio naturale. Questo porterà senza dubbio a cambiamenti antropologici profondi, già in corso e da studiare. Ma nulla a che vedere con la religione. Eppure, questo immaginario si presta così bene che ha persino generato vere e proprie “chiese dell’intelligenza artificiale” – che poi sono durate poco, ma che sono già esistite.


Per lungo tempo siamo stati abituati a pensare che la politica fosse un passo indietro rispetto allo sviluppo tecnologico, sempre in rincorsa rispetto alle repentine evoluzioni della tecnica. Tuttavia, gli stravolgimenti politici di inizio 2025, con l’avvio del secondo mandato di Donald Trump alla Casa Bianca, sembrano contraddire questa idea: molti grandi imprenditori tech hanno cercato di adattarsi agli interessi politici del momento. Basti pensare al cambio di policy di Meta sul controllo dei contenuti o alle promesse di Apple di investire 500 miliardi di dollari negli Stati Uniti. Stiamo assistendo a un ritorno del primato della politica sulla sfera tecnologica?

Andrea Daniele Signorelli: Con l’avvento dei social network, soprattutto per la nostra generazione, è diventato particolarmente evidente come la politica stesse cercando di rincorrere le Big Tech, adattandosi spesso alle loro richieste. Le grandi aziende tecnologiche concedevano qualche piccolo compromesso, ma continuavano a perseguire i propri interessi, forti di un’immagine positiva e innovativa che dominava il dibattito pubblico. La politica, in quel contesto, poteva opporsi solo fino a un certo punto. Successivamente, con la fine dell’illusione che Internet avrebbe “connesso il mondo e reso tutto migliore”, la politica ha cercato di regolamentare le Big Tech. Tuttavia, il tentativo è sempre stato affannoso e in ritardo, poiché la tecnologia avanza a un ritmo molto più veloce della politica. Quest’ultima, per natura, reagisce ai cambiamenti piuttosto che anticiparli, e il divario tra i due mondi è diventato sempre più evidente. Non penso che quello a cui assistiamo oggi sia un ritorno del primato della politica. La realtà è più complessa. Da un lato, è vero che i governi stanno cercando di imporre una nuova direzione, anche ideologica, alle Big Tech, come dimostrano i recenti cambi di policy e di attenzione su temi specifici negli Stati Uniti. Dall’altro, sembra quasi che le stesse Big Tech non aspettassero altro. Inizialmente, le piattaforme digitali si sono presentate come progressiste, inclusive, pacifiste. Hanno presentato come loro idee cose che in realtà stavano subendo, come i comitati etici o i sistemi di moderazione dei contenuti. Ma quando hanno realizzato di essersi infilate in un vicolo cieco, questi impegni sono diventati un peso. Gestire la moderazione su scala globale, distinguere automaticamente tra contenuti violenti, fake news, deepfake e discorsi d’odio si è rivelato difficile, oneroso, se non a volte impossibile. Facebook ha dovuto rendersi conto che non c’era un modo perfetto di riconoscere automaticamente questi contenuti. Hanno dovuto fare buon viso a cattivo gioco, ma non vedevano l’ora di liberarsi da tutto ciò. Lo stesso vale per i comitati di etica dell’intelligenza artificiale, che all’inizio sono stati lanciati con grande entusiasmo dai vari colossi tech. Poi però si sono resi conto che avevano una serpe in seno, perché questi comitati gli avrebbero impedito di utilizzare i sistemi di intelligenza artificiale nei campi più lucrativi, per esempio l’utilizzo da parte delle forze dell’ordine per il riconoscimento facciale nel campo della sorveglianza, la selezione dei curricula o l’erogazione di mutui, tutti campi dove i problemi di bias e stereotipi sono particolarmente forti. Quindi, l’impressione è che più che il ritorno del primato della politica, ci sia stato un incontro tra la nuova ventata di destra – che viene per ragioni non strettamente legate alla tecnologia, ma ben più profonde – con la necessità delle Big Tech di liberarsi dall’obbligo di apparire “politicamente corrette”. Le aziende tecnologiche hanno colto la palla al balzo e ne hanno approfittato per poter limitare le spese e limitare i doveri, impegni e responsabilità. È stata una congiuntura ideale che alla fine avvantaggia entrambi.

Scritto da
Francesco Nasi

Dottorando in Sociologia della cultura e dei processi comunicativi all’Università di Bologna. Ha lavorato presso l’Istituto per gli Studi di Politica Internazionale (ISPI) e il Centro Studi di Politica Internazionale (CESPI). I suoi interessi di ricerca si concentrano sull’impatto politico e sociale delle nuove tecnologie, in particolare per quanto riguarda l’IA e l’innovazione democratica.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici