Scritto da Federico Bomba
7 minuti di lettura
L’esplosione dell’intelligenza artificiale generativa ha amplificato il fenomeno della disinformazione, mettendo in discussione il concetto stesso di verità e l’attendibilità delle fonti. Ma cos’è esattamente l’IA generativa? È il modo in cui abbiamo cominciato a chiamare un insieme di tecnologie basate su modelli di apprendimento automatico che, attraverso algoritmi avanzati, possono produrre testi, immagini, audio o video in modo autonomo, spesso simulando contenuti creati dall’uomo. Questi modelli hanno capacità sorprendenti, tra cui quella di generare risultati realistici, rendendo sempre più difficile distinguere ciò che è vero da ciò che non lo è. Di conseguenza, l’ambiente informativo si è fatto più complesso, favorendo la creazione e la diffusione di fake news con una rapidità e una qualità inedite.
Il tema delle fake news e del rapporto con la verità non è affatto un fenomeno recente, né è esclusivamente legato all’avvento di Internet o delle tecnologie digitali, come ci ricorda il wonder injector Mariano Tomatis. Nella storia vi sono numerosi esempi che dimostrano come la manipolazione della realtà e il confine tra vero e falso siano sempre stati al centro del dibattito culturale e filosofico. Un caso emblematico è rappresentato dalle “macchine” settecentesche concepite per meravigliare e, al tempo stesso, confondere gli spettatori, mettendo in discussione le certezze razionali dell’Illuminismo. Questi dispositivi, creati con grande ingegno, mostravano fenomeni apparentemente inspiegabili, usando tecniche ingannevoli per svelare implicitamente i limiti della conoscenza umana, così come accade per le immagini generate dall’intelligenza artificiale. Illusioni ottiche che sfidavano la percezione visiva, anticipando un dibattito che poi divenne uno dei più coinvolgenti sin dalla nascita della fotografia. Tuttavia, è innegabile che l’IA generativa abbia portato questa ambiguità a un livello più sofisticato, riducendo i costi e i tempi necessari per produrre contenuti falsi, per esempio, grazie alla manipolazione dei deepfake, video falsi che riproducono fedelmente le sembianze e la voce di una persona reale. Se la nostra percezione è così facilmente ingannabile, cosa rimane del concetto stesso di realtà? Questo interrogativo si riflette nei crescenti dubbi sulla fiducia nei media visivi.
Per contrastare questo problema, negli ultimi anni si è diffusa la pratica del debunking, ovvero l’analisi critica di contenuti non attendibili allo scopo di smascherare le falsità. I debunker sono professionisti o fact-checker che, attraverso l’uso di fonti verificabili, dati e argomentazioni rigorose, smontano le affermazioni false, presentando al pubblico prove concrete. Tuttavia, nonostante l’importanza di questa pratica, essa ha mostrato alcune limitazioni. Molti individui, specialmente coloro che aderiscono a teorie complottistiche, tendono a rifiutare le informazioni fornite dai debunker. Questo avviene per diversi motivi, tra cui l’effetto del backfire (o effetto boomerang), in cui la confutazione di una credenza può paradossalmente rafforzare la convinzione iniziale di chi la detiene. Inoltre, il debunking viene spesso percepito come freddo e “noioso”, poiché si basa su dati, numeri e dimostrazioni razionali che possono essere facilmente respinte da chi è influenzato da emozioni o narrazioni più coinvolgenti. Come sottolineato da alcune ricerche nel campo della psicologia cognitiva, le persone tendono a privilegiare storie coerenti e affascinanti rispetto a spiegazioni rigorose ma poco accattivanti.
Questa strategia è stata adottata anche da alcune grandi piattaforme digitali. Tuttavia, è interessante notare che molte di queste piattaforme, che in passato promuovevano il debunking tramite partnership con organizzazioni di fact-checking, hanno recentemente ridimensionato queste iniziative, sebbene le ragioni di questa scelta non siano state necessariamente adottate per ragioni scientifiche, quanto piuttosto per il loro allineamento alle nuove politiche degli Stati Uniti. Al contrario, si sono concentrate su strumenti di pre-bunking integrati direttamente nelle loro interfacce, come avvisi di verifica dei fatti o spiegazioni sulle fonti di un contenuto. Si tratta essenzialmente di un approccio preventivo che mira a “vaccinare” le persone contro le fake news prima che queste si diffondano. Il pre-bunking si basa sul principio psicologico dell’inoculation theory, secondo cui esporre preventivamente gli individui a esempi di disinformazione (con una spiegazione sul perché tali contenuti siano falsi) li rende più resistenti a future manipolazioni. Studi recenti, come quelli condotto da Walter Quattrociocchi insieme ad altri ricercatori internazionali, hanno dimostrato che strategie di pre-bunking possono ridurre significativamente l’impatto della disinformazione. In questo contesto, il ruolo dell’educazione mediatica diventa cruciale. Insegnare alle persone a comprendere i meccanismi di produzione dei contenuti digitali e a sviluppare una sana dose di scetticismo verso le informazioni che consumano può rappresentare una delle difese più efficaci contro la disinformazione nel lungo termine. Ad esempio, campagne educative che mostrano agli utenti come funzionano i deepfake o i titoli clickbait possono aumentare la loro capacità critica, migliorando la capacità di riconoscere contenuti manipolati.
La combinazione di pre-bunking e narrazioni persuasive è una delle risposte più promettenti. Come sostiene WuMing 1, una prospettiva interessante è quella di agire in due direzioni complementari per sensibilizzare il pubblico sulla disinformazione e prevenire le fantasie di complotto: da un lato, è importante “aprire” il meccanismo tecnologico per mostrarne il funzionamento. Questo approccio mira a demistificare l’intelligenza artificiale, permettendo alle persone di comprendere meglio i processi attraverso cui vengono prodotti i contenuti digitali. Dall’altro lato, però, è altrettanto necessario mantenere un certo livello di meraviglia. Proprio come nel Settecento, il fascino delle macchine intelligenti non risiede solo nella loro spiegazione tecnica, ma anche nella capacità di evocare stupore e curiosità. In questo senso, strategie che combinano trasparenza e narrazione possono essere più efficaci nel contrastare la disinformazione rispetto alla sola presentazione di dati tecnici. Oggi, come allora, affrontare questi temi richiede un equilibrio tra conoscenza critica e capacità di mantenere vive le emozioni e la meraviglia.
Questa è una delle sfide lanciate da The Next Real, la rassegna ideata da Sineglossa che trasforma Bologna in un laboratorio aperto per esplorare le complesse interazioni tra arte, intelligenza artificiale e società. Attraverso mostre, talk e laboratori offre al pubblico l’opportunità di riflettere sulle trasformazioni generate dalle tecnologie intelligenti. Gli artisti coinvolti mettono in luce le contraddizioni delle intelligenze artificiali, macchine che affascinano e al tempo stesso sollevano interrogativi profondi su democrazia, memoria e identità umana. Il percorso espositivo “When they see us?”, ad esempio, ha affrontato il tema dei diritti digitali, riflettendo sui rischi dell’IA e sulle minacce della sorveglianza biometrica, attraverso tre installazioni dell’artista belga Dries Depoorter. Con Digital Deal, progetto guidato da Ars Electronica, uno dei più fertili terreni di sperimentazione europea nell’ambito delle arti digitali, abbiamo lanciato una sfida aperta agli artisti: “È possibile sfidare le fantasie di complotto con la meraviglia?”. La risposta a nostro avviso più convincente è stata data dal duo italo-inglese dmstfctn con The Models, un’installazione interattiva sviluppata durante una residenza artistica presso il Tecnopolo Data Valley Hub, e presentata in prima mondiale a Bologna, città che offre un contesto interessante per sperimentazioni di questa natura grazie alle sue infrastrutture digitali e alle tradizioni di partecipazione civica e innovazione culturale. Realizzata con il supporto dei e delle computer scientist di Cineca utilizzando il Supercomputer Leonardo, l’opera esplora la verità, la meraviglia e le stranezze dell’intelligenza artificiale generativa attraverso la tradizione teatrale improvvisativa della Commedia dell’Arte.
L’installazione consiste in una serie pressoché infinita di sketch teatrali animati in tempo reale da un 3D game engine e interpretati da un cast di maschere digitali che recitano nello stile della Commedia dell’Arte. Questi personaggi confabulano, inventano, cospirano o commettono errori banali, incarnando sia i tratti archetipici di maschere come Arlecchino, Balanzone, Colombina, Pantalone, Brighella, Pulcinella, sia le tendenze osservate nei large language model, modelli linguistici di grandi dimensioni, alla base dei sistemi di intelligenza artificiale generativa, da cui anche l’installazione prende il nome. The Models si basa su un sistema di modelli di intelligenza artificiale creato dagli artisti per generare dialoghi che enfatizzano queste tendenze. Attraverso il proprio dispositivo mobile, il pubblico può interagire con l’installazione, introducendo oggetti di scena che rappresentano superstizioni, teorie del complotto, o semplici lazzi, intermezzi comici propri della Commedia dell’Arte; selezionando le tendenze che si vogliono osservare nelle IA sul palco; lanciando monete e fiori, pomodori e uova, proprio come nella tradizione della Commedia dell’Arte italiana.
The Models, se letto con le lenti del pre-bunking, contribuisce a immunizzare il pubblico contro la disinformazione attraverso l’esposizione preventiva a esempi di narrazioni manipolative. Invece di limitarsi a individuare e correggere errori dell’IA generativa ex post, l’opera stimola una riflessione critica mostrando in tempo reale come le intelligenze artificiali possano confabulare, inventare fatti e cedere a bias narrativi. Questa esperienza permette di acquisire consapevolezza sulle dinamiche dell’IA generativa, evidenziando quanto sia facile per queste tecnologie produrre storie che sembrano plausibili ma sono costruite su errori o falsità. L’utilizzo delle maschere della Commedia dell’Arte in The Models è particolarmente efficace per rappresentare le tendenze dei large language model (LLM) perché queste maschere sono, per loro natura, archetipi narrativi che incarnano comportamenti e tratti ricorrenti.
La Commedia si basa su personaggi come Arlecchino o Balanzone, ciascuno dei quali agisce secondo schemi prevedibili: il primo è ingannevole e opportunista, l’altro è pedante e tronfio. Questi ruoli stereotipati, che da secoli rappresentano dinamiche umane universali, offrono una metafora potente per le tendenze dei LLM, che spesso replicano archetipi linguistici e culturali presenti nei dati su cui sono stati addestrati. I LLM, infatti, mostrano inclinazioni simili a quelle delle maschere: possono confabulare, inventare informazioni inesistenti, assumere posizioni antagonistiche o compiacenti, oppure commettere errori ridicoli o banali. Questi modelli di comportamento non sono frutto di volontà o coscienza, ma emergono dai pattern linguistici che gli LLM apprendono dai loro set di dati. Le maschere, con la loro capacità di drammatizzare e amplificare tali tratti, permettono di mettere in scena queste tendenze in modo esplicito e sorprendente, rendendo le dinamiche dell’IA facilmente comprensibili al pubblico.
Inoltre, la natura teatrale e improvvisativa della Commedia dell’Arte riflette bene l’imprevedibilità di certi output dei LLM. Come nelle improvvisazioni teatrali, le interazioni tra i personaggi digitali generano situazioni inaspettate, che sottolineano i limiti e i fallimenti delle intelligenze artificiali. Questo approccio permette non solo di esporre le criticità di tali sistemi, e la loro fallibilità, ma anche di farlo in modo coinvolgente e narrativamente potente, stimolando una riflessione critica attraverso l’umorismo e la satira.
La partecipazione attiva del pubblico, che interagisce scegliendo le tendenze dei LLM o i lazzi che lanciano il tema di discussione, diventa l’opportunità per contribuire alla costruzione della “personalità” di un modello. Questa scelta stimola la comprensione dei meccanismi che soggiacciono alle intelligenze artificiali e a riconoscerne le modalità di produzione anche al di fuori del contesto dell’esperienza artistica. I partecipanti sperimentano in tempo reale il fatto che queste tecnologie non siano affatto neutre (come del resto nessuna tecnologia lo è), ma siano invece influenzate dai dataset di addestramento e dalle restrizioni imposte alla generazione di determinati contenuti. Sebbene l’introduzione di strumenti sviluppati in contesti culturali diversi stia iniziando a far emergere una maggiore consapevolezza nell’opinione pubblica riguardo alla variabilità dei risultati prodotti, come ha dimostrato il modello cinese di DeepSeek, iniziative che rendono trasparenti questi meccanismi offrono un’esperienza che trasforma la complessità tecnologica in una riflessione accessibile e coinvolgente, elemento essenziale per promuovere una cittadinanza digitale critica e consapevole.