Media, potere e intelligenza artificiale: esistono alternative al dominio delle Big Tech? Intervista a Philip Di Salvo
- 04 Dicembre 2025

Media, potere e intelligenza artificiale: esistono alternative al dominio delle Big Tech? Intervista a Philip Di Salvo

Scritto da Daniele Molteni

16 minuti di lettura

Reading Time: 16 minutes

Negli ultimi anni il legame tra politica e tecnologia si è fatto sempre più stretto, con le Big Tech al centro di un processo senza precedenti di consolidamento del loro potere. Questi colossi non solo dominano l’economia dei dati, ma influenzano direttamente la politica e l’informazione, come dimostrano l’elezione di Donald Trump e il ruolo assunto agli inizi della sua amministrazione da Elon Musk. In questo contesto, l’avvento dell’intelligenza artificiale generativa si inserisce in un sistema già fortemente strutturato, amplificando le dinamiche di controllo e ridefinendo le sfide per il giornalismo e la libertà di informazione.

Per approfondire il rapporto tra media, piattaforme, potere e intelligenza artificiale, abbiamo intervistato Philip Di Salvo, giornalista e ricercatore presso la University of St. Gallen in Svizzera. Esperto di whistleblowing, sorveglianza digitale e giornalismo investigativo, Di Salvo scrive dell’impatto sociale della tecnologia per diverse testate e co-organizza DIG Festival, evento che promuove il giornalismo investigativo e di qualità. Con lui abbiamo discusso delle criticità dell’IA, delle debolezze della regolamentazione e della moderazione online, delle opportunità che le nuove tecnologie possono offrire al giornalismo investigativo e delle possibili alternative al dominio delle oligarchie tecnologiche.


L’intelligenza artificiale sta rapidamente trasformando la società e il modo in cui accediamo alle informazioni, sollevando interrogativi sul suo impatto a lungo termine. Spesso si tende a raccontare la tecnologia come neutrale ma anche impossibile da contenere in quanto legata al concetto di costante progresso. Questo arco evolutivo è davvero inevitabile?

Philip Di Salvo: Nessuno degli elementi che compongono la filiera dell’intelligenza artificiale è neutrale. Addirittura, secondo alcuni studiosi come Kate Crawford l’idea stessa di “intelligenza artificiale” sarebbe da interpretare come ancorata a idee eugenetiche sull’intelligenza umana. Non è neutrale il modo in cui sono raccolti i dati che la fanno funzionare, non è neutrale il modo in cui quegli stessi dati vengono trattati per costruire i database che consentono alle applicazioni di funzionare. Di conseguenza, non sono neutrali gli stessi outcome di qualsiasi sistema di IA. La mancanza di neutralità è un fatto ormai comprovato da anni di studi sulla materia. Oltre a questo, dobbiamo ricordarci che l’IA di cui stiamo discutendo di recente, ovvero dopo l’ascesa dell’IA generativa, è di fatto quella delle Big Tech. L’IA generativa si basa sugli stessi principi dell’economia dei dati su cui si basano i servizi che le Big Tech avevano già fornito in precedenza, ed è un approccio alla tecnologia interamente calato dall’alto: questa è, quindi, una specifica materializzazione dell’intelligenza artificiale che si porta dietro le problematiche irrisolte della società datificata, con delle ripercussioni maggiori nel caso dell’IA generativa. Per quanto riguarda l’utilizzo nel contesto dell’informazione, si aggiungono questioni specifiche che riguardano la qualità dell’informazione prodotta, come la disinformazione o la misinformazione. In sostanza, parliamo del capitalismo della sorveglianza che ora può anche generare contenuti problematici o le cosiddette allucinazioni – un termine che però non piace quasi a nessuno se non ai giornali – che producono risultati non sempre affidabili. Questi strumenti non nascono per fornire delle risposte, non sanno quello che dicono, non hanno nessuna capacità intellettiva di quel tipo. Di conseguenza, utilizzarle come fonti di informazione o comunque per produrre testi o contenuti basati su criteri di veridicità è generalmente un errore.

 

Queste tecnologie vengono definite spesso delle black box, poiché i processi decisionali rimangono opachi, così come le informazioni da cui attingono i LLM per essere addestrati; una mancanza di trasparenza che ha conseguenze dirette sul funzionamento della democrazia. Abbiamo visto le questioni sollevate anche dal Garante sia per ChatGPT che per DeepSeek. Quanto è problematico questo fenomeno?

Philip Di Salvo: Il discorso sulla trasparenza è legato a quello di cui discutevamo prima. Parte integrante del successo dei servizi, delle piattaforme e delle aziende stesse della Silicon Valley, è il fatto che ci siano diversi livelli di segreto attorno alle loro attività. Utilizziamo una metafora un po’ abusata, ma efficace: come è segreta la ricetta della Coca-Cola, è segreto il codice sorgente degli algoritmi di Big Tech. È la stessa logica: se il codice fosse di dominio pubblico sarebbe più complesso mantenere la posizione dominante conquistata da queste aziende dopo molto tempo. Nel caso dei sistemi di IA generativa la mancanza di trasparenza è evidente su qualsiasi livello della formazione di un modello di quel tipo, perché non è dichiarato da dove arrivino i dati e come siano stati raccolti e in che modo l’algoritmo li processi. La segretezza è problematica perché spesso questi strumenti, come già altri di Big Tech, vengono utilizzati in contesti pubblici e toccano questioni fondamentali per la democrazia, grazie alla loro capacità di esercitare forme di influenza e di potere senza rivelare quasi nulla del loro funzionamento. Dal mio punto di vista, questo è problematico soprattutto perché non c’è modo di verificare come quel potere venga utilizzato dalle aziende che lo detengono, che, ricordiamo, non sono né democraticamente autorizzate né interessate a servire necessariamente i principi democratici. Vari livelli nella costruzione di un sistema di IA potrebbero essere open source, e sarebbe sicuramente un fattore positivo e necessario, ma credo che non basterebbe la maggiore trasparenza sui dati e sui sistemi di training a risolvere tutti gli altri problemi, tra cui il controllo centralizzato su questo tipo di tecnologie.

 

È interessante notare come OpenAI, sulla questione dell’accessibilità e della trasparenza dei modelli, abbia accusato la cinese DeepSeek di avere rubato i dati, quando la stessa azienda statunitense è stata in passato accusata di poca trasparenza riguardo l’addestramento di ChatGPT.

Philip Di Salvo: Questo confronto paradossale è riassunto perfettamente nel titolo di un articolo di 404 media uscito nel periodo in cui si stava discutendo di questo tema: OpenAI furious DeepSeek might have stolen all the data OpenAI stole from us. Non è di certo un segreto che OpenAI abbia costruito il suo LLM senza considerare l’esistenza stessa del copyright. Di conseguenza, è curioso che si appelli al medesimo principio solo perché il loro principale concorrente in Cina potrebbe non essere altrettanto interessato al copyright. Lo dico senza essere di certo un grande sostenitore del copyright, che in buona parte è un criterio superato. Allo stesso tempo, però, trovo inaccettabile che un’azienda con miliardi di finanziamento agisca come se non esistessero leggi. Negli ultimi mesi abbiamo anche visto Sam Altman avvicinarsi politicamente a Trump e la sua azienda togliere, piuttosto sottovoce, le limitazioni all’utilizzo militare delle proprie tecnologie. Quando si parla di trasparenza, in relazione al ruolo e all’agire di queste aziende e delle loro tecnologie che hanno un ruolo piuttosto pesante nella sfera pubblica, bisogna tenere in considerazione anche queste scelte e queste operazioni di posizionamento.

 

Un altro aspetto del dibattito sull’intelligenza artificiale riguarda i toni apocalittici o, al contrario, di fervente entusiasmo sui suoi utilizzi. Così come la questione del copyright, entrambe queste posizioni sembrano effettivamente sviare l’attenzione dalle problematiche reali. Quali sono le ragioni dell’allarmismo mediatico e in che modo si intrecciano con le dinamiche di potere delle piattaforme e delle grandi aziende tech? 

Philip Di Salvo: Attorno all’intelligenza artificiale si sono sempre fatti discorsi con toni molto polarizzanti, iper-ottimistici o iper-pessimistici. La cosa interessante è che a produrre questi due discorsi è spesso lo stesso gruppo di persone, o comunque lo stesso milieu culturale: gli imprenditori, che promuovono i loro prodotti, e una serie di studiosi molto rispettati, come il vincitore del premio Nobel per la Fisica nel 2024 Geoffrey Hinton. Sono tutte personalità assolutamente di primo piano dal punto di vista tecnico o scientifico, però quando si tratta di guardare alle conseguenze di questi strumenti dal punto di vista politico e sociale le loro prese di posizione non sembrano accompagnate da una necessaria attenzione all’evidenza scientifica. Sam Altman, ad esempio, racconta sé stesso come il creatore geniale della macchina e racconta come la macchina rischierà di ucciderci dicendo: “Se volete che non vi uccida, sono io l’unico che può controllarla”. È un discorso che ovviamente si riversa poi nelle dinamiche politiche e in quelle di potere, potere che in questo modo Altman si attribuisce. Allo stesso modo, affianco a questi personaggi troviamo spesso studiosi che, vuoi perché sono così tanto dentro il discorso tecnico, vuoi perché comunque detengono un ruolo dentro l’industria – o forse solo perché hanno letto troppo fantascienza – si sforzano di immaginare la fine dei tempi dicendo che l’intelligenza artificiale si ribellerà a noi e tutto quel genere di narrazione. Queste posizioni a me continuano a sembrare, citando Harry Frankfurt, bullshit, nel senso che non riguardano quello di cui ci dovremmo preoccupare riguardo agli effetti dell’IA.

Quello che dovrebbe preoccuparci oggi, per quanto riguarda l’utilizzo dell’IA, sono cose molto più concrete, citate da ricercatori altrettanto affidabili e credibili che hanno sottolineato i problemi di bias e discriminazione, la data justice e le dinamiche di sorveglianza. Sono temi noiosi rispetto alla potenziale ribellione delle macchine, la fine dell’umanità o altre cose di questo genere, ma purtroppo sono più veri e attuali. Mentre sprechiamo tempo a scrivere dei rischi esistenziali e a correre dietro ai guru visionari rischiamo di perdere completamente il polso sulle questioni più concrete che toccano già le vite di tante persone, anche in Europa. Ci sono state diverse inchieste giornalistiche che hanno dimostrato come alcuni algoritmi abbiano problemi di bias razziali e di genere che rischiano di togliere sussidi alle persone per semplice statistica, rovinando loro la vita. Se a causa dell’uso determinista di questi strumenti le persone ricadono nella povertà, credo si tratti di un problema più reale e urgente di immaginare l’arrivo del Terminator. Dobbiamo, nei media, nella ricerca e nella politica; invece, preoccuparci di queste questioni anche perché la fantascienza, al contrario dei problemi reali, non si può normare. È per questo che le grandi aziende tendono a parlare di scenari fantascientifici, perché non c’è cosa che temano di più della regolamentazione.

 

Considerata questa distribuzione di potere e le caratteristiche opache di questa tecnologia, il rischio di amplificare i bias preesistenti è alto, specialmente in un contesto dominato da oligarchi che da tempo influenzano le politiche globali, come raccontato anche da un articolo del Guardian che ne traccia l’ascesa nella seconda metà del Novecento. Quanto pesa l’influenza di queste figure sulla produzione e distribuzione dell’informazione e cosa cambia con l’elezione di Trump rispetto al rapporto politico tra miliardari e istituzioni?

Philip Di Salvo: Quell’articolo del Guardian permette di decostruire diversi miti attorno alle grandi aziende tecnologiche e alle persone ai loro vertici. Il grande fraintendimento che c’è stato negli ultimi anni negli Stati Uniti, almeno dalla presidenza Obama in avanti, è stato quello di credere che le Big Tech fossero qualcosa di diverso da aziende for profit e il prodotto dell’ideologia neoliberista più spinta. Ma anch’esse sono composte da imprenditori miliardari, interessati a nulla di diverso se non al loro profitto. Come queste persone e le loro aziende abbiano iniziato a essere percepite come portabandiera del progressismo, dei valori democratici e dell’interesse nella qualità dell’informazione a me sfugge tutt’ora, perché stiamo parlando dei conglomerati neoliberisti più aggressivi che siano mai esistiti, più forti di qualsiasi altra corporation. Le persone che hanno inventato il modello Silicon Valley, sorto dopo un fallimento palese del capitalismo come la bolla delle dot.com, nascono esplicitamente in un ambiente culturale di destra. Ci siamo dimenticati che Elon Musk emerge insieme a Peter Thiel, fondatore dell’azienda di sorveglianza Palantir, che forse più di altri incarna il tecnofascismo libertario delle origini di cui parla l’articolo del Guardian di Becca Lewis. Non c’è da stupirsi dunque se ora queste persone sono molto vicine a Trump, o se addirittura Musk è stato per un periodo il suo primo alleato politico. Da un lato queste aziende si sono sempre allineate allo spirito dei tempi e al clima culturale, ma ora finalmente mi sembrano libere di poter essere quello che hanno sempre voluto essere. Se a qualcuno la prima amministrazione Trump poteva sembrare un incidente della storia (anche se non lo è mai stato), adesso è la nuova egemonia. Ci sono questioni più immediate per cui è evidente l’interesse a rimanere nella cerchia di Trump, come le decisioni in termini di antitrust o le regulation di altro tipo, ma la realtà è che dentro quella cultura di estrema destra questi miliardari si sentono a loro agio; altrimenti non si spiegherebbe perché, se credevano nelle politiche di diversity, le abbiano smantellate subito dopo l’insediamento del nuovo Presidente. Facebook, ad esempio, nasceva come un luogo in cui votare l’aspetto fisico delle persone, non certo come un tentativo di lanciare la “Biblioteca di Alessandria” in formato digitale. Sono elementi che dimentichiamo facilmente ma in un certo senso sono ancora nel DNA di queste persone e di queste aziende.

 

Considerata questa concentrazione di potere e questa saldatura tra mondo della politica, delle aziende tecnologiche e dei media, quali strumenti potrebbero essere i più utili per contrastare la centralizzazione?

Philip Di Salvo: Quello che abbiamo visto nascere ultimamente negli Stati Uniti è a tutti gli effetti una forma di oligarchia, dove questi privati e Trump, che è il politico democraticamente eletto, hanno bisogno l’uno dell’altro e di conseguenza formano un “cerchio magico” di persone che si aiutano a vicenda, con un vincolo di fedeltà molto forte e con un potere senza precedenti. Una delle contromisure adottabili era quella dell’antitrust nel senso in cui lo intende Cory Doctorow: scorporare e separare queste aziende affinché diventino più piccole e di conseguenza meno potenti. Questo poteva succedere solo negli Stati Uniti ma non succederà per i prossimi quattro o più anni; quindi, difficilmente l’oligarchia si romperà nell’immediato. Se guardiamo le forme di resistenza politica diretta, ovviamente ce ne saranno di forme diverse negli Stati Uniti come altrove, come già accaduto nella prima amministrazione Trump con i movimenti per i diritti delle donne o Black Lives Matter. Temo però che ci sarà una repressione mai vista, e Trump lo ha già dichiarato e dimostrato con più spavalderia che in passato: law and order, polizia, deportazioni. La situazione è assolutamente preoccupante e non si possono avere imbarazzi nel dirlo.

Fuori dagli Stati Uniti, rimanendo nell’ambito tecnologico, noi possiamo innanzitutto ricordarci che le alternative esistono e che si possono perseguire. Dovremmo prendere delle decisioni e utilizzare dei servizi più attenti a determinate questioni sociali di altri: Twitter si può abbandonare per BlueSky o Mastodon; Facebook, Instagram e Spotify non sono certo obbligatori. Non sto dicendo che sia necessariamente più etico lasciarli o altro, però dovremmo iniziare a ragionare su quanto vogliamo cedere a questi conglomerati che hanno occupato tutto l’immaginario per anni. Di fronte al conflitto che stiamo vivendo, quell’immaginario è in crisi e necessita di essere ripensato. Non penso che serva spegnere o abbandonare tutto, perché è improbabile e perché nel concreto le tecnologie migliorano la nostra vita, almeno nell’immediato. Però possiamo ricalibrarne l’utilizzo e uscire da quegli orizzonti prestabiliti. Questo nel privato, che è pur sempre politico, ma nelle altre sfere il margine di azione è limitato. Finora, anche in questo senso, i risultati sono stati abbastanza in chiaroscuro.

 

Progressivamente anche in Europa questa risposta potrebbe essere più difficile da vedere, in un contesto che sembra andare verso una tendenza sempre più di realpolitik. Come ha riportato Investigative Europe, alcuni documenti interni del Consiglio UE rivelano come la Francia, sostenuta da altri Paesi, tra cui l’Italia, abbia ottenuto un via libera generale all’uso dell’intelligenza artificiale negli spazi pubblici. Gli utilizzi possibili sono il riconoscimento facciale in tempo reale, l’interpretazione delle emozioni, la categorizzazione del pensiero religioso, sessuale, politico. La diffusione dell’intelligenza artificiale ha accelerato anche l’espansione della sorveglianza di massa? Questi utilizzi quanto screditano la percezione di una Unione Europea attenta agli usi etici della tecnologia basati sui propri valori democratici liberali? Quanto è efficace uno strumento come l’AI Act? 

Philip Di Salvo: È certamente importante che l’AI Act esista e, secondo me, ha aperto un terreno di discussione che prima non era immaginabile. Ciò detto, doveva diventare un testo fondamentale sui diritti umani nell’era dell’IA, sul futuro con l’intelligenza artificiale e con le macchine, invece, è un testo estremamente meno ambizioso rispetto a quello che ci si aspettava. Sin da subito le ONG e la società civile hanno fatto notare come proprio sui diritti umani e sul tema della sorveglianza e delle migrazioni ci fossero già dei problemi dovuti a delle eccezioni sull’utilizzo da parte delle forze dell’ordine e per la sicurezza nazionale. Si è sperato che in tutti i livelli successivi di negoziazione ci fosse una spinta più virtuosa ma il testo lascia ampio margine di discrezionalità nelle mani di chi questi strumenti li deve utilizzare. Il testo approvato è stato estremamente edulcorato e, anche se ci saranno i regolamenti nazionali e l’effettiva implementazione, il risultato non è soddisfacente rispetto alle prospettive iniziali. Non mi stupisce che alcuni singoli Stati, tra cui l’Italia e la Francia abbiano spinto in quella direzione descritta da Investigative Europe. La Francia aveva già annunciato piani ambiziosi di utilizzo dell’IA per le Olimpiadi, mentre il governo Meloni poco dopo l’insediamento aveva già parlato di telecamere e intelligenza artificiale come se in Italia non fosse mai successo nulla, come se il caso delle telecamere per il riconoscimento facciale a Como non fosse mai esistito e non ci fosse mai stata una moratoria sul loro utilizzo. Il problema è la distanza tra la tecnologia percepita e quella che poi viene utilizzata: la classe politica sembra spesso non avere effettivamente idea di quello di cui sta parlando quando chiede più sicurezza, più IA, più telecamere, perché nel concreto non esistono dei benefici reali tali per cui possa essere giustificato un loro utilizzo massiccio. Molti credono di poter realizzare scenari da Minority Report con tecnologie di polizia predittiva, ma la tecnologia non è nemmeno così performante. Continueremo, temo, a sentire questi discorsi e a vedere i governi spingere in quelle direzioni.

 

Le piattaforme digitali hanno assunto un ruolo centrale nella diffusione delle informazioni, ma anche nella propagazione della disinformazione. La moderazione, per come era stata pensata, ha davvero fallito o il suo ripensamento da parte di Musk su X e, dopo l’elezione di Trump, da parte di Zuckerberg per le piattaforme Meta pone ulteriori rischi alla salute del dibattito pubblico? 

Philip Di Salvo: Queste decisioni devono essere interpretate, considerato il contesto culturale che abbiamo delineato finora, come scelte totalmente politiche. Mark Zuckerberg, peraltro, ha detto cose inesatte sul suo stesso programma di fact checking, che non ha mai avuto la capacità di censurare nulla ma solo di flaggare dei contenuti giudicati come ambigui o fornire link di risposta a un articolo giudicato dubbio. Il sistema di moderazione algoritmica di Meta è sempre stato controverso perché era a sua volta una black box che si appoggiava, e lo fa ancora, a un esercito di lavoratori umani, per lo più nel Sud Globale, pagati pochissimo, che lavoravano in condizioni atroci, passando le giornate a guardare i peggiori contenuti prodotti dall’umanità affinché non arrivino a noi. Questo sistema, inoltre, ha censurato contenuti che non avrebbe dovuto censurare e la decisione di Zuckerberg di togliere il fact checking di terze parti non va quindi a cambiare molto: o lo shadow banning contro le voci palestinesi sparisce e iniziamo a non dover più scrivere Gaza con i numeri al posto delle lettere per non essere bloccati dall’algoritmo, oppure siamo esattamente dove eravamo prima ma con più disinformazione. Inoltre, il mito delle community note, che sono uno strumento certamente interessante e che può fare del bene, non si può pensare che possa essere efficace a gestire tutti i contenuti pubblicati sui social. Inoltre, alcune ricerche dimostrano che chi aderisce alle community note lo fa con uno spirito di parte perché è interessato a smascherare qualcuno o qualcosa verso cui non è d’accordo. Di sicuro vedremo anche sulle piattaforme Meta un aumento dei contenuti di hate speech, dei contenuti tossici e di conseguenza della disinformazione, esattamente come è stato per X. La differenza, però, è che Meta non è controllata da una singola persona come X, ma ha degli organi consultivi e di gestione con diversi livelli di accountability, anche se minimi. Dobbiamo ricordarci però che questi luoghi non sono nati per essere la sfera pubblica della nostra epoca ma per essere piattaforme di intrattenimento. Zuckerberg non aspettava nient’altro che di liberarsi della responsabilità che si è trovato tra le mani quando il mondo ha deciso di utilizzarle in modo diverso. Tutte le decisioni che Meta ha preso negli ultimi dieci anni sono state direzionate a non favorire il consumo delle news, prima penalizzando i link esterni, poi proponendo più contenuti dagli amici e meno dalle pagine. L’algoritmo è stato modificato varie volte in questo senso. È vero che hanno donato milioni di dollari a programmi di sostegno al giornalismo e finanziato progetti virtuosi, ma non credo che a Zuckerberg sia mai interessato molto della qualità dell’informazione nel mondo. Lo stesso vale per Instagram. Se da un lato questo è positivo perché avvicina più persone anche a ottimi contenuti giornalistici, dobbiamo ricordarci che rimane uno spazio pensato per altro sin dal suo design, dove i contenuti spariscono dopo 24 ore. È sempre utile pensare alle finalità di questi strumenti e lo è ancora di più in questo momento storico.

 

Qual è nello specifico l’impatto dell’intelligenza artificiale, soprattutto generativa, quando si parla di disinformazione?

Philip Di Salvo: In un episodio del podcast che produciamo all’Università di San Gallo dal titolo Machines That Fail Us – che indaga su come l’intelligenza artificiale e i suoi errori stanno influenzando diverse aree della nostra società – ho posto la stessa domanda a Craig Silverman, uno dei maggiori studiosi di disinformazione online. Ne è emerso che nel 2024, l’anno in cui la metà del pianeta è andato a elezioni, l’impatto dell’IA generativa non è stato catastrofico come ci si aspettava. Si sono visti diversi esempi di contenuti sintetici falsi e generati con l’IA, ma è improbabile che abbiano avuto un impatto tale da influenzare le elezioni. Si intravedono già possibili problemi futuri perché la tecnologia migliorerà e i contenuti sintetici diventeranno più credibili e numerosi, però non siamo di certo di fronte a un’epidemia di disinformazione come invece si è spesso letto. Un report di OpenAI che afferma come la piattaforma sia stata utilizzata per delle “covert influence operation” ha rilevato che per lo più ChatGPT è stato usato per scrivere finte bio degli account dei bot su Twitter con pochissimi follower. Dunque, al momento la situazione non è così preoccupante. Si è parlato tanto dei deepfake video, ad esempio, come quello di Zelensky che annuncia la resa, che però sono ancora di facile riconoscimento, almeno per la stampa che dovrebbe fare da filtro.

Devo confessare che i deepfake audio, invece, mi hanno fatto preoccupare più di altri contenuti, soprattutto quando sono circolati degli audio falsi di Joe Biden, di Kamala Harris e di Donald Trump che, anche per chi ha una media literacy alta come me e i miei studenti all’Università, sono più difficili da distinguere dagli audio reali. Il problema è che spesso il livello intermedio, ovvero la stampa, fallisce. Al momento, il fatto che dei professionisti considerino reale anche un’immagine generata dall’intelligenza artificiale, come accaduto in alcuni casi, significa che il sistema di fact-checking dei media è purtroppo fragile. Nessuno si chiede da dove arriva quel contenuto? Chi l’ha postato? È una foto ufficiale? L’immagine può essere credibile ma se si prende per buona qualsiasi cosa e la si pubblica è un problema di processo giornalistico. Questo vale per tutte le notizie ma con l’IA è più complicato perché aggiunge un layer in più di possibilità di disinformazione. Tuttavia, non è necessario verificare con un sistema complesso le notizie e le immagini, andando a vedere il codice sorgente, ma basta risalire a chi l’ha già pubblicata: può essere una polaroid o un’immagine generata dall’IA ma il principio è lo stesso.

 

Tra le diverse professioni colpite, proprio il giornalismo sta subendo una trasformazione radicale nell’era digitale, in ultimo con l’ingresso delle intelligenze artificiali nei processi editoriali. Il giornalismo investigativo, in particolare, si è sempre basato sulla protezione delle fonti e sul coraggio di chi denuncia illeciti – il caso Assange ha dimostrato i rischi connessi alla diffusione di informazioni sensibili in un’epoca di ipersorveglianza. Qual è il ruolo di questa tecnologia per chi lavora nella ricerca della verità e nel contesto di fenomeni come il whistleblowing? Quali sono i rischi?

Philip Di Salvo: Nel giornalismo di inchiesta si sono già viste delle applicazioni interessanti, perché l’IA sa fare delle cose che gli umani sanno fare meno bene o meno velocemente. Contare, ad esempio. Se un sistema di machine learning può analizzare decine di migliaia di report finanziari in un’ora e trovare delle anomalie più velocemente di quello che potrebbe fare un umano è positivo, così come lo è osservare migliaia di foto satellitari per analizzare quanto è stata distrutta una foresta. Queste sono due delle applicazioni che sono già state utilizzate nel giornalismo investigativo. Ci sono tanti modi in cui le intelligenze artificiali possono migliorare, semplificare e velocizzare il lavoro giornalistico, ad esempio scrivendo dei testi molto semplici e banali, sbobinando le interviste o facendo traduzioni, ma non sostituiranno mai l’apporto umano: la ricerca, l’analisi e l’empatia che sta alla base di un qualsiasi lavoro di informazione non può essere sostituita. Da un punto di vista della tecnologia in sé, la mia speranza è che almeno chi ne ha le possibilità, quindi i grandi gruppi editoriali o comunque le organizzazioni meglio finanziate, utilizzando i modelli commerciali poi creino dei loro applicativi ad hoc. Il codice è ormai di dominio pubblico da tanto tempo e si possono creare dei sistemi di machine learning civici per il giornalismo, in modo tale da svincolarsi da quello che offre Big Tech e dalla loro influenza. Chiaramente servono le risorse economiche e umane adeguate e siamo veramente agli albori di questi discorsi, ma sono ottimista su questo. Se i giornalisti d’inchiesta, con il machine learning scoprono le rotte degli aerei del narcotraffico o il disboscamento dell’Amazzonia è fantastico. Sono molto più scettico di fronte alle possibilità creative dell’IA, che non credo si occuperà delle illustrazioni e delle foto al posto nostro, o almeno lo spero.

 

La possibilità che soprattutto gruppi più grandi, da un punto di vista editoriale, possano sviluppare dei sistemi in house potrebbe andare nella direzione di un utilizzo almeno di questo tipo di tecnologie più democratico? Non un antitrust ma una parte di controbilanciamento?

Philip Di Salvo: Quello è sicuramente un aspetto importante, l’altro è che si costruirebbero strumenti di intelligenza artificiale per il giornalismo con dentro i valori del giornalismo, cosa che Big Tech o altri non fanno perché hanno i loro valori, che non sono necessariamente quelli del giornalismo. Se un gruppo editoriale decide di costruire il proprio sistema di machine learning per questo tipo di cose, lo farà, almeno in linea di principio, con dei valori che sono la veridicità, la trasparenza, l’equità, la non discriminazione, che dovrebbero essere i pilastri del giornalismo. Sicuramente non ci metterebbero la monetizzazione delle emozioni, la viralità dei contenuti, la sorveglianza e così via. Si tratterebbe di creare una IA più piccola, con dei compiti specifici e basata su presupposti differenti.

 

In generale questo tipo di valori potrebbero essere applicabili alle piattaforme, a Internet?

Philip Di Salvo: A seconda dei giorni e dell’umore ho risposte diverse a questa domanda. Un paio di anni fa ho intervistato Franco “Bifo” Berardi e gli ho posto una domanda simile. Lui al tempo mi rispose con un’affermazione che all’epoca mi aveva lasciato spiazzato, ovvero dicendomi che la battaglia per la rete libera è completamente persa e che non c’è più niente da fare. A due anni di distanza temo di sentirmi di dire che aveva ragione, perché non credo si possa “riavviare il sistema” arrivati a questo punto. Certo, le piattaforme saranno in crisi e magari le utilizzeremo meno, ma sul fatto che possano nascere grosse alternative sono scettico, specialmente con queste nuove oligarchie tecno-politiche in ascesa. Non mi aspetto che Instagram diventi una piattaforma open source gestita da tutti i musei della fotografia no profit del mondo, ad esempio. Possono però nascere alternative piccole che aprono porte di speranza, come l’esperimento di BlueSky, che è molto più piccola di quanto Twitter sia mai stata e che però esiste e continua a essere interessante. Dovremmo forse abbassare le aspettative sulla portata di queste alternative, perché solo se accettiamo che non avremo più delle piattaforme globali così grandi e che possiamo tornare nel piccolo è possibile pensare a dei modelli alternativi. Serve guardare a comunità più piccole e rivedere quello che vogliamo effettivamente dalle piattaforme. Quello potrebbe essere un discorso utile da un punto di vista del clima culturale del sistema in cui ci troviamo, ma la battaglia per un Internet democratico e giusto a mio avviso è stata persa. Il clima politico attuale finirà solo per esacerbare gli effetti di questa sconfitta.

Scritto da
Daniele Molteni

Editor di «Pandora Rivista», si è laureato in Relazioni internazionali all’Università Statale di Milano e ha collaborato con diverse realtà giornalistiche, tra cui «Africa Rivista», «Lavialibera» e «Modern Insurgent». Si occupa di politica internazionale, questioni sociali e tecnologia. È membro del collettivo giornalistico “Fuorifuoco”.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici