Intelligenza artificiale e sorveglianza. Intervista a Laura Carrer
- 04 Dicembre 2025

Intelligenza artificiale e sorveglianza. Intervista a Laura Carrer

Scritto da Daniele Molteni

11 minuti di lettura

Reading Time: 11 minutes

In seguito all’espansione delle tecnologie di sorveglianza algoritmica in tutto il mondo, l’intelligenza artificiale ha trasformato le forme di controllo sociale estendendo il monitoraggio dall’ambito criminale all’intera popolazione. Il riconoscimento facciale, gli spyware e i sistemi di sorveglianza sono ormai normalizzati, accessibili e diffusi, mentre la progressiva criminalizzazione di alcuni attivisti e giornalisti evidenzia come anche nelle democrazie si stiano affermando pratiche di controllo del dissenso.

Delle trasformazioni del potere nell’era digitale, del passaggio dalle smart city alle “dataveillance city” e dell’importanza del giornalismo investigativo abbiamo parlato con Laura Carrer: giornalista freelance, parte della redazione di IRPI media, ricercatrice presso Hermes Center for Transparency and Digital Human Rights e autrice di Black Box. Sicurezza e sorveglianza nelle nostre città (Ledizioni 2023).


In Black Box viene ripreso il lavoro di Michel Foucault legato all’analisi delle forme storiche attraverso le quali il potere viene esercitato. Dalla società della sovranità siamo passati a quella disciplinare, poi a una società del controllo. Con l’introduzione di tecnologie avanzate, come l’intelligenza artificiale, che permettono la raccolta e l’analisi di grandi quantità di dati, cosa è cambiato? Quali insidie aggiuntive presenta la sorveglianza algoritmica rispetto a come il potere viene esercitato?

Laura Carrer: Pur non essendo una studiosa del settore né avendo le competenze specifiche per affrontare certi temi in profondità, nel libro azzardo l’ipotesi che al dibattito sviluppato da Foucault, e da altri successivamente, si possa aggiungere un ulteriore elemento: la tecnologia biometrica. Partendo dai primi sistemi di catalogazione e identificazione descritti da Foucault, siamo arrivati all’accelerazione tecnologica degli anni Sessanta con il riconoscimento facciale, i database di DNA e le impronte digitali. Oggi, in un arco di tempo relativamente breve da un punto di vista storico, disponiamo di sistemi biometrici accessibili a chiunque. Si tratta di sistemi di catalogazione delle persone creati per mantenere una gerarchia di potere, un processo nato parallelamente alle prigioni e ad altri sistemi totalizzanti. Con la biometria si raggiunge un punto critico, in quanto l’identificazione e il monitoraggio non riguardano più solo chi ha commesso un reato, ma l’intera popolazione. Non è più necessario essere coinvolti in attività criminali perché le forze dell’ordine, o anche persone comuni che utilizzano servizi online ormai largamente diffusi, possa sapere chi sei, cosa fai e quali siano i tuoi movimenti.

Un esempio concreto lo abbiamo analizzato su IRPI e riguarda Clearview AI, una tecnologia di riconoscimento facciale che è entrata nel mercato europeo contribuendo a normalizzare un certo tipo di sorveglianza. Clearview AI, nata per supportare le forze dell’ordine negli Stati Uniti, una volta entrata nel mercato si è imposta come una tecnologia disruptive, aprendo la strada a nuovi competitor. Un esempio è PimEyes, un’alternativa a Clearview AI, che consente a chiunque – non solo alle autorità – di utilizzare il riconoscimento facciale a pagamento. Questo porta a due problemi: da un lato, l’uso opaco di queste tecnologie da parte delle forze dell’ordine; dall’altro, la loro disponibilità per chiunque abbia abbastanza denaro, che si tratti di uno stalker o di un poliziotto che opera al di fuori delle procedure previste. Basta una ricerca online per ottenere una corrispondenza, e, nel caso delle forze dell’ordine, un pregiudizio basato su un dato biometrico potrebbe influenzare indagini e procedimenti giudiziari. Esattamente il rischio che avevamo evidenziato già nel 2020 con l’inchiesta sul riconoscimento facciale nella città di Como. Il problema ora non è solo la mancanza di trasparenza sulle tecnologie utilizzate dalle forze dell’ordine, sul loro funzionamento e sul valore investigativo che hanno i risultati che ne derivano, ma il fatto che oggi chiunque, con una somma irrisoria, possa effettuare ricerche su chiunque altro.

L’industria si è evoluta rapidamente e il riconoscimento facciale è ormai uno strumento normalizzato. Viene discusso dall’opinione pubblica, ma la questione è sempre la stessa: la sua utilità e la sua eticità dipendono dall’uso che se ne fa. Tuttavia, è evidente come stia emergendo una forma di sorveglianza diffusa, non più solo dall’alto, ma anche orizzontale e accessibile. Questa dinamica ricorda quanto ho raccontato anche nell’inchiesta Spyware low-cost sugli stalker: non servono più strumenti sofisticati e costosi usati dalla criminalità organizzata, perché oggi basta avere accesso a un telefono per installare un’app di sorveglianza.

 

Spesso sentiamo parlare di sorveglianza di massa cinese, ma tecnologie simili sono già presenti nelle nostre città e rispondono a logiche analoghe, come è il caso di Graphite, il software dell’azienda israeliana Paragon Solutions utilizzato per spiare attivisti e giornalisti. Quali differenze esistono tra la nostra realtà quotidiana e quella di altri Paesi considerati non democratici? In che modo l’intelligenza artificiale e le aziende occidentali contribuiscono all’economia della sorveglianza e alla repressione del dissenso nelle nostre società?

Laura Carrer: La differenza fondamentale è, almeno in teoria, la democrazia, che si distingue dall’autocrazia per l’esistenza di regole precise che garantiscono il rispetto di diritti fondamentali: la tutela delle fonti giornalistiche, il divieto di intercettazioni indiscriminate e l’uso di strumenti invasivi solo nell’ambito di indagini specifiche. Tuttavia, questo concetto può rivelarsi un terreno scivoloso e l’indagine su Graphite ne è un esempio emblematico, anche se non abbiamo ancora sufficienti informazioni per capire come sono andate le cose. Certamente sappiamo che la criminalizzazione di determinate categorie di persone come attivisti o giornalisti è una pratica che, storicamente, associamo ai regimi più autoritari, ma non è la prima volta che in Italia vengono messi sotto osservazione attivisti che lottano, ad esempio, per i diritti delle persone migranti. Dal caso Pegasus a Predator, fino ad arrivare a Graphite – e chissà quanti altri strumenti di sorveglianza ancora sconosciuti – vediamo come queste tecnologie si siano progressivamente diffuse anche nelle democrazie occidentali. In Italia, un caso del genere non si era mai verificato prima, ma è probabile che rappresenti solo l’inizio di un processo destinato a evolversi.

Già nel 2017, con il caso della nave Iuventa, abbiamo assistito a un cambio di paradigma: da quel momento, le ONG impegnate nei salvataggi in mare sono state progressivamente criminalizzate. Nel 2014 o 2015, nessuno avrebbe mai pensato di definirle “taxi del mare”, ma la narrazione si è spostata in quella direzione, legittimando l’uso di strumenti di sorveglianza come intercettazioni e malware. Questo perché, se un’attività viene criminalizzata, può essere equiparata a terrorismo o traffico di esseri umani, giustificando così l’uso di tecnologie invasive. Ed è qui che il confine tra sicurezza e controllo diventa ambiguo. L’Italia, in questo contesto, gioca un ruolo sempre più rilevante, sia come utilizzatore che come fornitore di queste tecnologie nel mercato europeo. Aziende italiane sono attive nel settore da tempo, basti pensare al caso Hacking Team, esploso nel 2015, che ha rivelato il coinvolgimento del nostro Paese in affari legati alla sorveglianza digitale. Tutti questi usi saranno probabilmente sempre più giustificati per un fatto di sicurezza ma tutto dipende dalle narrazioni e dalle definizioni. Gli attivisti per il clima sono diventati un problema per il governo, le navi delle ONG lo sono da tempo, e la prossima volta sarà qualcun altro. Un fenomeno, quello del controllo del dissenso, antico quanto la storia dei governi, anche se gli strumenti sono cambiati.

 

Fabio Chiusi, nella prefazione al libro, sottolinea come «politica e media ideologicamente affini nutrono le stesse paure che poi le amministrazioni in carica promettono di sconfiggere». Un caso evidente è legato anche al legame tra élite reazionarie e interessi di giganti tecnologici, diventato ormai evidente dopo l’elezione di Donald Trump. Quale responsabilità hanno i media mainstream nella diffusione della percezione sul funzionamento degli strumenti e qual è il ruolo della politica?

Laura Carrer: Il ruolo dei media è essenziale, soprattutto nel modo in cui viene raccontata una vicenda. Lo si è visto bene nel caso Paragon, dove c’è stata una grande confusione e molte informazioni sono state diffuse in modo superficiale. Uno degli aspetti fondamentali è capire bene il funzionamento di queste tecnologie, il modo in cui le procure si approvvigionano di certi strumenti, come la polizia conduce le proprie indagini e quali aziende forniscono questi servizi. Conoscere questa filiera aiuta a farsi un’idea più chiara. È difficile tenere il passo con le aziende tecnologiche e capire come si intrecciano con la politica, come dimostrano casi recenti. La stessa Clearview AI, multata da numerose autorità per la privacy, ha semplicemente rifiutato di pagare perché non ha una sede legale in Europa. Il GDPR si applica solo in questi casi, quindi Clearview ha liquidato la questione dicendo: “venite a cercarmi in America”. Questo atteggiamento evidenzia una grande debolezza del sistema, perché ottenere giustizia diventa quasi impossibile, soprattutto in un contesto geopolitico sempre più teso. Andare negli Stati Uniti per contestare una società americana significherebbe entrare in un sistema processuale completamente diverso e complicato. Parlarne è essenziale, perché, come detto, la tecnologia esiste all’interno della società e non nel vuoto per cui dipende e influenza inevitabilmente tutta la sfera pubblica.

 

Quali garanzie mancano per evitare l’uso improprio di queste tecnologie, specialmente in contesti di conflitto o sorveglianza automatizzata, e che giudizio possiamo dare di quanto prevedono strumenti come il GDPR o l’AI Act in questi casi?

Laura Carrer: L’AI Act è piuttosto debole in termini di sicurezza e garanzie, soprattutto per alcune categorie di persone escluse dalla tutela. I cittadini europei godono di una certa protezione, ma chi è in transito no, e le forze dell’ordine hanno ampie possibilità di aggirare regole e limitazioni. Inoltre, le aziende non sono realmente obbligate a tutelare i consumatori perché possono autocertificare i propri prodotti come “sicuri”. Il GDPR è stato un passo storico, anche se col tempo si è rivelato meno incisivo di quanto sembrasse. In concreto però, quando la commissione Pegasus ha indagato su spyware e malware, non ha prodotto risultati concreti e con l’emergere di nuovi scandali non sono arrivate particolari tutele. Il problema è che ogni Stato lavora per conto proprio, invocando la sovranità nazionale e la sicurezza interna per non applicare certe regole. Si è costruito un impianto normativo, ma nella pratica resta inefficace. Nonostante le buone intenzioni iniziali, il risultato al momento è stato deludente.

 

A proposito di percezione della sicurezza nelle città, il libro parla di dataveillance city in contrapposizione al concetto di smart city. Qual è la differenza tra questi modelli e quali aspetti critici emergono in città come Venezia o Roma, dove sono implementate infrastrutture digitali considerate all’avanguardia?

Laura Carrer: Il concetto di smart city in Italia non è mai stato chiaramente definito e, in un certo senso, è sempre rimasto marginale. Tra il 2018 e il 2019 se ne è parlato molto, ma con il Covid l’interesse si è affievolito. Non esiste una definizione univoca di questo concetto, ma sta emergendo un nuovo modo di intendere la città, non solo come spazio fisico da gestire, ma come una rete di dati da sfruttare, dove il confine tra sorveglianza, governance e profitto privato diventa sempre più sfumato. Si dovrebbe parlare appunto di dataveillance city, ovvero città intraconnesse e interconnesse, in cui i dati vengono raccolti e utilizzati per monitorare ciò che accade, spesso con finalità di sicurezza pubblica o gestione dei flussi urbani. Il concetto chiave di dataveillance, la fusione tra data e surveillance, non riguarda solo il monitoraggio tramite videocamere, ma l’estrazione continua di dati urbani che possono essere incrociati con altre fonti di informazioni. Un esempio è il sistema del ticket di ingresso di Venezia, che permette al Comune di raccogliere e analizzare dati sui movimenti delle persone. Il ticket era stato presentato inizialmente come una misura per ridurre il turismo di massa, ma di fatto ha solo generato profitto per il Comune senza limitare realmente l’afflusso di visitatori. Anche Roma ha sviluppato la sua Data Platform, come spesso accade in questi progetti coinvolgendo anche aziende private, come fornitori di infrastrutture di rete o servizi di mobilità. Questo solleva ulteriormente dei dubbi su quel confine tra interesse pubblico e sfruttamento commerciale dei dati.

 

La questione delle piattaforme di Venezia e Roma si intreccia con il tema più ampio della sicurezza, sia reale che percepita. Nell’implementazione di queste tecnologie, quanto pesa la sicurezza reale e quanto la sicurezza percepita? Quali possono essere gli altri rischi legati a questi progetti di città intelligenti?

Laura Carrer: Questo aspetto è particolarmente complesso perché la paura di girare in città non può essere semplicemente liquidata con dati statistici: esiste una dimensione soggettiva che va considerata. Non mi sentirei di biasimare chi ha paura a uscire la sera. Personalmente ho un certo atteggiamento nei confronti della città dovuto al mio background culturale e all’educazione ricevuta, che mi dà la possibilità comprendere determinate situazioni e agire in prevenzione a volte, ma ci sono state situazione in cui anch’io mi sono sentita insicura come molte altre persone. Ecco perché la sicurezza non è solo una questione di dati oggettivi raccolti attraverso statistiche, ma anche di percezione. Un aspetto assolutamente fondato e legittimo, soprattutto per chi, come le donne, sperimenta più spesso situazioni di insicurezza. Il problema però è che questa zona grigia è diventata perfetta per la politica, che può cavalcare il tema per giustificare certe scelte, presentando la tecnologia come uno strumento risolutivo.

Si dice che le videocamere aiutino a contrastare la criminalità, ma quando si cercano studi che dimostrino in modo chiaro ed evidente la loro efficacia, si scopre che la questione è molto più complessa. Si potrebbe pensare che più telecamere significhino automaticamente più sicurezza, perché agiscono da deterrente per chi vuole commettere reati o aggressioni. Ma non è così scontato e, anzi, si potrebbe ribaltare il ragionamento: vedendo tante telecamere potrei pensare che quel luogo sia insicuro. Inoltre, la logica con cui si decide dove installarle è standardizzata a livello ministeriale. Devono essere posizionate a una certa distanza da scuole, stazioni e altri punti sensibili, ma non è detto che i problemi di sicurezza si verifichino esattamente in quei luoghi. In una determinata città l’area più critica potrebbe essere da tutt’altra parte, ma per ottenere i finanziamenti è comunque necessario rispettare i criteri imposti. Si finisce per installare telecamere dove previsto, più che dove servirebbe davvero. Spesso poi si scopre che le telecamere non funzionano, o che sono servite solo a identificare qualcuno a posteriori, senza mai essere state decisive nel prevenire un crimine. D’altronde, se non si sorveglia in tempo reale la prevenzione dei crimini è qualcosa che le telecamere non possono darci. Dovremmo però scendere al compromesso: sorveglianza di massa in cambio di più sicurezza. Non è ciò che penso sia la strada da percorrere, anche se la direzione è quella da tempo. Siamo circondati da telecamere, spesso senza nemmeno farci più caso. Chi è attento se ne accorge e, se necessario, si muove altrove: il problema non viene risolto, ma semplicemente spostato.

 

Che tipo di lavoro sarebbe necessario da parte delle istituzioni, della società civile e del mondo dell’informazione per affrontare in modo efficace questo tipo di sfide poste dall’intelligenza artificiale e dall’automazione?

Laura Carrer: Capire le tecnologie è essenziale, come dicevo prima. È un tema che va studiato e collegato alla politica, come tutti gli altri, ma anche compreso nel modo in cui viene percepito dalle persone. Un esempio concreto è il lavoro che ho svolto sugli stalkerware: avevo un’idea chiara della questione, ma poi ho scoperto che la percezione comune era diversa. E devo dire che capita spesso nel mio lavoro di avere le conoscenze per capire un fenomeno nella sua esteriorità, ma di dover poi ricredermi quando lo guardo dall’interno, attraverso le persone che intervisto. Perché qualcuno sceglie di utilizzare questi strumenti? La risposta più immediata è per esercitare potere su un’altra persona. Tuttavia, esistono anche motivazioni meno ovvie. Una persona mi ha raccontato che, pur in una dinamica di prevaricazione – questo è indiscutibile – lo ha usato perché la sua compagna era tornata nel Paese d’origine e si era trovata in una situazione problematica e rischiosa quando era per strada. Lui, non sapendo dove fosse ed essendosi allarmato, aveva dunque installato un localizzatore sul suo telefono per poterla rintracciare in caso di necessità. Comprendere che queste scelte possono derivare anche da simili ragionamenti non è scontato ed è lo stesso principio per cui un genitore può impostare il parental control perché teme che, nel mondo complesso del 2025, al figlio possa succedere qualsiasi cosa.

Questo racconta molto più della società e della mentalità collettiva che della tecnologia in sé. La tecnologia non si impone autonomamente, ma si diffonde perché risponde a esigenze percepite. È quindi fondamentale comprendere quale problema si pensa di risolvere con il suo utilizzo. In ogni caso, sia per il parental control che per lo stalkerware, il problema di fondo è la mancanza di fiducia nelle relazioni. Il ruolo dell’informazione dovrebbe essere quello di spiegare non solo il funzionamento della tecnologia, ma anche il suo impatto sociale, affinché chi di competenza possa intervenire. Ad esempio, se i centri antiviolenza conoscono le modalità con cui certi strumenti vengono impiegati per il controllo, possono strutturare strategie di contrasto più efficaci.

 

Diverse organizzazioni non governative hanno promosso campagne per sensibilizzare sui rischi della sorveglianza di massa, evidenziando l’uso improprio di tecnologie come il riconoscimento biometrico e i deepfake. Allo stesso modo, altre provano a fermare lo sviluppo e l’utilizzo di armi autonome letali. Qual è il ruolo specifico dell’attivismo?

Laura Carrer: Per quanto riguarda le ONG il contesto è complesso, perché – come nel giornalismo – per spiegare il problema servono casi concreti. Se si vuole raccontare la violenza digitale, è necessario portare testimonianze dirette. Lo stesso vale per il riconoscimento facciale: negli Stati Uniti, il Washington Post e il New York Times hanno evidenziato come alcuni uomini neri siano stati arrestati erroneamente a causa di questi sistemi. Queste storie hanno un impatto immediato, perché rendono chiaro il rischio, senza bisogno di approfondire eccessivamente gli aspetti tecnici. In Italia, per il momento, non si registrano casi simili, ma lavorare su questo fronte sarebbe comunque importante. Dal punto di vista attivistico, Hermes Center – di cui faccio parte, come ricercatrice – ha creato una rete per i diritti digitali, coinvolgendo diverse associazioni per esercitare pressione su politici e istituzioni. Questo comporta anche un lavoro di formazione, perché non si può dare per scontato che senatori e deputati abbiano competenze in materia. In Italia è particolarmente difficile data la scarsa conoscenza del tema e il contesto politico poco favorevole.

Se da un lato non si sente più parlare di riconoscimento facciale nelle stazioni, dall’altro assistiamo a un progressivo indebolimento di alcune tutele democratiche. E quando queste vengono meno, la tecnologia può riempire quel vuoto. È un processo complesso, ma i diritti si conquistano attraverso anni di battaglie, anche su questi temi. Certo, il mondo si muove più velocemente dei tempi della politica, ma forse il nostro ritardo nell’implementazione di certe tecnologie impedisce che vengano adottate nei modi peggiori. Un altro aspetto cruciale è la trasparenza. Alcune ONG, ricorrendo al TAR, sono riuscite a ottenere informazioni che in precedenza erano state negate. In Italia, in particolare, la trasparenza è spesso un percorso a ostacoli, e per superarlo si lavora in sinergia tra giornalismo investigativo e organizzazioni della società civile, condividendo dati e facendo pressione sulle istituzioni. Se le richieste formali non ottengono risposta, si ricorre al TAR, e spesso questa strategia funziona. Ad esempio, CILD (Coalizione Italiana Libertà e Diritti Civili) ha ottenuto molti più dettagli sugli accordi Italia-Libia dopo aver avviato un ricorso, rispetto a quanto era stato concesso inizialmente tramite l’Accesso civico generalizzato (FOIA – Freedom of Information Act). L’obiettivo per il prossimo periodo è continuare a seguire questa strada: ottenere informazioni, renderle pubbliche e spingere le istituzioni ad aggiornarle regolarmente. Questo meccanismo permette anche alle associazioni di monitorare i dati già rilasciati e chiedere ulteriori aggiornamenti, contribuendo così a un maggiore livello di trasparenza, fondamentale nelle democrazie.

Scritto da
Daniele Molteni

Editor di «Pandora Rivista», si è laureato in Relazioni internazionali all’Università Statale di Milano e ha collaborato con diverse realtà giornalistiche, tra cui «Africa Rivista», «Lavialibera» e «Modern Insurgent». Si occupa di politica internazionale, questioni sociali e tecnologia. È membro del collettivo giornalistico “Fuorifuoco”.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici