Disinformazione: l’approccio europeo
- 17 Marzo 2021

Disinformazione: l’approccio europeo

Scritto da Anna Tosetto

10 minuti di lettura

La disinformazione è una delle maggiori sfide affrontate dall’Unione europea negli ultimi decenni. Essa è un tema frainteso e difficile da affrontare e, ancor più durante l’emergenza Covid-19, è un nemico pericoloso ed è essenziale affrontarlo al meglio delle nostre possibilità. L’UE sta implementando diverse azioni per combattere la disinformazione online, ma, prima di approfondire quali siano, noi (come cittadini) abbiamo bisogno in primis di una chiara definizione di cosa sia la disinformazione, al fine di poterla riconoscere. Questo primo passaggio è già articolato. In effetti, il grosso problema di questo concetto è che non esiste una definizione universalmente condivisa e i suoi confini non sono chiari. L’articolo presenterà quella della Commissione europea. In secundis, verranno esplorati gli attuali metodi utilizzati dall’Unione europea per combattere questo fenomeno e per proteggere il sistema democratico che è l’Europa.

 

Definizione

Innanzitutto, è importante chiarire che il concetto di “fake news”, spesso utilizzato per riferirsi a questo fenomeno, è limitante e considerato non appropriato. L’Unione europea, ed in particolare la Commissione europea, ha assunto nel gennaio 2018 un team di esperti per studiare e riuscire a contrastare il fenomeno delle “fake news” (in questo caso diffuse in rete). Questo gruppo di esperti, chiamato HLEG, High-Level Expert Group on Fake News and Disinformation[1], ha concluso il suo mandato con la pubblicazione nel marzo 2018 di un report che ha l’intento di rivedere le migliori pratiche per affrontare questo tema e propone un nome più onnicomprensivo: disinformazione.

Questa parola riesce infatti a comprendere non solo notizie false, ma anche notizie parzialmente o del tutto vere. Se, da un lato, non ci si può limitare a parlare di fake, dall’altro non si può neanche considerare solo le news e non altre tipologie di enunciati. Non per forza la disinformazione è portata da notizie, essa ad esempio può riguardare fake users, video modificati, numeri falsati, pubblicità mirate (target ads). Questi esempi si riferiscono solo al mondo di Internet, a riprova dell’ampiezza del tema.

Un esempio risalente a qualche anno fa è la pubblicazione da parte dell’ex Presidente USA Donald Trump di un filmato che secondo la sua didascalia rappresentava immigrati messicani che superavano illegalmente il confine statunitense, quando in realtà si trattava di immagini girate in Marocco[2].

Sempre nel report, il gruppo di esperti ingaggiato dalla Commissione europea chiarisce: «La disinformazione, qui definita, include forme di discorso, passando oltre a quelle già illegali, come la diffamazione, l’hate speech, l’incitamento alla violenza, ecc., ma che possono comunque essere dannose. È un problema di attori – politici statali o non statali, del settore profit, cittadini singoli o in gruppo – così come di strutture che si occupano della circolazione e della diffusione attraverso mezzi di informazione, piattaforme e reti, protocolli ed algoritmi. Nel prossimo futuro la disinformazione coinvolgerà sempre più la comunicazione tramite applicazioni di messaggistica privata, chatbot e sistemi vocali, così come la realtà aumentata, quella virtuale e contenuti generati o manipolati dall’Intelligenza Artificiale»[3].

Un altro punto importante per il rapporto pubblicato dall’HLEG riguarda la sua diffusione: la disinformazione non si ferma solo alla creazione di “fake news”, ma anche, semplicemente, alla loro condivisione. Un altro motivo per cui questi esperti rifiutano il termine è perché lo considerano fuorviante: diversi studi dimostrano che oggigiorno la maggioranza della popolazione lega questa definizione al dibattito politico ed in particolare al giornalismo di basso livello, non a tutte le sfaccettature sopra indicate[4].

 

Risposte dell’UE

Ora è il momento di guardare a ciò che l’Unione europea ha proposto per contrastare la disinformazione. Nel 2015 il Consiglio europeo (formato dai capi di Stato o governo degli Stati membri) delega la Commissione a rispondere agli episodi di disinformazione che stavano caratterizzando le campagne politiche in Russia. La competenza del mercato unico digitale è condivisa tra Unione europea e Stati membri, ciò significa che gli Stati possono agire e creare leggi fin dove l’Unione europea non è intervenuta. Questo è necessario per avere una regolazione uniforme in Europa. Il primo passo nell’adozione di un approccio condiviso a livello UE è rappresentato dalla Comunicazione per contrastare la disinformazione online del 26 aprile 2018[5]. Le strategie presentate dall’UE, da quel momento, sono di due tipologie opposte: una riguarda la comunicazione con i cittadini, l’altra è un’azione normativa.

 

Comunicazione

Le azioni relative alla comunicazione riguardano principalmente l’informazione e l’istruzione attiva. Definite più comunemente come media literacy, esse mirano ad aumentare la consapevolezza dei cittadini sull’uso delle informazioni da parte dei media e quindi a sviluppare un pensiero critico. Una chiara definizione di educazione mediatica era stata proposta dalla Commissione europea già nel 2007: «L’alfabetizzazione mediatica può essere definita come la capacità di accedere, analizzare e valutare il potere di immagini, suoni e messaggi con cui ci confrontiamo quotidianamente e sono una parte importante della nostra cultura contemporanea, così come per comunicare con competenza nei media disponibili su base personale. L’alfabetizzazione mediatica si riferisce a tutti i media, inclusi televisione e film, radio e musica registrata, carta stampata, Internet e altre nuove tecnologie di comunicazione digitale. Lo scopo dell’alfabetizzazione mediatica è aumentare la consapevolezza delle molte forme di messaggi mediatici incontrati nella nostra vita quotidiana. Dovrebbe aiutare i cittadini a riconoscere come i media filtrano le loro percezioni e credenze, plasmano la cultura popolare e influenzano le scelte personali. Dovrebbe potenziarli di pensiero critico e capacità creativa di risolvere problemi, per renderli consumatori e produttori di informazioni giudiziosi. L’educazione ai media fa parte del diritto fondamentale di ogni cittadino, in ogni paese del mondo, alla libertà di espressione e al diritto all’informazione ed è fondamentale per costruire e sostenere la democrazia»[6].

Il tipo di impegno che la Commissione sta assumendo negli ultimi anni è il sostegno a progetti e iniziative in tal senso, l’incoraggiamento alla partecipazione dei singoli Stati nella lotta contro la disinformazione con tutti i mezzi disponibili, l’istituzione della European Media Literacy Week[7] e il coordinamento di un gruppo di esperti di alfabetizzazione mediatica. Questi ultimi si riuniscono annualmente e hanno come obiettivi l’identificazione e la promozione di buone pratiche relative all’alfabetizzazione mediatica, la creazione di un network tra diversi stakeholder per incentivare la pratica, l’ideazione di nuove sinergie tra le politiche europee e il supporto a programmi ed iniziative in questo campo. Il gruppo è capitanato dalla Commissione europea ed è costituito dagli Stati membri e da osservatori, in particolare esperti nominati da Stati candidati e paesi SEE[8], rappresentanti di associazioni attive su questo tema, rappresentanti di organizzazioni internazionali, ricercatori ed università[9].

 

Regolamentazione

La regolamentazione prevede l’applicazione di regole e leggi che moderano con precisione lo spazio web.  Le tipologie di regolamentazione recentemente proposte dalla Commissione europea sono, da un lato, la trasparenza e, dall’altro, gli strumenti di verifica delle informazioni e dei contenuti che gli utenti di Internet e tutti gli altri web player pubblicano, con una possibile azione di segnalazione o censura postuma. La parola trasparenza deriva dal termine latino trans parere, far conoscere; in questo caso il destinatario è il cittadino e l’obiettivo è rendere accessibile a tutti l’operato delle pubbliche amministrazioni, delle istituzioni europee e delle organizzazioni internazionali. È proprio dove manca questa trasparenza che si diffonde la disinformazione.

Gli strumenti di verifica di solito fanno riferimento al factchecking prima o dopo la pubblicazione. La più classica è la revisione che normalmente si fa prima di condividere un articolo, per garantire la qualità del contenuto. La seconda possibilità è il controllo postumo che si attiva a seguito di un reclamo e prevede la ricerca di fonti attendibili per confermare o negare il ricorso, oppure seguendo le normative e leggi vigenti nel dato Stato. Sono disponibili due strumenti per il factchecking: monitoraggio e algoritmi. L’obiettivo è lo stesso, ciò che li differenzia è chi svolge il fact-check: nel primo caso sono esperti, nel secondo controlli automatici, elaborati al computer.

Il monitoraggio è un’indagine sistematica e periodica, un’osservazione continua per identificare i contenuti illeciti nello spazio web con l’obiettivo di eliminarli, modificarli o migliorarli. Negli ultimi anni esperti IT, tecnici e giornalisti hanno inoltre lavorato alla creazione di strumenti automatici di verifica dei fatti. Il vantaggio è che questi strumenti non richiedono il monitoraggio continuo di un esperto su ogni pagina web e contenuto. Questi strumenti sono algoritmi o procedure di calcolo sistematiche che portano alla soluzione di uno o più problemi. Nel caso della disinformazione, gli algoritmi si basano su una valutazione della credibilità e della pertinenza degli enunciati che analizzano. La Commissione ha attivi alcuni strumenti che monitorano l’ambiente virtuale, come l’Europe Media Monitor[10], ma non riguardano specificatamente la disinformazione. Per quanto riguarda l’eliminazione dei contenuti, la Commissione europea ha emesso una proposta per utilizzare gli algoritmi per cancellare contenuto esplicitamente illegale, come discorsi correlati al terrorismo (Regolazione di contenuti terroristici[11]), non etichettabili come disinformazione. Uno strumento che si occupa di assicurare che contenuto eliminato una volta non riappaia più in rete è l’International hash database[12], ma anche quest’ultimo non si occupa di disinformazione ma di terrorismo. La ragione per cui non vi sono strumenti o proposte circa la rimozione di contenuto disinformativo è legata al rischio di limitare la libertà di espressione (articolo 19 della Dichiarazione Universale dei Diritti Umani[13]).

Dall’uscita della Comunicazione per contrastare la disinformazione nell’aprile 2018, la Commissione ha proposto varie azioni nello stesso anno, come un pacchetto di misure per assicurare elezioni libere ed oneste a settembre, che, per quanto riguarda la prevenzione della disinformazione, propone più trasparenza nella pubblicità politica online. Sempre a settembre esce il Codice di buone pratiche contro la disinformazione[14], che invita le piattaforme online ad iscriversi volontariamente e riferire alla Commissione le azioni intraprese per migliorare il controllo degli annunci, garantire la trasparenza della pubblicità e bloccare gli account falsi e l’uso dannoso di bot, con ricorrenza mensile. È la prima volta che piattaforme, social network e appartenenti all’industria pubblicitaria accettano di sottomettersi a standard regolatori. Tra i nomi più conosciuti vi sono Facebook, Twitter, Mozilla, Google e Microsoft. Il successo di questa misura è ancora alto, viste le continue adesioni, per questa ragione è prevista un’implementazione da parte della Commissione per questa primavera.

A novembre 2018 viene lanciato l’Osservatorio per l’Analisi dei Social Media (SOMA), un progetto pilota che mirava a testare un centro che si occupasse di verifica dei fatti. Nel 2020 è stato sostituito dall’Osservatorio Europeo dei Media Digitali, follow up a lungo termine che mira a creare hubs europee per fact-checkers, accademici ed altri soggetti interessati. Un’altra iniziativa è datata a marzo 2019 ed è il Sistema di Allerta Rapida. Esso propone una rete sicura con cui le istituzioni dell’UE e gli Stati membri possono condividere informazioni sulle campagne di disinformazione in corso, al fine di coordinare le risposte. Più recentemente (dicembre 2020) è stato presentato un altro Piano d’Azione per la Democrazia Europea[15] che ha tra i suoi obiettivi anche quello di contrastare la disinformazione (aggiornando le iniziative sopra citate). Le misure verranno implementate durante l’attuale mandato della Commissione europea. Nel 2023, anno delle prossime elezioni europee, la Commissione revisionerà l’implementazione di questo Piano d’Azione.

Il primo strumento legislativo che fornirà elementi per combattere la disinformazione è il Digital Services Act[16], proposto il 15 dicembre 2020. Le regole presenti in questa proposta, che in questo momento è sottoposta alla procedura legislativa ordinaria[17], hanno 3 obiettivi: proteggere maggiormente i consumatori e i loro diritti fondamentali online, stabilire una struttura delle piattaforme che sia di trasparenza e responsabilità, promuovere l’innovazione, la crescita e la competitività nel mercato unico.

 

Conclusioni

Vediamo chiaramente come la Commissione europea fornisca varie iniziative di diversa natura e mezzi. Guardando agli effetti delle varie azioni, vari esperti restano scettici verso alcune di esse e positivi riguardo altre. Partendo dalla regolamentazione attraverso leggi e sanzioni, questo strumento viene ritenuto sbagliato per questa sfida. È lo stesso gruppo di esperti assunto dalla Commissione a mettere in guardia sul pericolo di affidare al governo o ad esperti privati ​​il ​​controllo della libertà di espressione. Lo ha riferito anche Rasmus Kleis Nielsen, Direttore di ricerca presso il Reuters Institute for the Study of Journalism dell’Università di Oxford, durante una conferenza a Bruxelles nel 2018 dal titolo Preservare la democrazia nell’era digitale[18]. Nielsen ha spiegato che è davvero rischioso lasciare questo potere nelle mani della magistratura o dell’esecutivo, perché in questo modo viene messa in pericolo l’apertura della nostra società ed è altrettanto inopportuno avviare procedure di esclusione senza aver definito chiaramente il reato.

Il pensiero è condiviso per quanto riguarda la strategia di monitoraggio, umana o automatica che sia. La critica guarda alla mancata trasparenza sui metodi utilizzati per questo controllo. Un esempio è il monitoraggio della disinformazione del Cremlino. Già nel 2015 l’Unione europea ha lanciato una campagna chiamata “EuvsDisinfo” gestita dal Servizio Europeo per l’Azione Esterna che pubblica ogni settimana una Disinformation Review. Qui vengono nominati alcuni messaggi e siti web di disinformazione pro-Cremlino. Non c’è un’azione diretta, ma a quanto pare non c’è nemmeno una spiegazione sul metodo utilizzato per identificarli. Il sospetto aumenta quando si scopre che diversi siti web hanno già lamentato l’ingiusta etichettatura di “diffusore di disinformazione”[19].

L’opinione pubblica sugli algoritmi automatici è anche peggiore. Lucas Graves, ricercatore del Reuters Institute for the Study of Journalism, circoscrive la capacità degli algoritmi, spiegando come «siano ancora incapaci di replicare i sensibili giudizi contestuali richiesti nella verifica dei fatti»[20]. Questi strumenti possono interpretare e verificare al meglio informazioni semplici e chiare, ma sempre con il controllo umano alle spalle.

Per queste ragioni l’Unione europea è sempre stata reticente e cauta nel creare leggi che regolassero lo spazio web. Sono passati più di tre anni dal primo segnale di presa a carico di questo problema da parte della Commissione e solo quest’anno vediamo la prima proposta di legge che forse vedrà vita nel 2022. Ciò significa che la necessità di regolare Internet è essenziale per proteggere i cittadini e i loro diritti, ma lo studio su come farlo deve essere minuzioso e quasi “onnisciente”.

Al contrario, vengono universalmente considerati molto utili ed interessanti due tipi di azioni: la trasparenza e la media literacy. Per garantire la prima, l’Unione propone ai cittadini di partecipare al processo decisionale attraverso consultazioni pubbliche e feedback, dà accesso a documenti online e informazioni su tutte le attività in corso. Inoltre, rende visibili i beneficiari dei finanziamenti dell’UE, le lobby interessate ad influenzare la creazione delle leggi, i comitati che vigilano sulla Commissione quando adotta alcune implementazioni, regola gli esperti che hanno il compito di valutare i vincitori dei vari bandi europei, e molto altro.

D’altra parte, l’educazione è sempre un’iniziativa positiva ma difficile: riguarda la costruzione della consapevolezza, ma deve essere seguita dai cittadini in tutte le fasi della loro vita. Ancora, l’educazione dei cittadini non è compito dell’UE, ma dei singoli Stati. Ogni Stato ha un certo livello di alfabetizzazione mediatica, nonché una diversa situazione culturale, sociale e storica che impedisce un unico approccio e un’unica campagna di alfabetizzazione mediatica, perché non raggiungerebbero lo stesso risultato. Richiede azioni “personalizzate”.

In conclusione, è chiaro che la lotta alla disinformazione sia una “guerra” lunga e lenta, ma migliorare il rapporto con i cittadini attraverso la trasparenza, l’educazione e la partecipazione è il primo e più importante passo; il secondo è capire come proteggere gli utenti senza varcare i confini della loro libertà individuale. Scopriremo presto se la Commissione ci riuscirà.


[1] La cooperazione formale di questo Gruppo si è conclusa con la pubblicazione del report.

[2] Notizia completa di Collins E, 2016. Politico. Disponibile online a questo link.

[3] Citazione tradotta dal Final report of the High Level Expert Group on Fake News and Online Disinformation. Disponibile online a questo link.

[4] Nielsen, R. K., Graves, L. 2017. “News You Don’t Believe”: Audience Perspectives on Fake News, Reuters Institute for the Study of Journalism, Oxford.

[5] Disponibile anche in italiano a questo link.

[6] Citazione da Commissione europea, 2007. Non più esistente online. Testo trovato nel report di EAVI “Study on Assessment Criteria for Media Literacy Levels”, p. 23. Testo originale «Media literacy may be defined as the ability to access, analyse and evaluate the power of images, sounds and messages which we are now confronted with on a daily basis and are an important part of our contemporary culture, as well as to communicate competently in media available on a personal basis. Media literacy relates to all media, including television and film, radio and recorded music, print media, the Internet and other new digital communication technologies. The aim of media literacy is to increase awareness of the many forms of media messages encountered in our everyday lives. It should help citizens recognise how the media filter their perceptions and beliefs, shape popular culture and influence personal choices. It should empower them with critical thinking and creative problem – solving skills to make them judicious consumers and producers of information. Media education is part of the basic entitlement of every citizen, in every country in the world, to freedom of expression and the right to information and it is instrumental in building and sustaining democracy». Disponibile online a questo link. 

[7] european-media-literacy-week

[8] Spazio economico europeo.

[9] Informazioni sul gruppo di esperti di alfabetizzazione mediatica online.

[10] europe-media-monitor-newsbrief

[11] Disponibile online a questo link.

[12] https://gifct.org/joint-tech-innovation/#row-hash

[13] https://www.un.org/en/universal-declaration-human-rights/

[14] Disponibile in inglese online a questo link.

[15] european-democracy-action-plan

[16] digital-services-act-ensuring-safe-and-accountable-online-environment

[17] Si tratta della procedura che ogni proposta di legge deve seguire per divenire effettiva, venendo approvata e negoziata tra i vari organismi dell’Unione europea. Di solito questa procedura dura all’incirca due anni.

[18] Titolo originale “Preserving democracy in the digital age”. Report della conferenza disponibile online a questo link. 

[19] Maggiori informazioni in Cuniberti M., Poteri e libertà nella rete, in Media Laws, rivista di diritto dei media 3/2018 settembre, p. 61. Disponibile online a questo link.

[20] Testo originale “They are still incapable of replicating the sensitive contextual judgements required”. Cit. da Graves, L., 2018. Understanding the Promise and Limits of Automated Fact-Checking, Reuters Institute. Disponibile online a questo link. 

Scritto da
Anna Tosetto

Laureata in tutela dei diritti umani e cooperazione internazionale, attualmente sta concludendo un master avanzato a Bruxelles di integrazione europea con focus in politiche e funzionamento dell'Unione europea. Lavora presso la Commissione europea in DG Environment. Per domande o chiarimenti contattare annatosetto@gmail.com

Pandora Rivista esiste grazie a te. Sostienila

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, ma puoi anche fare una donazione a supporto del progetto. Grazie!

Abbonati ora

Seguici

www.pandorarivista.it si avvale dell'utilizzo di alcuni cookie per offrirti un'esperienza di navigazione migliore se vuoi saperne di più clicca qui [cliccando fuori da questo banner acconsenti all'uso dei cookie]