“I figli dell’algoritmo” di Veronica Barassi
- 30 Marzo 2022

“I figli dell’algoritmo” di Veronica Barassi

Recensione a: Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita, Luiss University Press, Roma 2021, pp. 188, 18 euro (scheda libro)

Scritto da Francesco Nasi

9 minuti di lettura

Se il tema della sorveglianza è ormai riconosciuto da più parti come una delle questioni centrali della nostra epoca, mancano però ancora, in Italia, lavori approfonditi in merito. I cosiddetti surveillance studies sono infatti quasi del tutto assenti nel panorama accademico e intellettuale italiano, così come sono poche le associazioni o gli enti del nostro Paese che si occupano specificatamente del tema. Da una parte, viene così a mancare la problematizzazione delle macro-tendenze che caratterizzano i processi di sorveglianza, negli ultimi anni ben descritti da lavori come Il capitalismo della sorveglianza di Shoshana Zuboff o La cultura della sorveglianza di David Lyon. Dall’altra parte, e forse più importante, si fa fatica a cogliere come gli stessi processi di sorveglianza abbiano un impatto reale sulla vita delle persone, soprattutto in alcuni ambiti specifici. Finché la sorveglianza si limita ad essere un remoto timore simil-orwelliano nascosto nel subconscio nazionale e non si comprende come, concretamente, quest’ultima impatta la vita dei cittadini, difficilmente si può sviluppare una coscienza critica in merito.

È alla luce di questo che il lavoro della professoressa Veronica Barassi appare così importante. Barassi, antropologa di formazione, ha insegnato per molti anni Media, Communications and Cultural Studies alla Goldsmith University di Londra, prima di diventare professoressa ordinaria all’Università di San Gallo, in Svizzera. Nel 2016 ha incominciato un importante progetto di ricerca dal titolo “Child, Data, Citizen” per studiare la crescente pervasività del digitale, dei Big Data e della sorveglianza algoritmica nella vita dei bambini. I risultati della ricerca sono stati pubblicati nel volume Child Data Citizen. How Tech Companies Are Profiling Us from before Birth, edito da MIT Press. Ne I figli dell’algoritmo, Barassi aggiorna i risultati della sua ricerca con gli eventi più recenti deli ultimi anni, spiegando come la pandemia abbia «non solo consolidato, ma accelerato e amplificato il processo di datificazione della vita delle famiglie e di quella dei nostri bambini» (p. 24).

Già dalle primissime pagine appare chiara una duplice peculiarità del volume. Da una parte, il tema trattato. La crescente pervasività della sorveglianza nella vita quotidiana viene declinata in un ambito specifico come quello dell’infanzia e della famiglia, ad ulteriore riprova di come ormai non esistano più ambiti della vita (neppure quelli più intimi) che siano esenti dai processi di datificazione, che Viktor Mayer-Schönberger e Kenneth Cukier definiscono come «la trasformazione dell’azione sociale in dati quantificati disponibili online, che permettono un tracciamento in tempo reale e l’utilizzo degli stessi per l’analisi predittiva»[1]. Dall’altra parte, c’è l’approccio utilizzato per trattare il tema, ovvero il metodo etnografico della ricerca antropologica. Come scrive Barassi: «L’idea chiave che contraddistingue questo metodo di ricerca è che l’antropologo si immerge per un lungo periodo di tempo in una specifica realtà sociale e culturale, osservandola e partecipando alla sua vita in prima persona, in modo da raccogliere importanti chiavi di lettura sul suo contesto culturale e sui fenomeni sociali che lo caratterizzano» (p. 21). La ricerca di Barassi si avvale pertanto sia della sua esperienza personale di madre di due figlie, sia, soprattutto, di un importante lavoro di osservazione, interviste e conversazione con altri genitori, provenienti da retroterra molto diversi in termini di origini nazionali o status socioeconomico. Questo, accompagnato allo studio dei documenti, a cominciare dalle privacy policy delle varie app e siti, è il grande lavoro di ricerca che sta alla base del libro.

Uno dei maggiori pregi de I figli dell’algoritmo è la capacità di porre le domande giuste, le domande necessarie per addentrarsi nella complessità delle questioni, problematizzandole e studiandole nella loro contraddittorietà. La prima questione non può che essere quella relativa ai dati posseduti da «il grande Altro»[2], ovvero quel complesso di istituzioni, piattaforme, aziende e data broker che gestisce i processi di sorveglianza, scambiando e rivendendo dati personali. Barassi individua quattro principali tipologie di raccolta dati che interessano i bambini: i dati raccolti nelle case attraverso l’Internet delle Cose (IoT) e gli assistenti virtuali, i dati raccolti nelle scuole sulle piattaforme online, i dati relativi alla salute, estratti tramite le varie app e l’informatizzazione del sistema sanitario e, infine, i dati raccolti dai classici social media.

Nella prima categoria non rientrano solo dati personali, ma anche abitudini domestiche, dati familiari e situazionali. Importantissime in questo contesto sono le tracce vocali, soprattutto per gli assistenti come Alexa (Amazon) o Google Assistant. Una particolare attenzione è poi dedicata all’industria EdTech, un mercato che soprattutto durante la pandemia è esploso, con l’utilizzo massiccio della didattica a distanza e l’ingresso delle piattaforme digitali nei sistemi scolastici di tutto il mondo. Le ricerche citate dall’autrice evidenziamo come questi dati (seppur sensibili e riguardanti minorenni) vengano rivenduti a terzi, classificando i soggetti in base a categorie come “etnia”, “ricchezza”, “religione”, stile di vita” o caratteristiche personali come “introverso”, “socievole”, “esuberante”. Nella sua ricerca, Barassi dedica molto tempo all’analisi di siti e app del settore sanitario, in particolare quelle relative alla gravidanza, facente parti del cosiddetto settore FemTech, che si stima varrà 60 miliardi di dollari nel 2027. La grande quantità di dati che questi strumenti riescono ad estrarre (dalle abitudini alimentari allo stato di salute) è estremamente allettante per un grande numero di aziende, che però spesso hanno ben poco a che fare con la salute. Uno studio[3] citato dall’autrice condotto su 24 app di mHealth (mobile Health) ha dimostrato che queste piattaforme condividevano i dati con altri fornitori di servizi (terze parti), i quali a loro volta li rivendevano a ben 216 “quarte parti”, di cui solo tre appartenenti al settore sanitario. Tra i social media rientra invece la pratica dello sharenting, ovvero della condivisione da parte dei genitori di foto o altri contenuti relativi ai propri figli, ma anche le app su misura per i bambini, come Messenger Kids, che va a tracciare anche il contenuto delle comunicazioni, le attività e i vari contatti.

Un’altra delle domande chiave, che Barassi non teme di affrontare, è tanto semplice quanto potenzialmente problematica: e quindi? È vero, siamo costantemente tracciati, profilati e sorvegliati (come recita il sottotitolo del volume) ma quale impatto ha veramente questa pratica sulle nostre vite? Non sono forse più i benefici in termini di controllo e sicurezza, rispetto alle potenziali complicazioni? Non si tratta di qualcosa legato alle nostre abitudini di consumo, che tocca in misura assolutamente marginale (se non irrilevante) i nostri diritti e il nostro status di cittadini? Barassi spiega che non è così. I principali rischi sono legati alle conseguenze di un’erronea e necessariamente semplicistica e riduttiva profilazione. Quest’ultima va intesa come «una pratica di correlazione di dati che serve a formare un giudizio» (p. 104), e quindi come qualcosa di inevitabile nelle società umane. Si tratta di capire attraverso quali strumenti i cittadini vengono profilati (sono strumenti rispettosi della dignità umana?) e, soprattutto, quali sono le conseguenze di tale profilazione. Molto spesso, infatti, i bias dell’algoritmo portano a vere e proprie pratiche discriminatorie. Gli esempi sono ormai numerosi: dal software di Amazon per la selezione del personale che favoriva sistematicamente gli uomini, dall’algoritmo di Google che scambiava persone di colore per scimmie, agli annunci delle agenzie immobiliari su Facebook targettizzati per evitare di mostrare i propri prodotti a varie minoranze etniche. La sorveglianza algoritmica (sui bambini ma anche sugli adulti) ha quindi l’effetto di allargare le disuguaglianze e perpetuare le ingiustizie già presenti nel tessuto sociale. Come scrive Kate Crawford, questi sistemi «are designed to discriminate, to amplify hierarchies, and to encode narrow classification. They can reproduce, optimize, and amplify existing structural inequalities»[4].

Il problema della profilazione non sta solo nella possibile discriminazione, ma anche nella capacità che quest’ultima ha di influenzare (se non a volte determinare) le scelte di vita dei soggetti profilati, riducendone l’autonomia morale. La storia di Maya (raccontata nel volume) è particolarmente indicativa in questo senso. Sostenitrice del Partito Democratico USA, Maya aveva partecipato a vari comizi della campagna elettorale di Hillary Clinton nel 2016, postando foto con il proprio figlio. In questo modo, già in tenera età, il bambino viene ricondotto a una specifica identità politica. I contenuti che vedrà su Internet, personalizzati in base al suo profilo nelle filter bubble[5], tenderanno così negli anni a rafforzare questa prima etichetta, limitando le sue possibilità di, eventualmente un giorno, cambiare idea. Dalla politica alle scelte di consumo, fino alla religione e ai riferimenti culturali, la profilazione e la targhettizzazione dei contenuti rischiano così di incanalare i percorsi di vita in pattern predefiniti e determinati da algoritmi di cui, come vere e proprie black box, non si conosce l’esatto funzionamento, ma solo gli interessi a cui rispondono, ovvero quelli delle grandi corporation dell’high tech e dei loro inserzionisti[6].

Una volta compresa la problematicità di questi fenomeni non si può che porre la domanda: che fare? Quali soluzioni, quali alternative possono essere percorse? Negli ultimi due anni, due strade su tutte sono emerse nel dibattito sul tema: la via etica e quella legale. Entrambe, a parere dell’autrice, presentano degli insormontabili elementi di criticità. L’etica dei dati e dell’intelligenza artificiale è un ambito di studi e di analisi che ha ricevuto una crescente attenzione negli ultimi anni. L’organizzazione non-governativa Algorithm Watch ha condotto una ricerca rilevando che tra il 2015 e il 2020 sono stati prodotti più di 173 documenti sul tema dell’etica dell’intelligenza artificiale da parte di governi, aziende, terzo settore o centri di ricerca. Secondo Barassi, l’etica da sola non può però essere una soluzione. Ciò è dimostrato, da una parte, dagli scarsi effetti che i lavori esistenti hanno finora avuto nello sviluppo di nuove tecnologie[7] e, dall’altra, da un vizio concettuale di fondo: secondo Barassi, l’approccio etico partirebbe dal presupposto che il bias algoritmico può essere risolto e che pertanto i sistemi di sorveglianza possono diventare equi e imparziali. Ma ciò è sostanzialmente falso, poiché la complessità sociale e culturale (come insegna l’approccio sociotecnico degli Science and technology studies) è sempre indissolubilmente legata allo sviluppo tecnologico. Non esiste, in sostanza, una neutralità tecnica, ma un rapporto di influenza bidirezionale tra lo strumento tecnico e il contesto sociale in cui questo viene sviluppato. Di conseguenza, bisogna imparare a convivere con il bias, gestendolo, riducendolo e, soprattutto, aumentando la consapevolezza della sua esistenza, non negarlo in toto.

Spesso neppure il diritto è sufficiente. Il GDPR (General Data Protection Regulation) è la legislazione europea che regola la protezione dei dati personali, considerata uno standard di tutela e garanzia dei diritti ormai in tutto il mondo. Da più parti, però, il GDPR è stato accusato di non riuscire pienamente nella fase di esecuzione[8], cosa che ovviamente non è sfuggita neppure alla stessa Commissione europea. Casi di cronaca hanno inoltre evidenziato i limiti della legislazione UE: l’autrice segnala per esempio un’inchiesta del Financial Times che ha rivelato come alcuni popolari siti web specializzati in salute condividessero i dati sensibili dei loro utenti, contravvenendo alla legislazione europea. Secondo l’autrice, il problema del GDPR, così come di tutto l’impianto legale sul tema dei dati, sta nel basarsi troppo sulla privacy. Quest’ultima non va intesa come un valore assoluto, ma come un concetto socialmente costruito e stratificatosi nel corso dei secoli, con forti conseguenze in termini di visione del mondo. La concezione contemporanea della privacy è infatti figlia di una cultura liberale e individualista che fa ricadere la responsabilità ultima in capo all’individuo, come è evidente dall’enfasi sul “consenso informato”. In questo modo, però, si rischia di lasciare da parte altri elementi di carattere sociale e collettivo. Non basta la scelta individuale, ma è necessario considerare il sistema in maniera più olistica. Come scrive Barassi «… mi sono accorta che il problema stava proprio in quella parola, privacy, e nell’approccio occidentale e individualista alle nostre leggi, che scaricano gran parte della responsabilità sui genitori, quando invece i genitori raramente hanno scelta» (p. 92).

Il metodo etnografico del volume fornisce un’aneddotica utile alla lettura di un testo che, nonostante i temi trattati, risulta sempre scorrevole. Cosa più importante, l’approccio utilizzato da Barassi permette di affrontare il tema della sorveglianza da un punto di vista per molti versi inedito, approfondendo l’impatto reale e concreto che il costante monitoraggio della vita e la datificazione dell’esperienza sociale hanno sulle persone, in particolare su bambini e famiglie. È forse questa la strada migliore per superare quel vizio tecno-determinista a cui troppo spesso, come società e come opinione pubblica, siamo abituati. È nella realtà delle esperienze personali che ci si accorge di come il «realismo della sorveglianza»[9] non sia un destino, ma una narrazione spinta e veicolata dalle stesse aziende dal digitale. Non si tratta, in sostanza, di qualcosa di neutro e inevitabile, ma di un processo altamente influenzato dalla cultura, dai valori e dalla politica. E, di conseguenza, suscettibile di cambiamento. Il che si lega strettamente a quello che, insieme all’originalità della ricerca svolta e alla capacità di porre le domande giuste, è probabilmente il principale merito del lavoro di Barassi: saper leggere i fenomeni sociotecnici nella loro complessità, senza cercare di incasellare tutto in compartimenti stagni ma rimanendo consapevoli della contraddittorietà del reale. Così la sorveglianza algoritmica non costituisce soltanto un pericolo per le famiglie, ma anche un elemento spesso percepito come indispensabile e comunque difficilmente sostituibile, con luci e ombre. Il problema che si pone non è quindi solo il monitoraggio della vita in sé e per sé, ma anche la trasparenza delle pratiche di sorveglianza, gli interessi a cui rispondono, le disuguaglianze che si tendono a perpetuare. Ciò non significa adottare un approccio a-critico rispetto ai fenomeni. Anzi, tutt’altro. Si tratta di essere consapevoli del fatto che soltanto nelle sfumature può esserci una reale comprensione della realtà e, di conseguenza, un’azione più efficace nella direzione del cambiamento auspicato.


[1] Viktor Mayer-Schönberger e Kenneth Cukier, Big Data. A Revolution That Will Transform How We Live, Work, and Think, John Murray Publishers, Londra 2013.

[2] Il concetto è stato introdotto da Shoshana Zuboff. Una descrizione dettagliata è fornita al capitolo 13 del suo Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma 2017.

[3] Quinn Grundy, Data Sharing Practices of Medicines Related Apps and the Mobile Ecosystem: Traffic, Content, and Network Analysis, in «British Medical Journal», 2019, 364:l920.

[4] Kate Crawford, Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, Yale 2021.

[5] Eli Pariser, The Filter Bubble. What The Internet Is Hiding from You, Penguin Press, New York 2011.

[6] Frank Pasquale, The Black Box Society. The Secret Algorithms That Control Money and Information, Harvard University Press, Harvard 2015.

[7] Sul tema, si veda: Stuart McLennan, Meredith M. Lee, Amelia Fiske e Leo Anthony Celi, AI Ethics Is Not a Panacea, in «The American Journal of Bioethics», 2020, 20:11, 20-22; Anaïs Rességuier e Rowena Rodrigues, AI ethics should not remain toothless! A call to bring back the teeth of ethics, in «Big Data & Society», luglio-dicembre 2020, 1-5.

[8] Nicholas Vinocur, ‘We have a huge problem’: European tech regulator despairs over lack of enforcement, «POLITICO», 27 dicembre 2019.

[9] Lina Dencik e Jonathan Cable, The Advent of Surveillance Realism. Public Opinion and Activist Responses to the Snowden Leaks, in «International Journal of Communication», 11 – 2017, pp. 763-781, citato dall’autrice a pagina 102.

Scritto da
Francesco Nasi

Laureato magistrale in Studi sulla Sicurezza Internazionale presso la Scuola Superiore Sant’Anna di Pisa e l’Università di Trento. Lavora nella redazione di ISPI (Istituto per gli Studi di Politica Internazionale) e ha collaborato con il CeSPI (Centro Studi di Politica Internazionale) nell’ambito dei diritti umani. Per Pandora si occupa principalmente di processi di sorveglianza, rapporto tecnica/politica e trasformazioni del capitalismo.

Pandora Rivista esiste grazie a te. Sostienila

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, ma puoi anche fare una donazione a supporto del progetto. Grazie!

Abbonati ora

Seguici