Scritto da Alessandro Bianco
9 minuti di lettura
Veronica Barassi è antropologa e docente di media and communication studies all’Università di San Gallo, in Svizzera. Il suo lavoro si concentra sui rapporti tra vita quotidiana e raccolta dati per sistemi di algoritmi e intelligenze artificiali. Nel suo libro I figli dell’algoritmo. Sorvegliati, tracciati e profilati dalla nascita (Luiss University Press 2021) ha esplorato, in particolare, la datificazione delle vite di bambini e famiglie. In precedenti volumi si è concentrata sul rapporto tra attivismo, giustizia sociale e capitalismo digitale (Activism on the web. Everyday struggles against digital capitalism, Routledge 2015). Dal 2020 ha lanciato il progetto “The Human Error Project: AI, Human Nature and the Conflict Over Algorithmic Profiling”. In questa intervista discutiamo del ruolo che può avere l’antropologia culturale, e la sua intersezione con altre discipline, nel leggere questi fenomeni della contemporaneità.
Nell’intersezione tra antropologia e media and communication studies sembra essere di fondamentale importanza, nelle sue ricerche, riflettere sul ruolo che i dati e gli algoritmi assumono nelle nostre società. Potrebbe spiegarci, dal suo punto di vista, che cosa si intende per “dati” e da quando è esploso il fortissimo interesse per la loro raccolta?
Veronica Barassi: Negli ultimi vent’anni ci sono state trasformazioni non solo dal punto di vista tecnologico ma anche da quello sociale e culturale nei modi in cui si collezionano informazioni o dati sulle persone e nei modi in cui, in un secondo momento, si prova a dare un senso a questi dati. Anche le macchine che utilizziamo per dare significato ai dati sono cambiate e cambiano continuamente. Abbiamo strutturato e costruito la società attorno a nuovi valori e significati e oggigiorno, ad esempio, non è possibile andare allo zoo senza scaricare una app perché la visita deve essere assolutamente tracciata. Abbiamo davvero pochissima scelta su quando e come condividere i nostri dati perché la nostra società, in quasi tutti i suoi aspetti, negli ultimi anni è stata organizzata in modo da collezionare più dati possibili. Questi dati poi, ovviamente, devono poter essere analizzati e usati per produrre un certo valore, che sia utile da un punto di vista economico. A proposito di questo fenomeno, i primi a parlare di datificazione massificata della nostra società sono stati Viktor Mayer-Schönberger e Kenneth Cukier nel loro libro Big Data del 2013, edito in Italia da Garzanti. I due autori parlavano di una rivoluzione che avrebbe trasformato il nostro modo di vivere, di lavorare e di pensare e anche di una minaccia alla nostra libertà; ma non so se già immaginassero che, dodici anni dopo, la datificazione si sarebbe amplificata a questi livelli.
In questa situazione di datificazione crescente, gli algoritmi hanno un’importanza fondamentale, come si evince anche dal titolo del suo libro I figli dell’algoritmo. Ma tutt’ora utilizzare questo termine sembra generi una sorta di confusione. Che cosa sono gli algoritmi? E soprattutto, ha senso cercare di darne una definizione univoca?
Veronica Barassi: Ho riflettuto a lungo su questa domanda nel corso degli anni. Soprattutto grazie all’antropologia ho pensato che fosse però più interessante pensare al “perché” abbiamo sentito così tanto la necessità di parlare di algoritmi. Ritengo che, quando usiamo questo termine, stiamo provando a dare un senso al fatto che negli ultimi vent’anni i modi in cui ci relazioniamo alla conoscenza sono radicalmente cambiati. Da un certo punto in poi abbiamo dato più priorità a forme di conoscenza che hanno un carattere quantitativo e statistico, come i calcoli matematici e meccanici per descrivere le nostre pratiche quotidiane, e meno ad altre forme di conoscenza dei nostri complessi modi di vivere. Per questo forse la domanda principale da porsi non dovrebbe essere “cos’è un algoritmo?”, ma “cos’è un algoritmo come prodotto culturale?”. Penso che questo cambiamento di prospettiva ci porterebbe a mettere in discussione le nostre priorità e ad analizzare il sistema di valori, di pratiche culturali, di infrastrutture e di relazioni di potere che creiamo attorno a queste nuove tecnologie. Anche per quanto riguarda l’intelligenza artificiale, penso che le domande che più spesso ci poniamo non colgano propriamente nel segno.
L’antropologia culturale aiuta a ribaltare le domande e a cambiare il punto di vista; tipicamente però è vista dai non addetti ai lavori come una disciplina che si occupa dello studio di popolazioni “altre” e lontane da noi, o di folklore e cultura popolare. Che contributo può dare l’antropologia allo studio dell’intelligenza artificiale e degli algoritmi? Come si possono usare i concetti e i metodi propri di questa disciplina per comprendere queste nuove componenti della contemporaneità?
Veronica Barassi: L’antropologia può dare un contributo davvero essenziale allo studio di tutti i fenomeni contemporanei. Nel 2022 ho scritto un articolo ispirato da una sorta di frustrazione generale: Algorithmic violence in everyday life and the role of media anthropology, contenuto nel The Routledge Companion to Media Anthropology. Da quando sono entrata nei media and communication studies, nei critical data studies, e negli Internet studies ho notato una vastissima produzione di letteratura sulla violenza strutturale e sulla violenza simbolica, oltre che di letteratura sugli algorithmic bias, sulle disuguaglianze sociali nelle raccolte dei dati e così via. La frustrazione che mi ha portata a scrivere l’articolo derivava dal fatto che tutta questa letteratura non tenesse in considerazione che gli antropologi e le antropologhe hanno studiato e continuano a studiare certi tipi di “sistemi automatizzati”, non intesi propriamente come machine learning systems, ma come, ad esempio, sistemi burocratici in generale, come violenze strutturali dei rapporti di potere o delle strutture gerarchiche. Ci sono tantissimi lavori antropologici su questi argomenti: le opere di Arjun Appadurai sul data colonialism, quelle di Akhil Gupta sulla violenza della burocrazia e sulla violenza di genere. Tutta l’opera di David Graeber sullo studio dei rapporti di potere e della violenza dello Stato e dell’economia. Tutte queste opere e questi autori non erano considerati né citati nei dibattiti sugli algoritmi dei media and communication studies, ma possono senza dubbio contribuire enormemente allo studio sull’IA e sugli algoritmi. Ci sono tantissime altre ragioni, inoltre, per cui l’antropologia non dovrebbe essere sottovalutata da chi studia IA, algoritmi e datificazione. Per la nostra disciplina non sono importanti tanto “le cose in sé” quanto gli “scontri” e gli “incontri culturali” che si formano attorno a eventi, pratiche, oggetti. La tendenza generale è quella di parlare di IA come un’unità, un blocco uguale per tutti e tutte in ogni parte del mondo. Ovviamente non è così e non può essere così. Esistono tante culture diverse che utilizzeranno e consumeranno l’IA in maniera diversa. Non possiamo pensare che questi prodotti siano uguali per tutti: attraverso la datificazione e l’IA si creano disuguaglianze, scontri, divergenze che non possiamo sottovalutare. Come dicevamo prima riguardo gli algoritmi: che cosa è l’IA come prodotto culturale? Questa è la domanda che può portare davvero a riflettere sulla contemporaneità. In questo senso l’antropologia del consumo di Daniel Miller, per esempio, non può che dare un contributo essenziale.
L’antropologia ci può aiutare anche, quindi, a contestualizzare l’IA e i termini che utilizziamo per descriverla. Da sempre l’intelligenza è stata considerata una prerogativa umana. Oggi si cerca di allargare il concetto parlando di intelligenza delle piante o di intelligenza “naturale”, ma c’è una resistenza culturale in questo senso. Perché, invece, c’è molta meno resistenza a considerare l’IA qualcosa di intelligente?
Veronica Barassi: Un altro problema fondamentale è proprio questo: consideriamo l’IA intelligente perché l’abbiamo creata noi. È positiva, quantitativa, probabilistica, matematica e risponde ad un immaginario dove si pensa che ad ogni domanda (o quasi) ci possa essere una risposta definitiva e secca, “scientifica”. Queste caratteristiche, però, rispondono ad una visione tutta occidentale dell’intelligenza. Esistono migliaia di intelligenze diverse, anche solo considerando le varie intelligenze umane descritte dalle altre culture. I modelli linguistici con cui sono addestrate le intelligenze artificiali rispondono a ideali, a valori e ad aspettative che sono “nostre”. Questo andrà a creare un grandissimo problema: significa che, da una parte, si amplificherà il divario digitale tra culture; dall’altra, che le nuove tecnologie con cui andremo a dialogare e ad interagire, e che faranno sempre più parte della nostra vita, potrebbero essere completamente offensive in termini di rappresentazioni e comprensioni culturali. In questo senso l’antropologia non solo può dire tanto sui dibattiti intorno all’intelligenza artificiale svolti negli ultimi dieci anni, ma può anche contribuire a capire quali saranno gli sviluppi futuri e le problematicità che nasceranno attorno a queste nuove tecnologie.
Le relazioni tra questioni legate a intelligenza artificiale, algoritmi e datificazioni sembrano essere estremamente intrecciate a quelle di giustizia sociale, di disuguaglianza, di privilegio. Si parla spesso anche di temi che riguardano la “trasparenza”, la “responsabilità” e la “libertà”. L’etnografia, intesa come metodo antropologico basato sull’osservazione partecipante, cosa può dirci a riguardo? Come si sentono le persone a proposito di questi temi?
Veronica Barassi: In ogni dibattito su questi temi ciò che risulta evidente è il fatto che non si può parlare di sviluppo di IA o di datificazione senza guardare a come queste nuove tecnologie si intersechino con le ingiustizie sociali amplificandole. Negli ultimi tempi siano state realizzate diverse ricerche in questo senso e questa è sicuramente una cosa positiva. A proposito di etnografia, però, il difetto delle ricerche degli ultimi anni è che non sono molto elaborate da questo punto di vista. Senza uno studio etnografico approfondito, né una buona ricerca sul campo, non si ha davvero la percezione dell’impatto che le nuove tecnologie hanno sulla vita quotidiana delle persone. Nella ricerca di campo che ho svolto con le famiglie, che ha dato poi vita a I figli dell’algoritmo, ho sviluppato il concetto di “partecipazione digitale forzata” per mostrare, ad esempio, come persino dopo l’introduzione del GDPR, grazie al quale abbiamo più scelta su quello che succede ai nostri cookies o ai nostri dati, il consenso non sembra mai essere davvero pienamente consapevole. Tra l’altro, il nostro consenso, per quanto si utilizzi questo termine, non è mai pienamente volontario o libero: molte delle situazioni che le famiglie vivono nella loro quotidianità sono già sottoposte ad una datificazione senza possibilità di scelta. Se una famiglia dice di no a qualcosa potrebbe essere esclusa da eventi e pratiche molto importanti della vita sociale di una comunità e di un territorio. Se, per esempio, la scuola di mia figlia ha un gruppo Facebook, o utilizza una app particolare, non posso semplicemente dire “non acconsento”. Potrei provare a convincere tutte le famiglie a adottare delle alternative, ma non sarei così libera nel dire di no. Durante la pandemia, per esempio, molti genitori si sono dovuti iscrivere “obbligatoriamente” a Google Classroom e l’ho fatto anche io, nonostante abbia studiato la datificazione dei bambini per anni e non fossi d’accordo con questa procedura. Penso che la ricchezza dell’etnografia e del lavoro sul campo sia proprio questa: guardare alle tensioni, ai processi di negoziazione e ai paradossi della vita di tutti i giorni, quella che davvero viviamo, al di là di ogni teorizzazione.
Questa attenzione verso la quotidianità non è diretta solo alle vite di altre persone. A partire dal progetto che ha dato vita a I figli dell’algoritmo ha detto di essere diventata osservatrice partecipante della sua stessa vita. In antropologia questo metodo si definisce, solitamente, “autoetnografia”. Che ruolo ha avuto nella ricerca di campo? Quali possono essere le risorse e quali le problematicità di questa metodologia nello studio di IA, datificazioni e algoritmi?
Veronica Barassi: Quello di “autoetnografia” è un termine da cui mi sono sempre voluta allontanare. Non ho mai creduto che fosse adatto a descrivere quello che si fa quando si riflette e si osserva sé stessi. Preferisco utilizzare il concetto di “antropologia a casa” o altri termini che mettono in evidenza il fatto che l’oggetto della ricerca sia la propria città o addirittura la propria famiglia. Il termine “antropologia a casa” ha comunque uno sguardo e un’attenzione verso quello che succede nelle esperienze di vita di altre persone, cosa che penso sia davvero importante per antropologi e antropologhe. Per me l’etnografia deve basarsi sempre e comunque sull’incontro con gli altri, perché solo tramite questo incontro si imparano cose su sé stessi e sul proprio mondo. Etnografia significa partecipare e vivere posti lontani dalla nostra “comfort zone”. Questo non può che portare alla nostra ricerca di noi stessi e a nuove possibilità che non potevamo neanche immaginare, anche rispetto agli “scontri” e “incontri” culturali di cui parlavamo. Detto questo, durante la mia ricerca sul campo per I figli dell’algoritmo avevo a che fare con famiglie che venivano da background culturali e sociali completamente diversi. E mentre lavoravo con queste persone ho realizzato che la datificazione che li riguardava non era sconnessa da questi background. Ho deciso, così, di orientare lo sguardo verso me stessa e la mia famiglia: come eravamo diventati dati per qualcuno? Come mi sentivo quando dovevo dare il consenso per termini e condizioni? È vero che l’etnografia si è concentrata sulla mia vita, ma questo non significa assolutamente che sia stata “solo” un’etnografia su me stessa e sulla mia famiglia. Ragionare sul proprio contesto e osservare sé stessi accende una luce su una cultura intera, su una società nel suo complesso.
In I figli dell’algoritmo il ritratto che emerge è di particolare sfiducia nei confronti degli utilizzi di queste nuove tecnologie, anche perché si evidenziano rapporti di potere tra utenti e produttori che lasciano pochi margini di libertà. Nel 2015 ha scritto Activism on the Web. Everyday Struggles against Digital Capitalism, un libro che cercava di mettere in luce le sfide che gli attivisti e le attiviste devono affrontare nell’era del capitalismo digitale. Cosa è cambiato in questi dieci anni? È possibile riscontrare qualche nota positiva?
Veronica Barassi: Bella domanda, non avevo mai riflettuto troppo su un possibile legame tra i due libri. In Activism on the Web cercavo di mettere in luce come sia difficile, per culture (o subculture) progressiste, utilizzare tecnologie intrinsecamente individualistiche, positive, numeriche e anti-relazionali per scopi che non hanno nulla a che vedere con questi valori. Oggi non viviamo un periodo facile da questo punto di vista: il potere è nelle mani di un ristrettissimo numero di persone che governano strumenti e tecnologie che la maggior parte degli esseri umani utilizza senza porsi troppe domande sul loro funzionamento e senza conoscerle a fondo. La politica si sta servendo di queste tecnologie e, sempre di più, stiamo andando verso un immaginario e un ideale esclusivamente di tipo individualistico e positivo, ma è vero anche che ci sono tante realtà al mondo che agiscono in modo diverso. E dunque si possono pensare a utilizzi di queste tecnologie culturalmente diversi. Dobbiamo, forse, impossessarci di questa narrazione e pensare che sia opportuno analizzare anche i possibili effetti positivi delle nuove tecnologie. Nell’università della Southern California, ad esempio, dei robot hanno trovato un modo di comunicare con bambini e bambine autistici molto più efficace di quanto potessimo fare noi umani. Insomma, non tutto è perduto, forse. Come diceva in Possibilities. Essays on Hierarchy, Rebellion and Desire (AK Press 2007) David Graeber, di cui sono stata teaching assistant a Londra: «Le possibilità umane sono sempre – in ogni modo – più grandi di quello che molto spesso crediamo». Spesso pensiamo che non ci siano speranze e che tutte queste tecnologie verranno utilizzate solo per arrivare a forme di controllo sempre più evolute; ed è vero che non viviamo in un periodo “facile”, ma l’umanità sembra trovare sempre delle alternative, sembrano esserci sempre e in ogni caso delle resistenze. Non dobbiamo perdere la fede nelle capacità umane. Graeber credeva che la nostra poca fede nella collettività, nell’autogestione, nel rispetto reciproco – mancanza di fede spesso tradotta in un bisogno di regole, di autorità, di sistemi repressivi – fosse il frutto di una costruzione culturale e politica. Viviamo con l’idea che gli istinti primitivi umani siano l’avarizia e l’egoismo, e ci dimentichiamo di quanto siamo continuamente esposti a forme di altruismo, di empatia e di solidarietà collettiva.