Recensione a: Helga Nowotny, Le macchine di Dio. Gli algoritmi predittivi e l’illusione del controllo, Luiss University Press, Roma 2022, pp. 206, 19 euro (scheda libro)
Scritto da Niccolò Guidi
7 minuti di lettura
La tecnologia è diventata uno strumento indispensabile per la quotidianità. Studiare, lavorare, leggere, intrattenersi, comunicare: tutto passa attraverso un dispositivo digitale. Ma si tratta davvero soltanto di uno strumento? Questi dispositivi, che vengano utilizzati o meno, registrano ogni azione catturata dai loro sensori nel minimo dettaglio. È così che viene istruita l’intelligenza grazie alla quale questi compagni digitali sono così efficienti e facili da usare. Se da una parte chi li utilizza sviluppa una certa dimestichezza nello sfruttarne le funzioni, allo stesso modo tali strumenti riescono ad avere una forte influenza sull’utente, cambiando le sue abitudini. Non solo: insieme alle abitudini sta cambiando anche la concezione collettiva del tempo, della società, della persona e delle nuove informazioni che continuamente ognuno desidera immagazzinare.
Helga Nowotny in Le macchine di Dio. Gli algoritmi predittivi e l’illusione del controllo cerca di delineare questi recenti e radicali cambiamenti tramite un approccio olistico in grado di concentrare gli spunti e i riferimenti di una ricca bibliografia in meno di duecento pagine. L’autrice, presidente dell’European Research Council dal 2010 al 2013 e professoressa emerita di Studi scientifici e tecnologici al Politecnico di Zurigo, da più di cinquant’anni si mostra molto critica verso la tecnologia, contribuendo a sviscerare questioni che ancora oggi restano poco presenti nel dibattito pubblico. Nell’opera in questione, la sua analisi si svolge principalmente esplorando i cambiamenti che le nuove tecnologie hanno portato nella nostra concezione di tempo, spazio e società.
Secondo l’autrice, l’umanità sta imparando a convivere con quella che può essere definita come una nuova “specie”: le macchine guidate da algoritmi intelligenti. Questa, a differenza delle specie animali conosciute, non è costituita da esseri indipendenti tra loro. Le macchine, o dispositivi, sono solamente l’estensione fisica di un’intelligenza artificiale composta da algoritmi e banche dati, a cui ogni strumento digitale deve far riferimento per poter portare a termine le sue funzioni. Si tratta di una sorta di “mente collettiva”, in grado di connettere ogni suo dispositivo tramite Internet.
Quando, per esempio, viene scrollato il feed di un social network o viene fatta una ricerca su Google, l’algoritmo mostrerà risultati personalizzati in base alle informazioni che questi sistemi hanno raccolto sull’utente: facendo la stessa ricerca da un altro dispositivo, infatti, i risultati raramente saranno gli stessi. Una “mente collettiva” decide come plasmare i risultati di cui dispone in modo che soddisfino al meglio sia i termini della richiesta dell’utente, sia gli obiettivi del proprietario dell’intelligenza stessa. La maggior parte di queste tecnologie di uso quotidiano, infatti, sono di proprietà di aziende che negli anni hanno conquistato posizioni esclusive nel loro settore, portando quindi gli algoritmi a soddisfare sempre di più i loro interessi piuttosto che quelli dei loro utenti: un utilizzo spasmodico è sicuramente ricercato da queste aziende, in modo da massimizzare il tempo speso dagli utenti sulle loro piattaforme.
L’essere costantemente sopraffatti da nuove informazioni porta a sviluppare un’inedita concezione del tempo: una commistione di tempo reale e digitale. A fianco del tempo in cui ha sempre vissuto l’umanità, nel quale scorrono le esperienze e le interazioni fisiche, negli ultimi anni si è inserito nelle quotidianità un tempo in cui vari presenti possono coesistere: «Le linee che separano il presente dal futuro si stavano dissolvendo, mano a mano che le dinamiche dell’innovazione, capeggiate dalla scienza e dalla tecnologia, aprivano il presente alle tante nuove opzioni che stavano diventando disponibili. Il presente si stava estendendo quanto più le nuove tecnologie, e la loro selezione e appropriazione sociale, venivano accolte. […] Ciò ha alterato l’esperienza del tempo. Il presente si stava comprimendo e densificando proprio mentre si estendeva nel futuro immediato» (p. 22). Il tempo digitale slega dalla fisicità del mondo reale, mettendo ognuno in condizione di comunicare con persone in altre parti del mondo e conoscere altre versioni del presente, costantemente e contemporaneamente. L’autrice, a cui il tema del tempo nella società moderna è molto caro, tanto da essere stata presidente della International Society for the Study of Time e aver pubblicato Time: The Modern and Postmodern Experience, si avvicina al dibattito tecnologico proprio tramite queste riflessioni.
Ma una controparte digitale non ha preso luogo solamente nel tempo, bensì anche nello spazio. L’autrice definisce uno spazio digitale con il nome di Mirror World, «un mondo allo specchio che rapidamente diventa il nostro habitat virtuale esteso». L’enorme quantità di azioni che ognuno di noi compie ogni giorno viene immagazzinata sotto forma di dati che, collegati opportunamente tra di loro, riescono a formare un ecosistema di informazioni in grado di delineare una vera e propria realtà parallela. Qui, intelligenze artificiali e algoritmi predittivi lavorano con l’obiettivo di studiare, schematizzare e prevedere gli eventi e le azioni del mondo reale.
Se da una parte questa nuova realtà può risultare molto utile quando utilizzata come strumento per prevenire o risolvere problemi, essa può diventare problematica quando gli obiettivi del Mirror World diventano quelli di distorcere la nostra visione del mondo reale con lo scopo di perseguire gli obiettivi delle aziende e delle entità proprietarie di alcune intelligenze artificiali. Tramite il Mirror World, utilizzato come campo di simulazione del mondo reale, il progresso si sta concentrando sempre più sul controllo dei possibili rischi futuri, sulla loro previsione e sull’efficienza nel tentare di prevenirli. Vi sono però situazioni di irrimediabile incertezza, per le quali è necessario valutare i limiti della conoscenza scientifica e tecnologica per capire come agire. Gli studi scientifici, infatti, hanno da sempre aiutato a capire quanto il mondo sia complesso. Le macchine, per quanto possano continuare ad immagazzinare dati e affinare i loro algoritmi, sono ancora lontane dal poter gestire il caos che la realtà presenta: viene quindi citato nel libro il concetto di “possibile adiacente” di Stuart Kauffman secondo il quale «le possibilità diventano esponenziali: più in là andiamo nel futuro, più potenziali tecnologie possono essere inventate, più possibili pensieri possono essere pensati e il sottoinsieme dell’effettivo diventa una frazione sempre più piccola della somma di ciò che è realizzabile. Il possibile adiacente inizia sul confine dal quale osserviamo un set di dati da un altro set vicino. Il possibile adiacente è lo spazio da esplorare se vogliamo trovare il nuovo […]. Non ha però la pretesa di dirci quanto controllo possiamo avere sul futuro. Questa è una proposta assurda, dal momento che il futuro non può essere controllato» (p. 124).
Riflessioni, queste, che si inseriscono facilmente nel recente dibattito sui servizi di intelligenza artificiale che sono stati da poco aperti al pubblico, come ChatGPT, Midjourney e simili. Tali servizi hanno bisogno di essere supportati da profonde riflessioni riguardo al loro impatto sulla società prima di diventarne parte integrante. Siamo di fronte ad una svolta epocale, quantomeno al pari dell’invenzione del computer e dello smartphone, a partire dalla quale gli individui delegheranno sempre più scelte a macchine e intelligenze artificiali con il rischio che le stesse scelte si omologhino o polarizzino plasmando le possibilità future verso direzioni deterministiche. Con ChatGPT, infatti, l’individuo non ha più la libertà di scelta tra diversi risultati ad una sua domanda o ricerca, come su un qualsiasi motore di ricerca, ma viene proposta un’unica risposta veicolata da policy e interessi dell’azienda o ente proprietario.
Le strade che si dispiegano sono sostanzialmente due: accettare che le macchine non siano in grado di pensare e gestire la realtà come gli umani oppure iniziare a pensare come macchine. L’autrice si riferisce quindi a Yuval Noah Harari il quale «teme che la digitalizzazione sia diventata un sistema che osserva e digitalizza tutto ciò su cui può mettere le mani e che così facendo usurperà la nostra capacità di pensare. L’urgenza nella sua supplica appare tanto disperata quanto sincera: se solo, come specie, potessimo lavorare abbastanza duro da capire la nostra mente prima che gli algoritmi inizino a prendere le decisioni per noi»[1]. Sta alla società tutta, quindi, utilizzare le tecnologie con saggezza, facendo sì che queste restino strumenti, riconoscendone limiti e non rendendoli agenti attivi in grado di prendere sistematicamente decisioni per conto degli utenti.
Simili concetti sono ripresi da David Walter Runciman che, citato nel testo, spiega come uno dei modi in cui la democrazia potrebbe giungere ad una fine sia quello in cui algoritmi pseudo-intelligenti raccolgano enormi quantità di dati e prendano decisioni per i singoli[2]. Lo testimonia, uno fra tanti, lo scandalo di Cambridge Analytica, in cui un enorme numero di elettori statunitensi sono stati influenzati subdolamente grazie all’accesso da parte di terzi ai loro dati personali. La linea secondo cui si sviluppa il testo dell’autrice è simile per certi aspetti a quella delineata da Harari nella sua trilogia[3], mentre si discosta e risulta critica verso la cieca «fiducia nella ragione, nella scienza e nella tecnologia» di Steven Arthur Pinker[4] e Harari stesso (pp. 110-111).
In conclusione, il testo si concentra su come gli algoritmi predittivi imparino dagli utenti e come a loro volta siano in grado di influenzare questi ultimi. Gli algoritmi predittivi hanno lo scopo di fare previsioni a scopo di prevenzione, e, in un mondo che viene percepito come pieno di pericoli, la prevenzione assume una grande importanza. Gli algoritmi predittivi sono anche quelli che esortano le persone ad avere una vita sana e produttiva, a raggiungere l’obiettivo giornaliero di 10.000 passi, a essere felici e a contribuire a un pianeta sostenibile. Per quanto essi appaiano imparziali e oggettivi – e per questo motivo viene riposta in loro molta fiducia –, è doveroso ricordare che la loro affidabilità è strettamente legata a quella delle grandi aziende che li possiedono e gestiscono: «Il potere è concentrato in una manciata di monopoli che finora hanno ampiamente scansato la regolamentazione. Se è importante il contesto in cui gli algoritmi sono utilizzati, la diversità dei contesti deve allora essere riconosciuta» (p. 179).
Le macchine di Dio, per quanto breve e conciso, non manca di informazioni interessanti e spunti originali. Non capita di rado, infatti, di imbattersi in numerosi riferimenti a fonti bibliografiche in appena poche pagine di lettura – con il latente rischio però di risultare dispersivo e talvolta vago. Se da una parte il lettore riesce a cogliere i punti di vista di svariati autori, anche molto differenti tra loro per disciplina e periodo storico, dall’altra la tesi dell’autrice rischia di perdersi nella moltitudine di fonti che sceglie di citare. Sarebbero stati utili ulteriori approfondimenti per sviscerare i pensieri proposti, quando invece vengono presentati in molti casi come un susseguirsi di tesi che, per quanto interessanti, risultano debolmente collegate tra loro e talvolta ambigue. Gli algoritmi predittivi e le intelligenze artificiali trovano applicazione in numerosi ambiti scientifici e tecnologici, ed è pertanto necessario dover essere specifici quando si sceglie di trattarli.
In conclusione, Helga Nowotny presenta un grande numero di punti a sostegno delle sue tesi e riesce a far convergere, almeno parzialmente, diverse linee di pensiero in una sola riflessione, assolutamente necessaria e urgente per un progresso tecnologico benefico e sostenibile. Nonostante il testo tenda a favorire la quantità di idee alla qualità dei collegamenti tra di loro, il suo approccio olistico verso la comprensione del futuro che si sta formando risulta indispensabile: per affrontare la complessità che ci circonda è infatti fondamentale analizzare i cambiamenti di questa epoca sotto molti aspetti differenti.
[1] Yuval Noah Harari, 21 Lezioni per il XXI secolo, Bompiani, Milano 2018.
[2] David Walter Runciman, Così finisce la democrazia. Paradossi, presente e futuro di un’istituzione imperfetta, Bollati Boringhieri, Torino 2019.
[3] Yuval Noah Harari, Sapiens. Da animali a dèi. Breve storia dell’umanità, Bompiani, Milano 2014; Homo Deus. Breve storia del futuro, Bompiani, Milano 2017; 21 Lezioni per il XXI secolo, Bompiani, Milano 2018.
[4] Steven Arthur Pinker, Illuminismo adesso. In difesa della ragione, della scienza, dell’umanesimo e del progresso, Mondadori, Milano 2018.