“Big data. Come stanno cambiando il nostro mondo” di Marco Delmastro e Antonio Nicita
- 23 Giugno 2019

“Big data. Come stanno cambiando il nostro mondo” di Marco Delmastro e Antonio Nicita

Recensione a: Marco Delmastro e Antonio Nicita, Big data. Come stanno cambiando il nostro mondo, il Mulino, Bologna 2019, pp. 168, euro 11 (scheda libro)

Scritto da Federico Gonzato

6 minuti di lettura

«Il mondo sta diventando un computer. L’informatica è sempre più connessa a tutto quello che facciamo, a ogni aspetto della nostra vita quotidiana». A leggerlo, questo virgolettato pare la citazione di un romanzo fantascientifico di quelli, per intenderci, alla Aldous Huxley o alla Ray Bradbury. Invece, questa frase, all’apparenza distopica ma in realtà quanto mai attuale, è tratta dall’intervento di Satya Nadella, CEO di Microsoft, tenutosi all’Università Bocconi lo scorso 30 maggio. In viaggio in Italia in occasione del Microsoft Innovation Summit, Nadella ha stretto accordi con una serie di grandi attori italiani del settore delle comunicazioni: Microsoft fornirà loro le più avanzate tecnologie di data analytics, machine learning e intelligenza artificiale.

Ma di cosa parliamo quando facciamo riferimento a questi termini, magari così complessi e all’apparenza lontani dalle nostre vite? Cosa intendiamo quando parliamo di rivoluzione o capitalismo digitale? Quali sono le sfide, e i rischi, che pone di fronte a noi l’innovazione tecnologica? Queste le domande che si pongono due economisti, Marco Delmastro e Antonio Nicita.[1] Dalla loro riflessione è nato un libro: Big data. Come stanno cambiando il nostro mondo (il Mulino, 2019).

Cosa accomuna scandali come quello di Cambridge Analytica alle nuove forme computerizzate di domotica? Per Delmastro e Nicita la risposta è semplice: il ruolo centrale dei dati. Pur nella loro apparente lontananza, tanto lo scandalo che coinvolse Facebook per aver ceduto informazioni private di 50 milioni di utenti alla società di data mining data analytics britannica, quanto i più innovativi sistemi di controllo informatizzati delle nostre case hanno alla base un comune processo economico in rapida ascesa. Vale a dire l’estrazione, la catalogazione, la lavorazione e la cessione di dati e nello specifico dei discussi big data. Un termine anglosassone usato ormai di frequente, spesso in maniera imprecisa, di cui Delmastro e Nicita riportano la definizione di base formulata dall’Unione Europea: «grandi quantità di tipi diversi di dati prodotti da varie fonti, fra cui persone, macchine e sensori». Ma i due autori non si fermano a questa sintesi. I big data non sono infatti informazioni qualunque, sono “big” cioè letteralmente di grande portata e lo sono in virtù di una regola, quella delle “tre v”, le iniziali delle tre caratteristiche che li descrivono: (grande) velocità, (grande) varietà e (grande) volume.

Dietro a questa mole di dati, i due autori rilevano l’esistenza e la portata di un importante mercato, una nuova economia, definibile come “capitalismo digitale”. Nello spiegare questo termine, gli autori fanno riferimento a un altro testo, dal titolo Capitalismo immateriale (Bollati Boringhieri, 2019), scritto dall’imprenditore Stefano Quintarelli. Per quest’ultimo, come anche per Delmastro e Nicita, gli sviluppi più recenti del capitalismo – che si esprimono nell’estrazione, lo scambio e l’acquisto di dati – vanno in scena soprattutto in un ambiente digitale. «Le piattaforme digitali spesso sono denominate over the top per il fatto che sviluppano servizi che si trovano gerarchicamente al di sopra delle infrastrutture fisiche di telecomunicazione fisse e mobili grazie alle quali accediamo alla rete». Le grandi piattaforme del Web si pongono così al di sopra delle classiche strutture del capitalismo industriale: i giganti dell’e-commerce (come Amazon), Facebook, Google, Microsoft, sono questi i protagonisti del nuovo capitalismo dei dati, ultima declinazione del capitalismo post-industriale.

La mancanza di infrastrutture tradizionali non comporta mancanza di investimenti. Infatti, come sottolineano Delmastro e Nicita, «Nell’ultimo anno, gli investimenti delle cinque principali piattaforme online […] hanno superato i 50 miliardi». Investimenti ingenti, che vengono sfruttati per la realizzazione in particolare di nuovi data center, i centri per l’elaborazione e la conservazione di una mole di dati in continua crescita.

Il mercato dei big data: un nuovo laissez-faire?

Nel saggio, Delmastro e Nicita hanno cercato di scandagliare, di approfondire ciò che sta dietro questa grande mole di dati. Ovvero, uno scambio intensissimo, descritto come “estremamente multiforme” e “multi-versante”, un sistema quindi fluido, nel quale vengono posti l’uno di fronte all’altro gli utenti e gli utilizzatori finali dei dati. In mezzo, a fare da intermediari tra questi due poli, troviamo i cosiddetti data brokers. Questi ultimi sono soggetti che si occupano sostanzialmente di trasmettere le grandi moli di dati. Come si legge, «i data brokers sono rivenditori di dati digitali recuperati online da fonti generalmente pubbliche che vengono aggregati, elaborati e analizzati per essere venduti sul mercato, a fini di promuovere campagne pubblicitarie personalizzate e la commercializzazione di prodotti e servizi». Tra esse troviamo Acxiom, CoreLogic, Id Analytics e molte altre. Tali società hanno stipulato accordi con Facebook e Google, e le altre grandi piattaforme in cui il mercato dei dati si sviluppa. I brokers forniscono quindi i dati, in particolare quelli riferiti a gusti e preferenze dei singoli, alle piattaforme. In tal modo, viene portata avanti una “segmentazione dei target”, ovvero l’incasellamento e la profilazione degli utenti.

I due autori si pongono una domanda: il nuovo mercato dei big data, in cui dominano le piattaforme che estraggono e acquisiscono dati dagli utenti, può inserirsi nelle tradizionali regole della concorrenza? Nel rispondere a questo interrogativo, il primo problema che rilevano riguarda lo scambio alla base. «C’è una certa differenza – scrivono gli autori – tra la consapevolezza ad esprimere un consenso “formale” a utilizzare il proprio dato e quella di partecipare a una vera e propria transazione economica sul proprio dato». E qui sta l’ambiguità che distorce alla base il mercato dei dati: «Se infatti interpretiamo il dato personale come “non alienabile”, la delega che conferiamo alla piattaforma, attraverso il nostro consenso, “dovrà” essere esclusiva». Tutto questo appare ancora più ambiguo e preoccupante se si tiene conto che la maggior parte degli utenti del Web non legge attentamente le informative (54%) o non le legge del tutto (33%).

Ci sarebbe poi – continuano gli autori – un altro aspetto controverso del nuovo mercato dei big data. Il capitalismo digitale azzera il tempo di ricerca e con esso i costi legati al processo di selezione dei servizi. Il Web si propone come una grande vetrina virtuale con siti e piattaforme che consentono di trovare le “migliori offerte” per un vastissimo numero di prodotti e servizi. Dicono Delmastro e Nicita: «Tutto quel tempo, e quelle lunghe file, per ottenere, da altri informazioni per noi rilevanti, è oggi “risparmiato” o forse, direbbe Proust “ritrovato”». Tale azzeramento del tempo per i consumatori si presenta come un comfort notevole, tuttavia il tempo risparmiato viene reindirizzato e valorizzato nel vero senso della parola e l’attenzione degli utenti è ora convogliata su una molteplicità di advertisement e banner pubblicitari. Tale aspetto, unito alla scarsa propensione degli utenti per il multihoming[2] rischia di determinare condizioni di posizione dominante, per cui una piattaforma esercita uno strapotere sulle altre, limitando indirettamente la concorrenza e l’apertura del mercato stesso. Ed è utile quindi citare il paradosso proposto da Delmastro e Nicita, «nel platform capitalism aumenterebbe la libertà di scelta (e il matching indotto dalla profilazione) in un contesto che, tuttavia, “forzerebbe” quella scelta dentro la singola piattaforma, la quale intanto espande continuamente la tipologia di servizi offerti».

Politica ed etica al tempo dei dati

Nella parte finale del loro saggio, Delmastro e Nicita vanno oltre l’aspetto economico e affrontano le molteplici implicazioni dell’uso dei big data nella propaganda politica e nell’informazione. L’uso di questa grande mole di informazioni personali, tradizionalmente impiegate nel marketing commerciale, si è infatti aperto via via al marketing politico. Il già citato caso di Cambridge Analytica ha fatto venire a galla tali pratiche, tanto conosciute dagli addetti ai lavori quanto ignote all’opinione pubblica. L’applicazione originariamente sviluppata dal ricercatore di Cambridge Michal Kosinski aveva consentito l’estrazione da Facebook di una mole impressionante di dati personali di milioni di utenti poi utilizzati, a fini di propaganda sul web, da vari attori politici, per il micro-targetting, la creazione di filter bubble e di echo-chamber. Questi due ultimi termini designano quegli ambienti, quelle cerchie di utenti accomunati da preferenze e tendenze politiche affini, al cui interno rimbalzano e vengono amplificati notizie e messaggi molto spesso tendenziosi, di parte e che disincentivano lo sguardo critico.

Filter bubble e echo-chamber si presentano, quindi, tra i principali strumenti di disinformazione e inquinamento mediatico. Dunque, «come vigilare su questi processi [in modo] da superare la grande asimmetria informativa?». L’Unione Europea ha già messo in campo il cosiddetto GDPR, ovvero il Regolamento generale per la protezione dei dati personali, un provvedimento che consente la regolazione della portabilità dei dati, quindi il loro utilizzo da parte delle piattaforme. Tuttavia, rimangono fuori da questo regolamento tutti i dati non strutturati, i più fluidi, quelli ricavati ad esempio dalle ricerche effettuate dagli utenti nei grandi siti di e-commerce.

Delmastro e Nicita auspicano la determinazione di nuove regole pro-concorrenziali e di un percorso verso la piena definizione del mercato dei dati. Infatti, la sfida dei prossimi anni sarà rimanere al passo con l’espansione e l’evoluzione di tale mercato, cercando di tracciarne i mutevoli confini e imponendo il diritto proprietario negoziabile sui dati. Solo così si potrà cercare di tutelare i diritti degli utenti, limitare gli abusi e tutelare la concorrenza.


[1] Marco Delmastro è direttore del Servizio economico-statistico dell’Agcom. Tra le sue principali pubblicazioni troviamo The Economics of Organizational Design (Palgrave Macmillan, 2008). Antonio Nicita è stato Commissario Agcom dal 2014 al 2019. Attualmente insegna Politica economica a La Sapienza – Università di Roma e alla Lumsa. Tra le sue ultime pubblicazioni troviamo Liberalizations in Network Industries (Springer, 2016).

[2] Multihoming è il termine inglese per definire l’utilizzo contemporaneo di più piattaforme.

Scritto da
Federico Gonzato

Laureato in Scienze politiche all'Università di Padova, sta concludendo la laurea magistrale in Mass Media e Politica all'Università di Bologna - Campus di Forlì. Interessato alla Sociologia dei processi culturali e comunicativi, sta scrivendo una tesi sulla teoria del potere di Michel Foucault in relazione ai nuovi sviluppi della società nell'epoca dei Big Data.

Pandora Rivista esiste grazie a te. Sostienila

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, ma puoi anche fare una donazione a supporto del progetto. Grazie!

Abbonati ora

Seguici

www.pandorarivista.it si avvale dell'utilizzo di alcuni cookie per offrirti un'esperienza di navigazione migliore se vuoi saperne di più clicca qui [cliccando fuori da questo banner acconsenti all'uso dei cookie]