Scritto da Fabrizio Barca, Elena Esposito
17 minuti di lettura
Il crescente spazio che gli algoritmi e le tecnologie di intelligenza artificiale acquisiscono pone oggi problemi inediti, creando una nuova dimensione di interazione tra macchine ed esseri umani che richiede nuove chiavi di lettura e comprensione. Abbiamo affrontato la questione in questo dialogo nel quale la prospettiva sociologica di Elena Esposito – professoressa ordinaria di Sociologia presso le Università di Bologna e Bielefeld – viene messa a confronto con la prospettiva del Forum Disuguaglianze e Diversità, a partire dalla quale il coordinatore Fabrizio Barca svolge le sue considerazioni. Il testo è stato rivisto dagli autori.
Elena Esposito: Parlerò degli algoritmi da una prospettiva sociologica, soffermandomi sul loro impatto sociale, tentando perciò di interpretarne il ruolo nella nostra società e nella nostra cultura. Quella sociologica, come vedremo, è una prospettiva più comunicativa che tecnica. Occorre fare in primo luogo una premessa: quando si parla di algoritmi, il discorso si sovrappone spesso con quello sull’intelligenza artificiale. Ma mentre il dibattito sugli algoritmi è recente – se ne parla intensamente da circa quindici anni –, di intelligenza artificiale si è discusso sin dall’inizio della computerizzazione negli anni Cinquanta. Analizzare questa evoluzione, a mio avviso, può essere interessante per la nostra prospettiva, anche in relazione all’impatto di queste tecnologie sulla sfera pubblica. Sin da quando, negli anni Cinquanta, si inizia a parlare di elaborazione automatizzata dell’informazione, emergono l’idea, la speranza e anche il timore di riprodurre con delle macchine i processi dell’intelligenza umana, ovvero, nei fatti, di costruire macchine intelligenti. Questo progetto ha avuto da allora alterni successi: nel settore si parla infatti di inverni e primavere dell’intelligenza artificiale. Nelle fasi di grande entusiasmo si parlava di primavera, mentre le fasi in cui emergevano difficoltà non considerate in precedenza erano definite inverni. Adesso, focalizzando il discorso sugli algoritmi, ci troviamo senza dubbio in una primavera. Gli algoritmi sono infatti oggi onnipresenti e le macchine sono capaci di fare molte cose che fino a poco tempo fa – grossomodo fino a dieci anni fa – erano riservate esclusivamente all’intelligenza umana. È un’esperienza che facciamo quotidianamente: gli algoritmi sono capaci di condurre delle conversazioni, di fornirci delle informazioni, di rispondere in modo competente alle nostre richieste. Gli algoritmi sono persino in grado di scrivere dei testi: esistono infatti software brevettati che producono articoli di giornale e addirittura interi libri, acquistabili su Amazon e che sono praticamente indistinguibili da quelli scritti da esseri umani. Gli algoritmi sono capaci di comporre musica e di creare immagini, e di dare anche una consulenza psicologica. Tutte queste cose, che sembravano fantascienza, sono in realtà la nostra vita quotidiana.
Prima di entrare nel merito del tema, chiedendoci come interpretare tutto questo sociologicamente, bisogna introdurre due elementi. Accennavo prima al fatto che il discorso sull’intelligenza artificiale è onnipresente. L’ondata di entusiasmo nella quale ci troviamo è imputabile alla mole di cambiamenti occorsi negli ultimi dieci o quindici anni. In particolare, ci sono state due svolte alla base di questi cambiamenti, che occorre approfondire per comprendere meglio il funzionamento degli algoritmi. La prima ha a che vedere con gli strabilianti progressi nel campo del machine learning, ovvero nelle tecniche di apprendimento delle macchine. Il machine learning è un ambito che non nasce oggi, ma adesso si parla di nuove tecniche – unsupervised machine learning, deep learning… – grazie alle quali le macchine sono capaci di apprendere in maniera autonoma e in certi casi anche di decidere che cosa imparare e come strutturare i propri processi. Le modalità di apprendimento sono spesso talmente complesse da risultare incomprensibili per gli esseri umani, anche per gli stessi programmatori che hanno progettato la macchina. La seconda svolta è collegata alla prima – dato che non potrebbero esserci se non congiuntamente – e riguarda i cosiddetti Big Data. Gli algoritmi di machine learning riescono a fare cose incredibili perché si servono di dati diversi da quelli che utilizzavano i computer in precedenza. La differenza è qualitativa, non solo quantitativa: i Big Data sono dati di tipo differente, disponibili da quando esiste il web partecipativo, una nuova forma di internet in cui tutti gli utenti sono a loro volta attivi e produttori di contenuti. Tutti noi produciamo continuamente informazioni e dati che confluiscono sul web, consapevolmente o inconsapevolmente. Questo avviene quando si opera sui social media, quando si naviga su Internet, quando si cercano delle informazioni, ma anche semplicemente quando ci si sposta con il proprio cellulare dotato di GPS. Viene prodotta costantemente una quantità enorme di informazioni che vanno a finire sul web, sulle quali lavorano questi algoritmi di machine learning. Il risultato di queste due innovazioni è la disponibilità di macchine in grado di fare cose che prima erano alla portata solo di esseri dotati di intelligenza. Ma occorre tornare alla questione di base: come interpretare questo sviluppo? Bisogna dire che gli algoritmi sono diventati intelligenti, che questa nuova primavera dell’intelligenza artificiale, ha realizzato il sogno di costruire delle macchine intelligenti? Molti sostengono questa tesi, ma io la penso diversamente. Vorrei rapidamente discutere la mia proposta per interpretare in modo differente questa evoluzione. Se si osserva come lavorano questi algoritmi e come sono progettate le macchine, ci si rende conto di come l’intelligenza non sia lo scopo degli algoritmi. Le macchine riescono adesso a generare risultati che sembrano riprodurre le prestazioni dell’intelligenza, ma questo non avviene per l’acquisizione dell’intelligenza da parte loro, ma, al contrario, per la rinuncia al tentativo di conseguire l’intelligenza.
I risultati di queste macchine non sono tanto il trionfo del progetto di intelligenza artificiale. Le modalità con cui questi algoritmi operano sono completamente diverse da quelle con cui opera l’intelligenza umana; gli stessi programmatori affermano esplicitamente di non cercare di copiare l’intelligenza umana, poiché sarebbe un onere troppo pesante e soprattutto sarebbe inutile. Per comprendere basti pensare ai programmi di traduzione automatica, ad esempio Google Translate. I primi programmi di traduzione automatica, fino anche a vent’anni fa, erano un tentativo ammirevole ma producevano delle traduzioni spesso insensate, e il risultato era molto lontano dall’essere accettabile. Oggi invece la situazione è cambiata, e quei programmi producono delle traduzioni molto accurate. Ciò è dovuto al fatto che questi programmi hanno cambiato atteggiamento: il programmatore non cerca di insegnare alla macchina le diverse lingue, né la loro grammatica. L’algoritmo si limita ad utilizzare i Big Data presenti sul web alla ricerca di pattern, di correlazioni che consentono di mettere in parallelo testi differenti e produrre delle traduzioni efficienti. Si utilizzano ad esempio i testi della comunità europea, tradotti in tantissime lingue, oppure i materiali canadesi, scritti in francese e inglese. Utilizzando questi parallelismi e identificando delle conformità, si producono testi che risultano perfettamente sensati per gli utenti, ma non sono comprensibili per la macchina. La macchina non ha bisogno di capire questi testi, ma semplicemente di tradurli, e secondo i programmatori questo è il motivo per cui funzionano così bene. Questo è quello che fanno anche tantissimi altri algoritmi utilizzati per scopi analoghi: pensiamo all’algoritmo che corregge i nostri errori tipografici, gli assistenti digitali come Alexa e Siri, gli algoritmi che scrivono i testi. Le macchine non hanno imparato a ragionare come noi, ma al contrario non cercano più di farlo. Ci troviamo di fronte ad un modo di elaborare l’informazione che per la prima volta è profondamente diverso dal modo umano di trattare i dati. Spesso mi riferisco ad un’immagine del filosofo tedesco Hans Blumenberg, che osservava come gli uomini avessero imparato a volare nel momento in cui rinunciarono all’idea di costruire delle macchine che sbattessero le ali come gli uccelli. Una cosa analoga può valere anche per le prestazioni degli algoritmi. Gli algoritmi ormai superano costantemente il famoso test di Turing, proposto dal matematico Alan Turing ormai più di un secolo fa, e che viene ancora utilizzato come criterio per giudicare se una macchina è intelligente. Il test si considera superato nel momento in cui un utente che interagisce con la macchina non si rende conto di non avere a che fare con un essere umano. Il fatto che il test venga superato ormai con facilità dagli algoritmi rende però lo stesso test ormai inutile, se non come cartina al tornasole di questa svolta. In realtà, il test non valuta se la macchina sia intelligente, ma se sia capace di comunicare in modo competente.
Questo è il punto che vorrei porre al centro del dibattito. Quello che abbiamo realizzato non è una nuova forma di intelligenza artificiale, ma una forma veramente innovativa – e da un punto di vista sociologico assolutamente rivoluzionaria – di comunicazione artificiale. Le macchine hanno imparato artificialmente a comunicare, non ad essere intelligenti, cosa che a questo punto diventa irrilevante. Per quanto riguarda il timore che l’intelligenza umana non sia più rilevante – dato che le macchine sarebbero ormai in grado di fare tutto da sole – si tratta di un timore infondato, anzi è vero il contrario. L’intelligenza umana, anche ora che le macchine sanno operare in modo così efficiente, è indispensabile, anzi lo è quasi ancora di più. Gli algoritmi di machine learning riescono infatti a funzionare solo se ci sono persone che operano in modo intelligente. Le macchine sono efficacissime nell’elaborazione delle informazioni, ma non sono in grado di crearne da sole, devono perciò reperirle da qualche parte. Infatti, come ricordavo in precedenza, gli algoritmi di machine learning funzionano bene da quando hanno a disposizione i Big Data creati dal web 2.0. Senza le prestazioni intelligenti degli esseri umani, le macchine non avrebbero i materiali di cui nutrirsi per svolgere quelle operazioni e imparare ad eseguirle sempre meglio. L’esempio più chiaro di questa modalità di funzionamento è la storia di Google. Google è riuscito a trionfare su quelli che all’epoca erano i motori di ricerca alternativi, come Yahoo e Altervista, perché ha cambiato atteggiamento: anziché cercare di produrre intelligenza artificiale, ha svoltato drasticamente sulla comunicazione artificiale, traendo perciò le sue fonti di informazioni dal web. L’algoritmo PageRank, di cui Google si serve, fa proprio questo: quando noi chiediamo al motore di ricerca delle informazioni, ossia di fornirci un ranking dei siti rispondente alle nostre esigenze, PageRank non cerca di interpretare i contenuti che trova, ma ricostruisce i movimenti dell’utenza sul web. Una pagina viene valutata interessante da PageRank a seconda di quante persone si siano collegate a quella pagina. Non solo, ma PageRank va a vedere che cosa hanno scritto le persone che si collegavano alla pagina, per capire di cosa quest’ultima tratti. Google si nutre quindi costantemente dell’attività degli utenti sul web per strutturare le sue ricerche e produrre un risultato, senza bisogno di capire che cosa dicano le pagine. Questo è un esempio significativo, perché ha segnato una pratica che si è molto diffusa anche oltre Google, tanto che si parla di “googlizzazione” a proposito dei tanti progetti che passano dall’intelligenza alla comunicazione, limitandosi cioè ad utilizzare parassitariamente il comportamento delle persone sulla rete anziché cercare di comprenderne i contenuti.
Fabrizio Barca: La prospettiva ora proposta dalla professoressa Esposito, esposta col garbo proprio di chi fa questo mestiere, rappresenta in realtà un significativo sovvertimento del modo in cui si guarda agli algoritmi di apprendimento automatico. Sono uno statistico, e ciò mi aiuta a interpretare cosa c’è dietro questi strumenti, leggendoli non come un’intelligenza artificiale, ma come la ricerca di correlazioni fra dati e con obiettivi predefiniti – da noi umani – ma con modalità auto-apprese, il cui esito, per usare quanto appena illustrato, viene comunicato e impatta sulle nostre vite. La proposizione che voglio argomentare è che questa prospettiva è estremamente produttiva al fine di orientare alla giustizia sociale e non all’ingiustizia l’utilizzo degli algoritmi di apprendimento automatico, dove per giustizia sociale intendo, riprendendo la nostra Costituzione (art. 3), la “rimozione degli ostacoli al pieno sviluppo della persona umana e la partecipazione” – che è poi la definizione di “libertà sostanziale” di Amartya Sen. Nell’impiego degli algoritmi, infatti, siamo sempre davanti a biforcazioni fra i due usi. Richiamo quattro esempi ben noti di impatto negativo, che si affiancano agli impatti positivi illustrati da Elena Esposito. Quando gli algoritmi vengono impiegati per diffondere la comunicazione delle informazioni già più diffuse, essi possono produrre un circolo vizioso di amplificazione della diffusione di fake news, attraenti per la loro singolarità, anomalia o crudezza, producendo così danni per la giustizia sociale. Quando i meccanismi di apprendimento automatico sono utilizzati per ricercare ricorrenze fra mancato rimborso dei crediti e determinati tratti delle persone – ad esempio la loro etnia o il fatto che vivano in determinate aree di una città –, essi forniscono raccomandazioni che portano a negare il credito alle persone con tali caratteristiche, e così a produrre un’amplificazione sistematica delle discriminazioni, con un’auto-realizzazione della profezia. Quando gli algoritmi, raccogliendo tutte le informazioni disponibili su una persona, fra cui le sue esplorazioni sul web ovvero dati personali acquisiti, prevedono le probabilità di morte o di malattia di quella persona, essi consentono ad una società di assicurazione di differenziare in maniera radicale i premi delle polizze, ponendo le basi per un sovvertimento dell’intero disegno del sistema assicurativo come sistema di solidarietà, che compensa i rischi diversi di persone diverse. O ancora, quando nel campo dell’assistenza alle persone gli algoritmi vengono utilizzati non solo per individuare e comunicare alle persone l’acquisizione del diritto ad un intervento sociale (pensione, casa popolare, reddito di cittadinanza, bonus di qualunque sorte, ecc.) – utilizzo che accresce la giustizia sociale –, ma per annullare ogni rapporto umano con le persone assistite nell’ambito di quel servizio, negando alla persona in difficoltà l’essenziale riconoscimento da parte di un altro essere umano, ecco che gli algoritmi producono danni gravi e accrescono le disuguaglianze.
Detto tutto ciò, l’approccio illustrato dalla professoressa Esposito ci aiuta ad affrontare concretamente – senza adottare un approccio luddista – i problemi posti dagli algoritmi di apprendimento automatico per usarli in modo giusto. Elena Esposito ci ha detto che quegli algoritmi non replicano l’intelligenza umana, ma la utilizzano, utilizzano cioè i dati e le domande che noi poniamo e masse di dati ai quali li facciamo accedere, per offrire predizioni e dunque suggerimenti per l’azione basate sulla ricerca di correlazioni con modalità non necessariamente comprensibili. Si tratta quindi di predizioni e suggerimenti privi di “teoria” o intelligenza, nel senso umano di frutto di istinti e ragione, laddove anche noi costruiamo continuamente correlazioni ma sempre – o quasi sempre – ne cerchiamo la “ragione”. Nella ricerca di un equilibrio fra la ricerca di una teoria che spieghi perché da certi fenomeni, in particolari condizioni, discendano altri fenomeni e con quali probabilità e la ricerca di ricorrenze statistiche fra certi fenomeni e altri fenomeni ho visto nel mio campo, la ricerca economica, inclinarsi sempre più verso il secondo polo. Ho assistito all’evoluzione dell’approccio da parte di diversi amici economisti, impegnati già molti anni fa, grazie al progressivo ampliarsi della mole di dati accessibile e della loro rapidità di elaborazione, in studi econometrici volti a comprendere le “determinanti” di un dato fenomeno. Pur partendo, all’inizio del percorso di ricerca, da una teoria che suggeriva il nesso causale di una data variabile con un grappolo di altre, e dunque dal testare se tale relazione fosse sostenuta dai dati, essi si allontanavano sempre più dalla tesi originaria per esplorare altri grappoli di variabili sempre meno giustificate dalla teoria originaria, magari con la scusa di “provare altre variabili proxy”. Con un’inversione, a un certo punto, del percorso di ricerca: quando finalmente la regressione “funzionava”, il residuo non spiegato si assottigliava, si andava cercando quale spiegazione razionale, teorica, quel risultato potesse avere. Era una strada fino a un certo punto stimolante; ma oltre a un certo punto, il percorso si trasformava nella ricerca di una “possibile teoria” che accomodasse il risultato.
Ecco, oggi, grazie a Elena Esposito, capisco meglio cosa stesse succedendo: si stava rinunziando ad una “comunicazione” con lo strumento statistico, per subirne passivamente le suggestioni. Infatti, una volta che gli algoritmi, una forma ben più avanzata, per numero di dati utilizzati, capacità di calcolo e auto-apprendimento dei metodi di ricerca delle correlazioni, hanno prodotto, dati i nostri input originari, una predizione o un suggerimento, dobbiamo, ci dice Elena Esposito, dialogare con essi, come faremmo in ogni altra comunicazione. Possiamo, cioè, recuperare la capacità di governare questi algoritmi abbandonando la pretesa di trattarli come fossero intelligenti. Se comunichiamo con gli algoritmi nello stesso modo in cui comunichiamo fra di noi, cioè se non assumiamo il risultato della previsione di un algoritmo in modo passivo e invece interagiamo con esso, costringendolo a spiegarsi, chiedendogli di riformulare la previsione sotto altre condizioni, cambiandone i dati in input, riusciamo a cambiare il contesto da cui l’algoritmo prende le mosse. Comunicare significa rinunciare ad essere passivi, ed è ciò che facciamo ad esempio quando vogliamo smantellare la tesi di un nostro interlocutore. Se agiamo in questo modo non arriveremo a comprendere come l’algoritmo ha prodotto il suo originario risultato, perché si tratta di qualcosa che non è comprensibile da parte della nostra intelligenza, ma otterremo degli indizi. Questa riflessione mi ha molto colpito, si tratta di un’idea che torna su alcuni temi su cui il Forum Disuguaglianze Diversità sta lavorando, fornendo però un ulteriore nodo di teoria. A partire da questo, vorrei in primo luogo riflettere su come concretamente si possa agire nei confronti di un algoritmo in modo da scongiurare quegli effetti negativi che ho descritto, che producono ad esempio discriminazione nella concessione del credito, sconvolgimento dei sistemi assicurativi, produzione di fake news e de-umanizzazione. Vorrei in secondo luogo esporre un mio dubbio, che ha a che fare con ciò che dovremmo e non dovremmo attribuire alla comunicazione.
Venendo al primo punto, mi interrogo su quattro azioni che si potrebbero adottare. In primo luogo, la cosa più ovvia che può essere fatta è togliere dati agli algoritmi. Gli algoritmi dispongono virtualmente di tutti i dati accessibili su Internet e di ogni altra informazione che offriamo loro: noi possiamo fare in modo che alcuni dati non siano accessibili, e osservare cosa ne risulta. A partire da questo possiamo svolgere quella che gli statistici chiamano “analisi di sensitività”, osservando la risposta dell’algoritmo all’alterazione dei dati, e da questo comprendere quali fattori pesano sulle predizioni e tenerne conto quando utilizziamo l’algoritmo. Una seconda azione possibile consiste nell’imporre all’algoritmo dei valori. Se è infatti vero che i programmatori che hanno scritto l’algoritmo non ne controllano il modo di procedere, è altrettanto vero che i programmatori raffinati, nello sviluppo dell’algoritmo, immettono anche i propri valori. Si può pensare allora di incorporarvi i valori dell’uguaglianza, in modo da avere, ad esempio, un algoritmo che non discrimini nella concessione del credito, ma che al contrario sia in grado di rilevare discriminazioni nel credito. È una strada oggi già percorsa, ma da esplorare ancora e diffondere. La terza azione consiste in un radicale cambio del peso dei parametri. Una delle dimensioni su cui Elena Esposito si sofferma è la popolarità. La popolarità determina, fra l’altro, quel meccanismo per cui le pagine che contribuiscono a veicolare fake news spesso arrivano ad essere fra le più diffuse al mondo. Modificare il criterio di popolarità è la più potente delle idee a cui pensare, e a cui Elena Esposito fornisce un quadro teorico importante. Non necessariamente la popolarità di un contenuto deve essere determinata dal numero delle visualizzazioni o dei like. Si potrebbe valorizzare, nel meccanismo di funzionamento dei social network, non l’adesione ad un’idea, ma la capacità di un contenuto di determinare il massimo cambiamento di opinione nelle persone che lo incontrano (leggono, vedono, ascoltano). D’altronde attraverso gli algoritmi oggi siamo in grado di distinguere le persone tra sinistra e destra, tra libertarie e non libertarie, quindi c’è la possibilità di usarli per valutare se e come cambiano le opinioni a seguito di un dato contenuto. Si potrebbero così identificare le persone maggiormente in grado di far cambiare idea agli altri: popolare sarebbe chi fa cambiare idea agli altri. Un ultimo passo possibile è quello di cambiare la composizione dei team di programmatori. Questi ultimi sono infatti formati in larghissima misura da uomini – circa l’85% –, bianchi e provenienti da determinati ambienti e classi sociali. Poiché non sappiamo bene in che modo un programmatore influenzi l’algoritmo, è lecito provare a vedere se si producano risultati diversi attraverso algoritmi sviluppati da team diversi. Sono, queste, quattro modalità con cui, credo, instaurare un dialogo con gli algoritmi, una volta che ne abbiamo riconosciuto il ruolo centrale di comunicazione: usarli, svilupparli, ma farne parte del confronto acceso che è base della democrazia.
Mi rimane comunque un dubbio. Esiste infatti una caratteristica del dialogo umano che presenta una dimensione radicalmente diversa rispetto al dialogo che si può avere con una macchina, che, credo, andrebbe resa esplicita per non cadere in un rischio di hybris rispetto alla potenza della comunicazione con l’algoritmo. È vero, come dice Elena Esposito, che quando parliamo fra noi lo facciamo cercando di influenzarci reciprocamente non conoscendo le reazioni neuronali che avvengono nel momento in cui si cambia opinione. Quando parliamo con un’altra persona non modifichiamo certo la sua struttura neuronale, ma le lanciamo impulsi attraverso parole, immagini e suoni. È anche vero, però, che abbiamo e miriamo ad avere impatti sulla componente istintuale del comportamento delle persone, possiamo influenzare il loro senso comune. Non conosciamo il funzionamento dell’intelligenza umana, ma attraverso il linguaggio, in tutte le sue forme, miriamo a influenzare i sentimenti. Faccio alcuni esempi. Essere empatici e ragionevoli in un discorso pubblico significa mettersi nei panni della persona che si ha davanti, e da quella capacità dipende la possibilità di sorprenderla. Se si riesce a immedesimarsi, ad esempio, nella paura o nell’emozione di una persona, si può “contaminarla” e cambiare il suo istinto. Anche la contaminazione emotiva di massa è uno strumento significativo: partecipare ad una grande manifestazione di piazza è qualcosa che può contribuire significativamente a modificare il senso comune e avrà effetti futuri sulla reazione istintiva di una persona. Oppure vi è il compromesso, che richiede la rinuncia delle parti ad una porzione del proprio obiettivo, una ricercata “miopia” scrive Amartya Sen, per trovare un punto di incontro. Tutto ciò viene a mancare, mi viene da dire, nel dialogo con la macchina. Come pesa tale mancanza nel processo di comunicazione? E poi, e proprio vero che manca? Possiamo immaginare uno scenario in cui sia possibile emozionare una macchina, senza capire il modo in cui arriva a prendere decisioni? Pongo questa domanda perché tendenzialmente è sempre meglio non dire che è impossibile fare qualcosa: stiamo scoprendo che in realtà moltissimo è possibile. Ad oggi, però, mi sembra di capire che in questa straordinaria apertura, nel tentativo di comunicare con le macchine, è importante essere consapevoli che questa comunicazione mantiene una significativa differenza e ha qualcosa in meno rispetto alla comunicazione umana.
Elena Esposito: Ringrazio Fabrizio Barca per i numerosi stimoli. Comincio dal punto più difficile, che in realtà è anche uno dei più interessanti. Noi parliamo di algoritmi, ma la questione reale di cui vogliamo discutere è qualcosa che non ha niente a che fare con gli algoritmi. Il punto è, cioè, come intendiamo la comunicazione. Mi permetto di riassumere brevemente il suo discorso a riguardo. Fino a che punto la comunicazione, per essere efficace, richiede condivisione? La comunicazione secondo Barca ha un effetto, e questo effetto presuppone una qualche forma di empatia. Esiste quindi una forma di condivisione dei contenuti tra i partecipanti alla comunicazione, tenendo anche conto del fatto che lo stesso termine “comunicazione” si basa sulla comunicatio, contiene cioè l’idea che con la comunicazione si metta qualcosa in comune. La comunicazione riesce se, con tutto il rumore e i problemi di codifica che ci sono, una certa porzione dei pensieri del parlante coincide con una qualche porzione dei pensieri dell’interlocutore. Fabrizio Barca faceva riferimento a una idea di comunicazione differente, che però credo incontri lo stesso tipo di problema. Si diceva che per capire veramente la comunicazione dovremmo conoscere i processi neurali delle persone, e chiaramente ciò sarebbe ridicolo. Barca osservava quindi, giustamente, che molti discorsi fatti sugli algoritmi, la cosiddetta explainable AI, che richiederebbero di andare a vedere l’effettivo funzionamento della macchina, non sono neanche realistici rispetto al concetto di comunicazione. A mio parere, però, la comunicazione riesce ad avere degli effetti, quindi a cambiare qualcosa, anche senza necessariamente condividere i pensieri fra gli interlocutori. Ad esempio, per comprendere questo discorso non è necessario sapere cosa pensa chi l’ha prodotto, non c’è bisogno di riprodurne i pensieri e i processi che l’hanno originato. Basta condividere un linguaggio, l’appartenenza ad una società, che consente a ciascuno di produrre a modo suo delle informazioni che rimangono solo sue.
In altre parole, le informazioni che vengono immesse in una comunicazione non devono necessariamente coincidere con quello che l’interlocutore ne fa quando la comprende, poiché ciascuno la elabora a modo suo e allo stesso modo produce delle informazioni proprie. Il compito dei sociologi è spiegare il miracolo implicito in questa forma di coordinazione fra centri di elaborazione neuronali, che produce informazioni necessariamente sempre diverse. E questo è una fortuna, perché la società non impone nessun pensiero, la comunicazione anzi stimola tutti i partecipanti a produrre dei pensieri che sono solo propri. Questo è un approccio estremamente controverso, però è lo stesso che può essere impiegato con riferimento alla comunicazione con le macchine. Non c’è bisogno di capire che cosa voglia la macchina o che la macchina capisca noi, ma basta che, in qualche modo, nel processo – che comunque ha bisogno dell’intervento di un essere umano – si produca lo stimolo, o “irritazione”, che le consente eventualmente di essere efficace e anche di cambiare le nostre opinioni. Da questo punto di vista, la comunicazione funziona con molta più libertà e diversity rispetto all’idea di comunicazione come comunicatio. Questa è la questione di base. Sulle altre questioni sollevate si può fare un’osservazione, che rappresenta probabilmente il filo rosso delle giustissime osservazioni fatte da Barca. Uno dei quattro punti citati riguarda il tema di come fare in modo che le macchine non agiscano in modo troppo incoerente o aberrante. Chi lavora con le correlazioni sa che la regola di base è correlation is not causation, che le correlazioni non sono causalità, per cui la correlazione non serve per spiegare i fenomeni. Quindi, come facciamo a controllare macchine che funzionano sulla base di correlazioni? Barca fa una serie di proposte che a mio parere vertono su uno dei punti più importanti e attuali di tutto il discorso sugli algoritmi, e cioè la questione del cosiddetto bias. Il tema dell’impatto dell’algoritmo sulle assicurazioni è un caso esemplare, così come quello del predictive policing, cioè prendere decisioni che hanno a che fare con la vita e la libertà delle persone sulla base dell’algoritmo, con risultati spesso assolutamente ingiusti. La questione è dove sorgano questi bias. Il problema di moltissime proposte che vengono avanzate, e in parte anche di quelle giustissime di Barca, è che vanno a intervenire su un aspetto del bias che non è sempre quello più centrale, ovvero il cosiddetto algorithm bias. Ad esempio, se si creano dei vincoli alla macchina, ponendo quindi certi valori e parametri oppure intervenendo sulla composizione di genere e classe dei team di programmatori, si interviene su un aspetto del pregiudizio, quello che riguarda la costruzione dell’algoritmo. Se però l’algoritmo funziona come descritto prima, il problema è che la maggior parte del bias proviene dai dati, che a loro volta derivano da nostri comportamenti – il cosiddetto data bias. Uno degli esempi più citati di ingiustizia degli algoritmi era il chatbot di Microsoft risalente a qualche tempo fa, che si chiamava Tay, e che la stessa Microsoft ha ritirato pochi giorni dopo per la sua tendenza a produrre nefandezze razziste e pornografiche. Ma questo non derivava dall’impostazione dei programmatori di Microsoft, notoriamente progressisti, che mai avrebbero pensato quello che il chatbot avrebbe poi prodotto. La macchina ha prodotto un bias che non era quello dei programmatori, ma emergeva dal suo punto di partenza, ovvero i materiali trovati sul web. La macchina ha messo in atto quel meccanismo che sta alla base anche delle fake news, ma soprattutto, focalizzandoci sulla sfera pubblica, è alla base delle filter bubbles, casse di risonanza sul web, che originano porzioni di sfera pubblica “privata”, in cui vediamo solo confermate le nostre idee senza essere esposti a stimoli differenti.
Fabrizio Barca: Vedo che si è aperto un confronto vero e prezioso, e per questo ringrazio ancora Pandora Rivista. Per concludere brevemente, credo che il tema sia sempre quello dell’assenza di public scrutiny, l’assenza di pubblico dibattito. L’esempio di Microsoft che veniva ricordato è straordinario: un esito di questo genere, prodotto anche con buone intenzioni, la cui distorsione deriva dalla natura dei dati accessibili, portato sul mercato provoca un risultato disastroso. Qui la pressione pubblica ha funzionato, ma si tratta di un’eccezione: migliaia di altri prodotti oggi non consentono un public scrutiny. Qualunque esito deve dunque essere sottoposto a una valutazione delle circostanze nelle quali è prodotto e delle distorsioni che può produrre, facendo poi una sensitivity analysis. Togliere dei dati a una macchina è una strategia ragionevole: se è in questi che si nasconde la distorsione, quei dati non devono essere forniti come input all’algoritmo, proprio perché l’unico modo di non replicare dei bias è che quei dati non ci siano, oppure che ci siano ma senza che siano usati per decidere. Quindi il tema non è privarsi delle informazioni, ma impedire che le decisioni derivino dal loro uso passivo. Alcuni regolatori nel settore del credito e delle assicurazioni stanno ragionando su questa ipotesi: così come un tempo impedivano alle società di colludere per raggiungere dei prezzi monopolistici, oggi si orientano nella direzione di non consentire l’utilizzo di certi dati. Ciò che alla fine accomuna i nodi del ragionamento è il confronto pubblico sull’uso di quello strumento, e un confronto pubblico – questo è l’elemento nuovo – con quello strumento, modificandone gli input e l’impostazione. Relativamente al tentativo di modificare la composizione di genere e di classe dei team di programmatori, ci si potrebbe chiedere se qualcuno abbia mai fatto un esperimento finalizzato a stabilire se due gruppi con composizione diversa, con lo stesso assignment da parte della corporation, producano effettivamente dei risultati diversi. Io credo che questa sia una direzione nella quale si possa andare per avere un progresso della transizione digitale nella direzione della giustizia sociale, rinunciando a comprendere l’intelligenza, ma non rinunciando a misurare l’uso che ne facciamo e gli input che scegliamo di darle.