“L’economia di ChatGPT” di Stefano Da Empoli
- 16 Gennaio 2024

“L’economia di ChatGPT” di Stefano Da Empoli

Recensione a: Stefano Da Empoli, L’economia di ChatGPT. Tra false paure e veri rischi, Egea, Milano 2023, pp. 160, 18 euro (scheda libro)

Scritto da Michele Luppi

6 minuti di lettura

Reading Time: 6 minutes

L’intelligenza artificiale è la promessa da parte delle più grandi compagnie del capitalismo contemporaneo, le big tech, di risollevare le economie avanzate da decenni di stagnazione e perdita di dinamismo grazie alla riproduzione sintetica della mente umana, limite ultimo del settore economico più popolato al mondo, quello dei servizi. Fino a oggi non vi è mai stato un vero esempio di questa tecnologia al di fuori di esperimenti, dimostrazioni e progetti dalle applicazioni eccessivamente specifiche o dai risultati discutibili. Ciò non ha impedito all’intelligenza artificiale di diventare un vero e proprio mito contemporaneo, uno spazio nel quale speranze e paure del nostro presente vengono espresse e amplificate. Fiumi di inchiostro sono stati versati in futuri utopici di crescita esponenziale e in distopie dove l’umanità avrebbe ceduto il primato a una nuova, superiore e sintetica intelligenza[1].

Queste speculazioni possono oggi essere messe finalmente alla prova. Il 20 novembre 2022 viene reso pubblico ChatGPT 3, chatbot creato da OpenAI. In grado di produrre testi del tutto simili a quelli umani, di farlo nel giro di pochi secondi e a partire da semplici istruzioni testuali o prompt, il chatbot di OpenAI è per esperti e profani la prima intelligenza artificiale in grado di portare il peso delle aspettative che accompagnano questo nome.

Per questa ragione l’economista Stefano Da Empoli, presidente dell’Istituto per la Competitività (I-Com) e docente di Economia politica presso l’Università Roma Tre, ha dedicato il suo ultimo saggio, L’economia di ChatGPT, a questo specifico quanto clamoroso prodotto. L’obiettivo dell’autore è quello di dissipare eccessive paure e cautele nei confronti dell’intelligenza artificiale riemerse con la pubblicazione di ChatGPT. Lo fa mettendo a confronto le previsioni e le teorie più popolari associate all’intelligenza artificiale con le effettive capacità tecniche del chatbot di OpenAI, il suo esemplare più avanzato. Ne risulta un’analisi sobria e globale che demistifica l’intelligenza artificiale e che propone un urgente ottimismo: ci troviamo di fronte ad un’innovazione tecnologica e il modo migliore per prepararsi al suo arrivo consiste nell’adottarla senza indugi.

Il saggio si apre con la scomposizione di ChatGPT. Tra le sue tecnologie, quella che cattura di più l’interesse dell’autore è l’architettura transformer. Le intelligenze artificiali sono algoritmi regolati secondo miliardi di parametri il cui compito è quello di riconoscere pattern, relazioni stabili tra i dati che processano. Le architetture tradizionali si limitano ad un’analisi in successione sequenziale dell’input ricevuto: una parola alla volta nel caso della sua applicazione al linguaggio. L’architettura transformer consente invece una analisi “in parallelo” dell’input, di osservarlo cioè nella sua interezza e una sola volta per poi cogliere immediatamente le relazioni tra le sue diverse parti. Si ottiene così qualcosa di simile a una comprensione contestuale o addirittura semantica del testo ricevuto come input.

Le applicazioni dell’architettura transformer non si limitano al solo linguaggio. I suoi principi possono essere applicati virtualmente ad ogni altro impiego creativo: misurare la relazione tra le parole in un testo non è diverso dal misurare la relazione tra i pixel in un’immagine. È per questo motivo che l’architettura transformer viene considerata una svolta nella ricerca sull’intelligenza artificiale: questa era «ghettizzata in diversi campi: elaborazione della visione, elaborazione delle immagini, elaborazione del linguaggio e così via» mentre oggi hanno trovato «un unico paradigma» (p. 43). Molti esperti vedono in essa nuove speranze per il raggiungimento dell’intelligenza artificiale generale, una vera e propria mente sintetica, quando fino a qualche anno fa tale obiettivo era considerato semplicemente impossibile. Fondate o no che siano queste ambizioni, è significativo che l’architettura transformer abbia rivitalizzato interesse e investimenti nel settore, così come poche altre innovazioni sono riuscite a fare.

L’architettura transformer stabilisce un percorso specifico per tipologia, funzioni e obiettivi delle intelligenze artificiali che verranno: non più limitate all’analisi di petabyte di dati, esse dovranno essere “generative”, cioè capaci di produrre contenuti sulla base delle loro analisi. Il diffondersi dell’intelligenza artificiale di tipo generativo avrà impatti molto specifici e fino ad oggi relativamente imprevisti sul mercato del lavoro. Fino all’arrivo di ChatGPT, la previsione più popolare sosteneva che con l’intelligenza artificiale i posti di lavoro sarebbero drasticamente diminuiti, specialmente quelli meno creativi, analitici e basati su procedure ben definite, come per esempio guida di veicoli, attività amministrative o anche consulenze finanziarie.

Da Empoli sostiene invece che l’intelligenza artificiale generativa potrebbe portare al risultato inverso. Ora gli impieghi più a rischio sarebbero proprio quelli che hanno a che fare con la creatività, con le soft skill e che spesso richiedono titoli: gestione del cliente, copywriting, marketing e anche insegnamento, specialmente di materie umanistiche, potrebbero essere le mansioni più sottoposte all’automazione. Essa sposterebbe il lavoro umano dall’atto creativo all’interazione con il nuovo strumento deputato alla creazione di contenuti. Ben lungi dall’eliminare impieghi in termini assoluti, l’intelligenza artificiale aprirebbe molti lavori tradizionalmente creativi e dai requisiti esigenti ad una più grande platea di lavoratori meno qualificati. In questo scenario, il requisito più richiesto sul mercato del lavoro potrà essere il prompt engineering, ossia l’abilità di «porre all’IA le domande giuste e nella modalità più appropriata, circoscrivendo il campo delle risposte» (p. 4). È un peccato che solo poche righe siano dedicate a questo tema quando sembra invece essere di particolare importanza. Rimane inoltre inesplorato come gli stipendi e i rapporti interni all’azienda potrebbero cambiare in conseguenza all’arrivo dell’intelligenza artificiale. Vi sarà «lavoro per tutti» (p. 91), ma in quali condizioni?

Specificità tecnologiche e previsioni sugli impatti economici indicano l’approccio che bisognerebbe mantenere nel regolamentare l’intelligenza artificiale, tema che viene affrontato negli ultimi capitoli del saggio e che viene colto come opportunità per soppesare i pericoli posti da questa tecnologia. Secondo l’autore, i veri rischi di questa tecnologia rimangono confinati alle stesse vulnerabilità dello strumento e nella gestione dei contenuti che esso produce. Se il prompt che riceve non esplicita il contesto e non stabilisce categorie logiche chiare, la risposta generata può contenere “allucinazioni”: informazioni sbagliate o periodi illogici. Specifiche sequenze di prompt, chiamati adversarial attack, possono forzare le intelligenze artificiali a produrre risposte volutamente sbagliate, a rivelare informazioni sensibili o ad agire in maniera disallineata rispetto ai loro obiettivi originari. Rischi risiedono anche nell’uso e produzione di contenuti che possono essere protetti da diritto d’autore così come nei casi di appropriazione dell’identità altrui, i cosiddetti deepfake. Per quanto nulla di tutto ciò vada sottovalutato, l’autore sostiene in maniera categorica che non vi sono i presupposti per restrizioni o per la messa al bando dell’intelligenza artificiale. Le previsioni più pessimiste nei confronti di questa tecnologia, quelle che la «antropomorfizzano» o la «deificano» (p. 36), svaniscono se messe a confronto con le sue effettive capacità. Restrizioni particolarmente esigenti risulterebbero inoltre inefficaci nei confronti di una tecnologia basata su licenze open source, altamente decentralizzate e difficilmente controllabili dall’alto.

Da Empoli propone invece di mantenere un focus su investimenti, promozione e facilitazione, approccio che ha permesso a Stati Uniti e Cina di diventare i principali centri di sviluppo dell’intelligenza artificiale. Al contrario, l’Unione Europea si è concentrata sulla regolamentazione. Il risultato è che mentre Bruxelles ha prodotto il primo quadro normativo sull’intelligenza artificiale, l’AI Act, gli investimenti privati europei in questo settore sfiorano a malapena i 6,7 miliardi di dollari nel 2022, la metà rispetto agli investimenti cinesi e meno di un decimo rispetto a quelli americani. Per questo motivo il Vecchio Continente si trova largamente sprovvisto di fronte alla competizione globale. Priva del capitale necessario per attirare aziende competitive e centri di ricerca all’avanguardia, l’Europa rischia di lasciare lo sviluppo di questa tecnologia – e tutti i profitti che essa genererà – in mani altrui.

L’ultimo capitolo del saggio è dedicato all’Italia[2]. L’amara ma non sorprendente constatazione che il nostro è l’ultimo Paese dell’Europa occidentale in termini di investimenti viene accompagnata da un’analisi tutto sommato positiva delle capacità del sistema produttivo italiano di accogliere tale tecnologia. Le piccole-medie imprese italiane possiedono una gerarchia decisionale più snella e compatta rispetto alle controparti europee, caratteristica che offrirebbe meno ostacoli all’adozione di innovazioni, e si concentrano sulla creazione di «numerose e sofisticate variazioni di uno stesso prodotto» (p. 135) più che sull’economia di scala, un aspetto che combacia con gli obiettivi dell’intelligenza artificiale generativa. Ciò che è tanto mancante quanto necessario è un deciso impegno da parte delle istituzioni pubbliche a sostegno dell’adozione e diffusione di questa tecnologia nell’economia italiana.

Molti altri temi vengono toccati nel saggio: dalla competitività tra big tech e startup alle teorie della crescita applicate all’informatica, fino al confronto tra mente sintetica e mente umana. Sarebbe interessante quanto urgente affrontare gli sviluppi di tali questioni, ma intanto nel suo libro Stefano Da Empoli offre una lezione che merita di essere ascoltata: il rischio più grande dell’intelligenza artificiale sta nel non adottarla. Decenni di roboanti ambizioni e speculazioni ci hanno forse sviati dal fatto che, in tutta la sua sorprendente complessità, si tratta semplicemente di un’innovazione tecnologica non differente da quelle che sono avvenute in passato. Proprio come queste, darà enormi vantaggi a chi la adotterà per primo e lascerà magri risultati a coloro che arriveranno per ultimi.


[1] Si veda, per esempio, Jerry Kaplan, Le persone non servono. Lavoro e ricchezza nell’epoca dell’intelligenza artificiale, Luiss University Press, Roma 2016; Nick Bostrom, Superintelligenza. Tendenza, pericoli e strategie, Bollati Boringhieri, Torino 2018.

[2] Tema affrontato da Stefano Da Empoli anche in: Intelligenza artificiale: ultima chiamata. Il sistema Italia alla prova del futuro, Egea / Bocconi University Press, Milano 2019.

Scritto da
Michele Luppi

Ha conseguito un Master Degree in International History and Politics presso il Graduate Institute of International and Development Studies (IHEID) di Ginevra. Co-fondatore e presidente Limes Club Modena. Lavora nel settore delle risorse umane. Ha partecipato al corso 2023 di “Traiettorie. Scuola di lettura del presente”.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici