Sistema 0: l’intelligenza artificiale che sta trasformando il nostro modo di pensare
- 22 Aprile 2025

Sistema 0: l’intelligenza artificiale che sta trasformando il nostro modo di pensare

Scritto da Massimo Chiriatti, Giuseppe Riva

9 minuti di lettura

Reading Time: 9 minutes

Immaginate di trovarvi in una città sconosciuta e cercare un ristorante per la cena. Mentre camminate, il vostro smartphone vi suggerisce un locale nelle vicinanze. Non è una scelta casuale: l’algoritmo conosce i vostri gusti, le recensioni che avete lasciato e il budget abituale. Vi sta guidando verso una scelta che, con alta probabilità, vi soddisferà. Questa interazione apparentemente banale rappresenta una rivoluzione silenziosa: una nuova forma di intelligenza artificiale, chiamata “Sistema 0”, ha deciso prima di noi.

Per capire l’impatto di questa tecnologia, facciamo un passo indietro. Nel 2002, lo psicologo e premio Nobel per l’Economia Daniel Kahneman propose un modello del pensiero umano basato su due sistemi: il “Sistema 1”, rapido e intuitivo, che ci permette di fare scelte veloci come riconoscere volti familiari o guidare su strade conosciute senza particolare sforzo; e il “Sistema 2”, lento e analitico, che interviene per risolvere problemi complessi o prendere decisioni ponderate. Questa visione duale del pensiero umano, esposta nel volume Pensieri lenti e veloci[1], ha dominato la psicologia cognitiva per oltre vent’anni.

Oggi, però, l’intelligenza artificiale sta creando qualcosa di nuovo: un sistema cognitivo artificiale che si pone come fondamento e supporto dei nostri processi mentali naturali. Come abbiamo descritto recentemente, insieme ad altri autori, sulla rivista scientifica Nature[2], il Sistema 0 non è semplicemente uno strumento esterno che utilizziamo occasionalmente, ma un vero e proprio strato di intelligenza distribuita che interagisce costantemente con il nostro pensiero, modificandolo e potenziandolo. Quando utilizziamo Google Maps per orientarci, quando chiediamo a ChatGPT di aiutarci a scrivere una mail, o quando Netflix ci suggerisce cosa guardare, stiamo attingendo a questo sistema che apprende continuamente dalle nostre interazioni e si adatta alle nostre preferenze.

Questo nuovo “strato cognitivo” sta diventando sempre più sofisticato e pervasivo. Non si limita a processare informazioni in tempo reale, ma mantiene una memoria persistente delle nostre scelte e comportamenti, creando quello che potremmo chiamare una “ombra cognitiva” digitale. Quando un assistente virtuale ci suggerisce un’attività o un acquisto, lo fa basandosi su una comprensione profonda delle nostre abitudini e preferenze accumulate nel tempo.

 

Cosa fa il Sistema 0 e perché è importante

Il Sistema 0 va oltre il ruolo di semplice assistente. Analizza continuamente i dati generati dalle nostre azioni e li utilizza per migliorare la qualità delle informazioni e dei suggerimenti che ci offre. Quando utilizziamo Google Maps, ChatGPT o Netflix, stiamo interagendo con questa rete cognitiva che apprende dalle nostre preferenze e le utilizza per anticipare i nostri bisogni. Non è solo uno strumento, ma una “estensione cognitiva” – usando la terminologia dei ricercatori Andy Clark e David Chalmers[3] – che evolve con noi.

Il Sistema 0 inizia come un insieme di processi computazionali in grado di elaborare statisticamente i dati e, sulla base di questi, produce output. Sebbene il Sistema 0 sia implementato su varie macchine, non può essere ridotto a nessun hardware specifico; non è quindi una tecnologia particolare (ad esempio la realtà virtuale) e non è un oggetto specifico (ad esempio uno smartphone o gli occhiali Google). Seguendo il filosofo dell’informazione Luciano Floridi potremmo dire che, se il digitale ha la capacità di “reontologizzare” il mondo, il Sistema 0 dovrebbe essere visto come un’entità informativa – intesa come un’aggregazione di procedure algoritmiche – che modella il nostro processo di “reontologizzazione” del mondo, o quantomeno contribuisce in modo significativo a tale processo, che viene poi completato dal Sistema 1 e, a maggior ragione, dal Sistema 2.

Una caratteristica fondamentale del Sistema 0 è che viene creato attraverso la relazione tra gli esseri umani e queste macchine basate sui dati. Ciò significa che l’ambito e l’estensione di questo flusso di informazioni (l’estensione dei processi computazionali del Sistema 0) sono correlati a ciascun agente individuale ed esistono solo in relazione a quell’agente. Quindi, quando parliamo del “contenuto” del Sistema 0 non ci riferiamo a un flusso illimitato di informazioni o computazioni, perché il “contenuto” del sistema è limitato dall’interazione dell’algoritmo con l’agente umano. Tale interazione individuale, pur mantenendo la natura di una sessione individuale con un singolo agente, ha un interessante effetto “ambientale” sul Sistema 0. Infatti, la natura molto specifica della singola interazione genera un set di dati utili, che il sistema incorporerà nel suo database più ampio e che, pertanto, influenzerà le risposte future del Sistema 0 alle interazioni con i Sistemi 1 e 2.

Le potenzialità di questa tecnologia vanno ben oltre la semplice comodità. Il Sistema 0 può compensare i nostri limiti cognitivi naturali: può aiutarci a riconoscere pregiudizi nel nostro ragionamento, proporre prospettive alternative che non avremmo considerato, e persino ricordarci dettagli che potremmo dimenticare. Diventa così una sorta di “memoria esterna” che non solo conserva, ma analizza attivamente le nostre scelte, creando una “traccia digitale” delle nostre abitudini e preferenze che si evolve nel tempo.

Questa capacità di apprendimento continuo rende il Sistema 0 particolarmente potente nel supportare processi decisionali complessi. Immaginate un medico che deve fare una diagnosi: mentre il suo Sistema 1 riconosce immediatamente i sintomi più evidenti e il Sistema 2 analizza metodicamente le possibili cause, il Sistema 0 può simultaneamente confrontare il caso con milioni di cartelle cliniche, identificare pattern nascosti e suggerire test diagnostici mirati. Non sostituisce il giudizio del medico, ma lo arricchisce con una prospettiva basata su una quantità di dati impossibile da processare per la mente umana.

Lo stesso vale per altri campi professionali. Un architetto che progetta un edificio può utilizzare il Sistema 0 per simulare l’impatto ambientale di diverse soluzioni progettuali, un insegnante può personalizzare il percorso di apprendimento di ogni studente basandosi su un’analisi dettagliata dei loro progressi, un ricercatore può scoprire collegamenti inaspettati tra diverse aree di studio. In ogni caso, il Sistema 0 non si limita a fornire informazioni, ma crea un vero e proprio ambiente cognitivo aumentato, dove le capacità umane di intuizione e ragionamento si fondono con la potenza di calcolo e l’analisi dei dati dell’intelligenza artificiale.

Questa simbiosi tra mente umana e intelligenza artificiale sta anche creando nuove forme di creatività. Quando un artista utilizza strumenti di intelligenza artificiale generativa, per esempio, il Sistema 0 non si limita a eseguire istruzioni, ma diventa un collaboratore attivo nel processo creativo, suggerendo variazioni e possibilità che l’artista potrebbe non aver considerato.

 

Sfide e considerazioni etiche

Pertanto, questa stretta integrazione tra intelligenza artificiale e mente umana solleva questioni fondamentali. Innanzitutto, fino a che punto le decisioni influenzate dal Sistema 0 possono essere considerate veramente nostre? Uno dei rischi è che, ottimizzando le nostre scelte, questa intelligenza ci esponga a una visione limitata del mondo, riducendo la nostra capacità di pensiero critico e indipendente. Quando accettiamo passivamente i suggerimenti dell’algoritmo, rischiamo di rinchiuderci in quella che Eli Pariser chiama “bolla di filtraggio”[4], dove veniamo esposti solo a informazioni e opinioni che confermano le nostre preferenze esistenti.

C’è poi la questione della privacy e del controllo dei dati. Il Sistema 0 funziona accumulando e analizzando enormi quantità di informazioni sulle nostre abitudini, preferenze e comportamenti. Questa “memoria digitale” persistente solleva preoccupazioni sulla privacy e sul potenziale uso improprio dei dati. Chi ha accesso a queste informazioni? Come vengono utilizzate? E soprattutto, quanto controllo abbiamo realmente su questa traccia digitale delle nostre vite?

Un altro aspetto critico riguarda l’equità e l’accessibilità. I sistemi di intelligenza artificiale più avanzati richiedono risorse computazionali significative e accesso a grandi quantità di dati. Questo potrebbe creare o amplificare le disuguaglianze, dove solo chi ha accesso alle tecnologie più avanzate può beneficiare del supporto del Sistema 0. Inoltre, i bias presenti nei dati di addestramento possono portare a discriminazioni sistemiche, dove il sistema perpetua o amplifica pregiudizi esistenti.

Infine, c’è una questione più profonda che riguarda la natura stessa dell’intelligenza umana. Mentre deleghiamo sempre più compiti cognitivi al Sistema 0, rischiamo di atrofizzare alcune delle nostre capacità naturali? Come manteniamo un equilibrio tra il potenziamento offerto dall’intelligenza artificiale e la preservazione delle nostre capacità cognitive indipendenti? La sfida è trovare un modo per integrare il Sistema 0 nelle nostre vite senza diventarne dipendenti, mantenendo la nostra autonomia decisionale e la nostra capacità di pensiero critico.

 

Responsabilità e trasparenza: chi è il responsabile?

Quando prendiamo decisioni insieme a un sistema di intelligenza artificiale, chi è responsabile delle conseguenze? Questo “gap di responsabilità” è un problema sempre più urgente, poiché le conseguenze delle nostre azioni dipendono sempre più da decisioni congiunte umano-macchina. Se un’intelligenza artificiale suggerisce un investimento finanziario che si rivela disastroso, o una diagnosi medica errata che porta a un trattamento inadeguato, chi ne risponde? Il medico che ha seguito il suggerimento? Gli sviluppatori del sistema? L’azienda che lo ha commercializzato?

Anche l’opacità degli algoritmi costituisce un problema crescente: mentre i sistemi diventano più complessi, per noi è sempre più difficile capire il loro funzionamento e verificare l’accuratezza dei suggerimenti. È come affidarsi a un consulente che non può o non vuole spiegare il ragionamento dietro i suoi consigli. Questa “scatola nera” algoritmica crea un paradosso: più i sistemi diventano sofisticati e capaci, meno siamo in grado di comprendere e verificare le loro decisioni.

La questione si complica ulteriormente quando consideriamo l’autonomia decisionale. Il Sistema 0 non si limita a fornire informazioni neutre: attraverso i suoi suggerimenti personalizzati, influenza attivamente le nostre scelte. Quando decidiamo di guardare una serie TV su Netflix o di acquistare un prodotto su Amazon basandoci sui suggerimenti dell’algoritmo, quanto è davvero “nostra” quella decisione? L’intelligenza artificiale potrebbe spingerci inconsapevolmente verso scelte che favoriscono determinati interessi commerciali o visioni del mondo.

La sfida diventa ancora più complessa quando consideriamo il ruolo del tempo e dell’apprendimento continuo. Il Sistema 0 non è statico: evolve e si adatta costantemente basandosi sulle interazioni passate. Un suggerimento fornito oggi potrebbe essere il risultato di una lunga catena di interazioni e decisioni precedenti, rendendo ancora più difficile tracciare la linea della responsabilità. Come possiamo valutare la responsabilità quando le decisioni sono il prodotto di un sistema in continua evoluzione?

Per affrontare queste sfide, è necessario sviluppare nuovi framework etici e legali che tengano conto della natura distribuita e dinamica della responsabilità nell’era del Sistema 0. Questo potrebbe includere la creazione di standard di trasparenza algoritmica, meccanismi di audit indipendenti per i sistemi di intelligenza artificiale, e nuove forme di responsabilità condivisa tra sviluppatori, utenti e sistemi. Solo così potremo garantire che l’integrazione tra intelligenza umana e intelligenza artificiale avvenga in modo responsabile ed eticamente sostenibile.

 

Le sfide del futuro: come convivere con il Sistema 0

Guardando avanti, sarà necessario stabilire linee guida chiare per l’uso responsabile dell’intelligenza artificiale nei processi decisionali. Non bastano le buone intenzioni: servono regolamentazioni concrete e strumenti specifici per garantire che questi sistemi siano trasparenti, affidabili e privi di bias. Questo significa sviluppare standard tecnici per la valutazione degli algoritmi, ma anche creare meccanismi di supervisione indipendenti che possano verificare il rispetto di questi standard.

L’alfabetizzazione digitale diventa una priorità assoluta. Non si tratta solo di insegnare come usare le tecnologie, ma di sviluppare una vera e propria “intelligenza algoritmica”: la capacità di comprendere come funzionano i sistemi di intelligenza artificiale, di riconoscerne i limiti e le potenzialità, e di mantenere un approccio critico ai loro suggerimenti. Questo tipo di formazione dovrebbe iniziare dalle scuole e continuare nella formazione professionale, adattandosi alle diverse esigenze e contesti.

La ricerca futura dovrà necessariamente concentrarsi sugli effetti cognitivi e sociali dell’uso pervasivo dell’intelligenza artificiale. Come cambiano le nostre capacità di ragionamento quando deleghiamo sempre più compiti al Sistema 0? Quale impatto ha questa delega sulla nostra creatività e capacità di innovazione? E soprattutto, come possiamo garantire che questa integrazione potenzi, anziché indebolire, le nostre capacità cognitive naturali?

Queste domande richiedono un approccio veramente interdisciplinare. Servono psicologi per studiare l’impatto sulla cognizione umana, sociologi per analizzare le trasformazioni nelle dinamiche sociali, filosofi per riflettere sulle implicazioni etiche, ed esperti di tecnologia per guidare lo sviluppo di sistemi più etici e trasparenti. Solo attraverso questa collaborazione potremo sviluppare una comprensione completa del fenomeno e delle sue implicazioni.

Un’attenzione particolare dovrà essere dedicata all’equità e all’accessibilità. Come possiamo garantire che i benefici del Sistema 0 siano distribuiti equamente nella società? Come evitiamo che diventi uno strumento che amplifica le disuguaglianze esistenti? Servono politiche specifiche per garantire che questa tecnologia sia accessibile a tutti, indipendentemente dalla formazione socioeconomica.

La sfida più grande sarà probabilmente trovare il giusto equilibrio tra innovazione e controllo. Da un lato, non possiamo permettere che lo sviluppo del Sistema 0 proceda senza una direzione etica chiara. Dall’altro, regolamentazioni troppo rigide potrebbero soffocare l’innovazione e limitare le potenzialità di questa tecnologia. La chiave sarà sviluppare framework regolatori flessibili, che possano evolversi insieme alla tecnologia mantenendo saldi i principi etici fondamentali.

 

Conclusione: l’evoluzione cognitiva e il futuro dell’umanità

Da quando gli esseri umani hanno adottato una postura eretta, hanno liberato le mani, scritto simboli, sviluppato il linguaggio e si sono presi cura dei loro piccoli per un periodo di tempo più lungo, dando loro un vantaggio competitivo. Tutto ciò ha potenziato le nostre capacità e ora stiamo delegando alcune funzioni cognitive, manuali e ripetitive al Sistema 0. Sarebbe indesiderabile che l’impatto di quantità di dati sempre crescenti, il basso costo del calcolo e il predominio del cloud computing ci portassero a evitare di concentrarci sui nostri obiettivi. Naturalmente, in un periodo di crescente confusione e incertezza, sopraffatti dai dati da interpretare, delegare è la risorsa più comoda, ma non è mai la soluzione definitiva.

Il Sistema 0 rappresenta ora un momento storico nel nostro modo di pensare e prendere decisioni. Non si tratta di scegliere tra una visione utopica o distopica del futuro dell’intelligenza artificiale, ma di comprendere a fondo questa rivoluzione cognitiva per guidarla in una direzione che rafforzi, anziché diminuire, le nostre capacità cognitive e la nostra autonomia individuale. È una sfida che richiede il coinvolgimento di tutta la società civile, non solo degli esperti e dei ricercatori. La grande avventura all’orizzonte immediato è nelle mani delle persone, non delle macchine.

La posta in gioco è altissima: il modo in cui gestiremo questa transizione determinerà non solo il futuro della cognizione umana, ma anche la natura stessa della nostra umanità nell’era dell’intelligenza artificiale. Mentre i confini tra pensiero umano e artificiale si fanno sempre più sfumati, diventa cruciale mantenere un equilibrio che preservi ciò che ci rende umani: la nostra creatività, la nostra capacità di pensiero critico, la nostra autonomia decisionale.

Il Sistema 0 è già una realtà presente nelle nostre vite quotidiane, che influenza le nostre decisioni in modi che stiamo solo iniziando a comprendere. La sfida non è resistere a questa evoluzione, ma integrarla in modo consapevole e responsabile nel tessuto della nostra società. Questo richiede un dialogo continuo tra diverse discipline, una riflessione profonda sulle implicazioni etiche, e soprattutto una partecipazione attiva di tutti i cittadini nel definire come questa tecnologia debba essere sviluppata e utilizzata.

Il futuro che ci aspetta non è predeterminato: sarà il risultato delle scelte che facciamo oggi come società. La vera sfida sarà trovare un modo per far coesistere l’efficienza e la potenza dell’intelligenza artificiale con i valori fondamentali dell’umanità, creando un’integrazione che potenzi le nostre capacità cognitive senza compromettere la nostra essenza umana.


[1] Daniel Kahneman, Pensieri lenti e veloci (2012), Mondadori, Milano 2020.

[2] Massimo Chiriatti, Marianna Ganapini, Enrico Panai, Mario Ubiali e Giuseppe Riva, The case for human-AI interaction as system 0 thinking, «Nature Human Behaviour» 8, 1829-1830 (2024).

[3] Andy Clark e David Chalmers, The Extended Mind, «Analysis», vol. LVII, n. 1 (1998), pp. 7-19.

[4] Eli Pariser, Il filtro. Quello che internet ci nasconde, il Saggiatore, Torino 2012.

Scritto da
Massimo Chiriatti

Tecnologo e Chief Technical & Innovation Officer di Lenovo Italia, collabora con università e consorzi per eventi di formazione sull’economia digitale, è esperto di innovazione e futuro del lavoro. Co-estensore del Manifesto #BlockchainItalia. Tra le sue numerose pubblicazioni ricordiamo: “Incoscienza artificiale. Come fanno le macchine a prevedere per noi” (Luiss University Press 2021) e “#Humanless. L’algoritmo egoista” (Hoepli 2019).

Scritto da
Giuseppe Riva

Professore ordinario di Psicologia generale e Psicologia della Comunicazione all’Università Cattolica del Sacro Cuore di Milano dove dirige lo Humane Technology Lab. Presidente dell’International Association of CyberPsychology, Training and Rehabilitation e Membro dell’American Psychological Association e della New York Academy of Sciences. Autore di oltre settecento articoli scientifici e di numerosi volumi in lingua italiana e inglese, tra cui: “Io, noi, loro. Le relazioni nell’era dei social e dell’IA” (il Mulino 2025), “Psicologia dei media digitali” (con Tiziana Mancini, il Mulino 2023) e “Nativi digitali. Crescere e apprendere nel mondo dei nuovi media” (il Mulino 2019).

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici