Il diritto nell’epoca dell’IA generativa: principi, responsabilità, limiti. Intervista a Ugo Ruffolo
- 04 Dicembre 2025

Il diritto nell’epoca dell’IA generativa: principi, responsabilità, limiti. Intervista a Ugo Ruffolo

Scritto da Andrea Amidei

6 minuti di lettura

Reading Time: 6 minutes

L’evoluzione dell’intelligenza artificiale, in particolare quella generativa, impone al diritto nuove sfide legate alla responsabilità, alla regolazione, alla protezione dei diritti e all’interpretazione dei principi esistenti. Per questo motivo, la complessità degli ambiti coinvolti richiede un approccio attento all’equilibrio tra innovazione tecnologica e tutela giuridica.

Ne abbiamo parlato con Ugo Ruffolo, già Professore ordinario di diritto civile e diritto della comunicazione nella Facoltà di Giurisprudenza dell’Università di Bologna, dove attualmente insegna intelligenza artificiale e diritto. Ruffolo riflette sulla necessità di un diritto capace di adattarsi attraverso interpretazioni evolutive, senza ricorrere a nuove regole se non strettamente necessario.


Lei studia da tempo, tra i primi in Italia, le problematiche connesse al diritto dell’intelligenza artificiale. Quali sono i settori di applicazione dell’IA cui il giurista dovrebbe prestare maggiore attenzione, con riguardo soprattutto alle tutele?

Ugo Ruffolo: L’avvento dell’IA generativa, ora capace non più soltanto di “parlare” (si pensi a ChatGPT) ma anche di “fare”, e dunque di incidere significativamente sulla produzione di beni e nell’erogazione di servizi, rende complesso individuare i settori cui riservare maggiore attenzione. Tra i più rilevanti vi è indubbiamente quello sanitario, dove gli effetti dell’IA saranno, e in parte già sono, rivoluzionari: oggi l’IA fornisce esiti diagnostici che gli stessi radiologi definiscono più affidabili di quelli del medico “umano”. Al momento il fenomeno trova principale concretizzazione nella diagnostica, ma le nuove frontiere potranno vedere l’estendersi dell’impiego di IA anche nelle prestazioni terapeutiche e chirurgiche. E saranno sempre più rilevanti i connessi quesiti di responsabilità – del medico, della struttura sanitaria, del produttore dei device – e i problemi (spesso malposti) di “consenso informato” del paziente. Ma non dobbiamo dimenticare altri rilevanti settori: da quello dell’automotive (auto self-driving o anche driverless) all’amministrazione della giustizia, sino alle attività “creative” e a quelle professionali.

 

Si dibatte molto, anche a livello di policy, sull’approccio regolatorio sinora adottato dall’Unione Europea in materia di intelligenza artificiale, e in particolare sui rischi connessi a una troppo stringente regolazione di tale tecnologia, in termini di disincentivo allo sviluppo tecnologico in Europa e di attrattività del mercato europeo nella competizione globale. Quale dovrebbe essere, a suo avviso, un approccio equilibrato al tema della regolazione dell’IA?

Ugo Ruffolo: In primo luogo, occorre evitare di ritenere che a un fenomeno nuovo debbano necessariamente corrispondere sempre innovazioni normative. E così scongiurare il proliferare di discipline di settore inutilmente particolaristiche o degradanti in quelle che un autorevole giurista statunitense, Lawrence Lessig, definisce “leggi del cavallo”, con i conseguenti rischi anche di iperfetazione normativa. Spesso, la risposta può essere trovata nel raccordo fra gli ambiti di regolamentazione settoriali e gli spazi già coperti dal “sistema ordinamento”. Non va mai dimenticato che un ordinamento – specialmente se “codificato” come quelli di civil law – è un sistema “aperto”, capace di offrire interpretativamente soluzioni nuove a problemi nuovi. Esso “respira”, e si adegua ai mutamenti del reale, mediante clausole e principi generali, entrambi permeabili alle evoluzioni sia della realtà sociale che del tessuto normativo, alle quali fanno espresso o implicito rinvio o riferimento. E ogni regolamentazione settoriale, quali gli stessi regolamenti UE, deve prestare attenzione massima alla coerenza di sistema.

 

Quali interventi normativi possiamo attenderci, allo stato attuale, sia da parte dell’Unione Europea che a livello nazionale, in materia di intelligenza artificiale?

Ugo Ruffolo: In sede europea hanno già visto la luce due importanti interventi normativi: il noto AI Act – allo stato attuale applicabile soltanto in talune sue parti – e la direttiva 2024/2853, che ha innovato il regime di responsabilità del produttore per prodotti difettosi, tenendo in considerazione anche le implicazioni dell’avvento dell’IA, dell’Internet of Things e dei beni smart. A livello nazionale, è invece in corso l’iter di approvazione di un disegno di legge in materia di IA, che interessa vari settori (dalla sanità alla giustizia), e che al momento si limita a enunciare principi che dovranno trovare attuazione in ulteriori provvedimenti governativi. È prevedibile che nel prosieguo l’attenzione dei legislatori si concentrerà principalmente sull’attuazione dell’AI Act, al quale le imprese guardano con preoccupazione, specialmente in ragione dell’incertezza che ancora connota alcuni suoi aspetti chiave.

 

Sul versante delle responsabilità risarcitorie, abbiamo appreso nel febbraio scorso che l’Unione Europea ha deciso di abbandonare il progetto di direttiva del settembre 2022 in materia di responsabilità extracontrattuale colposa per “danno da IA”. Come giudica tale sviluppo?

Ugo Ruffolo: Occorre innanzitutto chiarire che il progetto di direttiva non contemplava l’introduzione di un regime di responsabilità extracontrattuale parallelo per i “danni da IA”, ma si limitava a proporre agevolazioni probatorie a vantaggio del soggetto che dovesse risultare leso a causa dell’utilizzo di IA. Un intervento, dunque, meno radicale di quanto sembrava emergere dall’altisonante rubrica della proposta. Ma che era nondimeno d’interesse soprattutto nel prefigurare, per il futuro, la possibilità dell’introduzione di un regime di responsabilità oggettiva – e dunque che prescinde dalla colpa dell’operatore – per i soli casi di “danno da IA”. Si prefigurava, quindi, l’introduzione di un regime di responsabilità specifico e settoriale, sul quale, come dicevo, nutro più di un dubbio.

 

Da più parti si è evidenziato il rischio di “vuoti di responsabilità” per le ipotesi in cui l’intelligenza artificiale cagioni un danno, e che dunque il soggetto danneggiato possa restare privo di ristoro. Lei vede questo rischio? In altri termini, occorrono necessariamente nuove regole per disciplinare il fenomeno, oppure le regole esistenti possono rivelarsi ancora oggi idonee?

Ugo Ruffolo: Dobbiamo distinguere: da un lato abbiamo le normative di regolazione del settore, che, come fa l’AI Act, introducono specifici standard cui gli operatori – sviluppatori di IA e loro utilizzatori – devono conformarsi, garantendo, ad esempio, la possibilità di controllo umano, trasparenza quanto ai dati utilizzati nell’addestramento, ecc.; dall’altro, invece, l’ambito della responsabilità. Riguardo a quest’ultimo ambito le nostre norme codicistiche, specialmente se affiancate a quelle europee sul danno da prodotto difettoso, mi sembrano già idonee, ove sapientemente interpretate, a dare mediazione al fenomeno, e dunque a scongiurare in larga parte rischi di “vuoti di tutela”. Guardando all’Italia, pensiamo a norme quali quella in materia di danno generato dalla “cosa” in custodia (art. 2051 cod. civ.), o quella sulla responsabilità per danno cagionato nell’esercizio di “attività pericolosa” (art. 2050 cod. civ.). Non abbiamo ora il tempo di addentrarci in una più specifica analisi, ma basti dire che si tratta di previsioni la cui interpretazione evolutiva può rivelarsi incidente anche a fronte di un fenomeno tanto nuovo.

 

Nei suoi scritti si pone in evidenza un problema del quale si discute poco, ossia, in estrema sintesi, quello della “libertà di manifestazione del pensiero della macchina”, che molto si intreccia con tematiche quali quelle della disinformazione e delle fake news. Quali sono i principali termini della questione?

Ugo Ruffolo: L’IA generativa “parla”, nel senso che comunica, fornisce risposte a fronte di prompt di chi la interroga. Emerge, dunque, un interrogativo maggiore troppo spesso (sorprendentemente) ignorato: tali comunicazioni possono considerarsi “manifestazioni del pensiero” o restano invece mera erogazione di un servizio? Il problema è quello del come qualificare l’output consistente in testo scritto comunicato via web in risposta a un quesito costituente l’input; e se tale tipologia comunicativa possa integrare gli estremi della “manifestazione del pensiero” tutelata dall’art. 21 della Costituzione, con ogni conseguente diritto a non essere “censurata”. Il quesito può sembrare singolare, ma invero non lo è: da un lato, l’IA non ha “diritti”, come qualsiasi altro manufatto, e poco importa se “intelligente”; ma è anche vero, d’altro canto, che l’art. 21 protegge non solo l’autore del “pensiero” comunicato, ma anche i destinatari di tale comunicazione, e il loro diritto a poter fruire di tutte le comunicazioni (di qualsiasi “manifestazione del pensiero” esternata da qualsiasi entità, umana o meno). Se l’autore della Divina Commedia fosse non umano, il nostro “diritto” a fruirne, e a non vederla “censurata”, resterebbe integro. Senza evocare il complesso e controverso “diritto a essere informati”, “censurare” la circolazione di un testo comunicativo, o inibire un evento comunicativo, può rivelarsi suscettibile di alterare il “mercato della libera circolazione delle idee”.

 

Uno dei temi dei quali si è più discusso è quello della protezione delle opere coperte da diritto d’autore che l’intelligenza artificiale – specialmente quella generativa – elabora per alimentare il proprio apprendimento e accrescere così le proprie capacità e, indirettamente, il proprio valore economico. Soprattutto negli Stati Uniti, la problematica ha già iniziato a essere oggetto di vicende giudiziarie: si pensi, in particolare, al noto caso “New York Times v. OpenAI”, ma non solo. Le corti iniziano a interrogarsi sul tema anche in Europa. Quali sono i principali termini del problema?

Ugo Ruffolo: Dobbiamo distinguere fra quello che sarebbe plagio letterario, se compiuto da autore umano, e quanto sarebbe da considerare, invece, mero “apprendimento” robotico originato dalla “lettura” di scritti editi (pubblicati, appunto, per essere “letti”), quando omologo a quello umano. L’intelligenza umana e quella della macchina sono diverse (il termine è, anzi, troppo antropomorfico, perché troppo strettamente correlato alla natura dell’una, e solo metaforicamente riferibile alla “razionalità” dell’altra); ma va considerato che entrambe “funzionano” sulla base dell’autoapprendimento. Giornali, libri, stampati, prodotti grafici o filmici sono “pubblicizzati” perché offerti al “pubblico” apprendimento (ancorché coperti da copyright in varie misure). Non contengono dati riservati ma vengono offerti, appunto, a chi li legge perché da essi “impari”, affinché sulla base di essi si possano formare conoscenze e opinioni; e si ha il diritto di comunicare le opinioni e conoscenze formate anche grazie al processo di apprendimento: certo, non “plagiando”, come copia o parafrasi pedissequa, i brani “appresi”, però potendo tener conto della conoscenza loro tramite acquisita. Ritengo, dunque, che i termini di violazione d’ogni ipotizzabile copyright dovrebbero restare gli stessi per le macchine come per gli umani. Entrambi possono formarsi e “allenarsi”, e crescere imparando, sulla scorta di metabolizzate letture. Entrambi vengono in tal modo “informati”. Entrambi violano i diritti d’autore relativi ai testi letti solo se illecitamente li copiano o riproducono, o se hanno accesso a essi in modo illecito (senza pagare il prezzo del giornale, per intenderci); ma non se, invece, semplicemente ne tengono conto (e debitamente citano le fonti quando dovuto) nel comunicare elaborando testi propri.

Scritto da
Andrea Amidei

Avvocato specializzato in Diritto civile e commerciale e in Diritto dell’informatica. Ha conseguito un LLM presso il King’s College di Londra e un dottorato di ricerca presso l’Università di Bologna. È professore a contratto di Informatica e diritto presso la Facoltà di Ingegneria dell’Università di Bologna (Campus di Cesena). Autore di numerose pubblicazioni su riviste giuridiche e opere collettive nel campo del diritto civile e dell’informatica, da diversi anni studia le interazioni tra IA e diritto, con particolare riguardo alla responsabilità da prodotto, alla regolamentazione, alla responsabilità d’impresa, al diritto d’autore e alla protezione dei dati.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici