Tecnologia, corpi e disuguaglianze. Intervista a Diletta Huyskes
- 04 Dicembre 2025

Tecnologia, corpi e disuguaglianze. Intervista a Diletta Huyskes

Scritto da Luisa Natile

12 minuti di lettura

Reading Time: 12 minutes

Algoritmi, automazione e intelligenza artificiale stanno ridefinendo il rapporto tra tecnologia e potere, influenzando scelte politiche, economiche e sociali. Lungi dall’essere neutre, queste tecnologie incorporano visioni del mondo, criteri di efficienza e sistemi di esclusione che rischiano di consolidare disuguaglianze preesistenti.

Ne abbiamo parlato con Diletta Huyskes, filosofa e autrice di Tecnologia della rivoluzione (il Saggiatore 2024), che denuncia l’esclusione strutturale di molte soggettività dai processi di sviluppo tecnologico e propone un approccio critico e femminista che restituisca pluralità, consapevolezza e giustizia alla progettazione del futuro.


Come si è avvicinata al tema della tecnologia e dell’intelligenza artificiale?

Diletta Huyskes: Mi sono avvicinata allo studio della tecnologia tramite il femminismo. È successo ormai qualche anno fa, quando studiavo filosofia all’università, in particolare il post-strutturalismo francese e gli approcci critici ad alcuni assunti chiave della post-modernità, del capitalismo e dei sistemi politici. Da lì sono risalita ai discorsi critici sulla tecnologia, che mi hanno aperto un altro mondo, soprattutto a partire dal pensiero di Donna Haraway. Inizialmente ero molto più interessata ad altri argomenti della filosofia politica, come le disuguaglianze e le ingiustizie sociali, comunque vicini alle sensibilità dei movimenti femministi. Ma era evidente che già da qualche anno la tecnologia si stava insinuando in numerosi processi politici, sociali, economici. Così ho iniziato a riflettere sul fatto che, se fosse stata mal gestita al pari di quei processi che erano già problematici per diversi motivi, la tecnologia avrebbe potuto peggiorare di molto la situazione, schiacciandola ulteriormente, come una sorta di tappo. Ho approcciato questi temi sin da subito con uno sguardo critico, che per me non è sinonimo di pessimismo o di negatività ma semplicemente di interrogazione e di analisi; non di semplificazione o riduzione, ma di restituzione di complessità.

 

Tecnologia della rivoluzione è un testo che fornisce riflessioni inedite su un tema che ormai attraversa continuamente la nostra quotidianità, vale a dire il rapporto con l’intelligenza artificiale. Uno degli aspetti più interessanti della trattazione è l’inserimento di questo tema apparentemente “nuovo” all’interno della tradizione di studi sul rapporto tra gli esseri umani e la tecnologia. Questa opera di contestualizzazione dell’argomento permette di dimostrare quanto le trasformazioni tecnologiche siano attraversate da molteplici fili rossi che le uniscono. Uno tra questi, il sovra-affidamento, o automation-bias. In breve, cosa spinge l’essere umano ad affidarsi all’automazione della macchina?

Diletta Huyskes: Il filo rosso che riguarda questo sovra-affidamento è proprio il potere dell’automazione. Siamo stati abituati a pensare che fosse giusto e normale delegare un compito che in precedenza svolgevamo noi a una macchina – che può essere un forno a microonde, una lavatrice o un sistema di intelligenza artificiale – ma la situazione di sovra-affidamento che ci troviamo a osservare oggi è molto delicata. È come pensare di uscire di casa quando c’è il forno acceso: è una cosa che alcuni fanno, in maniera superficiale, ma non è di certo l’ideale, e non è qualcosa a cui possiamo affidarci genericamente. Vale lo stesso principio per l’intelligenza artificiale: non possiamo affidarci unicamente al risultato finale senza monitorare almeno in parte il processo di quel tipo di automazione. Tuttavia, siamo portati a farlo perché l’intelligenza artificiale è stata raccontata e descritta come una tecnologia che risponde a tutte le nostre esigenze e ai nostri criteri di oggettività, efficienza, accuratezza, perfezione matematica, logica: sono sostanzialmente “numeri che parlano”. Dipende molto dalle culture di riferimento, ma ci sono alcune culture – sia occidentali sia orientali – in cui i numeri valgono moltissimo, molto più delle emozioni umane. Con l’intelligenza artificiale questa credenza ha trovato un campo applicativo perfetto, perché tante delle automazioni in cui l’IA viene usata sono processi che prima richiedevano una forte componente di discrezionalità, per i quali si pensava – e io continuo a farlo – che il lavoro umano fosse imprescindibile. A un certo punto si è pensato di sfruttare i big data e, attraverso queste enormi quantità di dati, di annullare la componente umana che invece è stata vista come portatrice di pregiudizio, problematiche, emotività, soggettività. La soggettività è diventata dunque un problema, quando in realtà dovremmo riscoprirla. Come scrivo alla fine del libro, da una parte ci sono i movimenti sociali che spingono verso una maggiore soggettività, verso un’identità sempre più fluida e sempre più individualizzata; dall’altra parte, vediamo un’omologazione e una serialità che vanno nella direzione opposta, seguendo il pensiero che ci si possa oggettivizzare e identificare in cluster sempre più ampi e, perciò, analizzabili.

 

Nelle conclusioni, in relazione all’intelligenza artificiale, lei afferma che «stiamo semplicemente utilizzando tecniche più sofisticate e indipendenti per reiterare comportamenti sempre esistiti». Atteggiamento comune e umano, quello del “tornare” a fare le cose allo stesso modo, e allo stesso tempo anche caratteristica specifica dell’algoritmo. Quante sono le cose che ci accomunano alla macchina e quante sono invece quelle che distinguono da essa?

Diletta Huyskes: Innanzitutto, il tema del ritornare, del riproporre sempre le stesse logiche, è un funzionamento intrinseco solo ad alcuni di questi modelli, soprattutto all’apprendimento automatico o machine learning. Le IA che stanno emergendo nell’ultimo periodo sono leggermente diverse, però il principio è lo stesso: ritornare a una base di conoscenza e reiterarla. Queste tecnologie però ripetono solo quello che conoscono e che hanno già visto più volte e c’è perciò anche un tema di ricorrenza: più volte una cosa è successa, più probabilità ci sono che riaccada, e quindi la tecnologia la ripropone. È facile capire che in questo schema tutto ciò che è meno probabile, più originale, meno ricorsivo, viene automaticamente eliminato. Questa è una grande perdita per l’umanità, per quei particolari che non ricadono in qualcosa di precedente e che differiscono dalle solite categorie, per le riflessioni critiche più originali. Le macchine non hanno capacità di pensiero critico, non hanno possibilità di uscire da queste traiettorie a meno che non gli si chieda esplicitamente di farlo. Allora però la deviazione diventa un obiettivo, un task, e non qualcosa di spontaneo. La capacità decisionale è uno dei campi in cui da sempre la ricerca sull’IA vuole raggiungere questi strumenti di imitazione della facoltà di prendere decisioni del cervello umano. Diciamo, della sua parte più computazionale, ovvero che riguarda ciò che è più probabile e che è già successo, ciò che ci rassicura e che non ci fa sentire in pericolo, che è quella che abbiamo in comune con le macchine. Dopodiché, il cervello umano ha tutta un’altra componente che concorre alla presa di decisioni, quella più emotiva, che può essere talvolta problematica, ma che altre volte ci salva e soprattutto ci permette di “essere umani”.

 

Uno dei grandi timori, che lei stessa cita, è legato all’uso dell’IA predittiva. Nel libro troviamo diversi esempi di come l’uso di questa tecnologia da parte di forze di polizia, funzionari governativi e pubbliche amministrazioni, abbia avuto conseguenze negative e in alcuni casi assurde, come essere arrestati per un erroneo riconoscimento facciale o essere inseriti arbitrariamente in una lista di “persone potenzialmente criminali”. Oltre alle immediate conseguenze che possiamo immaginare per queste persone, si parla anche del potenziale rischio delle profezie che si autoavverano. Quanto spesso le è capitato di incontrare situazioni di questo tipo durante le sue ricerche?

Diletta Huyskes: Spessissimo. Usando la metafora di prima, se noi mettiamo in atto un sistema di machine learning che si basa su dei dati storici su cui è pre-addestrato, e che deve avere a che fare con esseri umani, con categorie di persone, con eventuali rischi da individuare in queste persone e così via, in questi casi, se lasciamo automaticamente la decisione alla macchina ci troviamo al pari del lasciare il forno acceso e uscire di casa. Nel mio libro scrivo «queste macchine non possono non discriminare» perché, se il funzionamento è quello di apprendere sui dati storici e non avere in qualche fase del design e della progettazione di questi strumenti delle accortezze che portino a considerare questi bias potenziali, è scontato finire nell’errore e nell’ingiustizia. Questa serialità, questo meccanismo del riproporre ciò che è già successo, è una “profezia che si auto-avvera in sé”, perché ciò che non è mai successo non può risuccedere, ciò che è già successo, risuccederà, in un eterno ritorno codificato. Ciò che è escluso resta escluso per sempre, e se vieni escluso ogni volta va a finire che non esisti più. Questo rischio è intrinseco e se non facciamo niente per impedirlo è molto probabile che si concretizzi.

 

Se dovesse dare un suo punto di vista sulla maturità del discorso etico sull’uso delle tecnologie in Italia, quale sarebbe? Quanto si riesce a parlare in questi termini nel discorso pubblico e politico sull’IA? Quali sono gli eventuali impedimenti?

Diletta Huyskes: Il livello del discorso è molto basso e gli impedimenti sono tanti. L’Italia è molto indietro su questi temi e non solo sul discorso etico, ma sull’uso delle tecnologie e dell’intelligenza artificiale in generale. Di conseguenza, siamo molto in ritardo rispetto alle riflessioni critiche sull’uso di questi strumenti, anche perché il discorso politico è sostanzialmente inesistente. Ci sono alcuni deputati che stanno lavorando a delle proposte di legge e a un’accoglienza dell’AI Act di un certo tipo, e che si sono battuti sulla questione dell’introduzione di un’autorità di controllo e sorveglianza nazionale, ma raramente questi temi vengono portati in Parlamento. In parte, questo deriva anche dal fatto che siamo “fortunati” rispetto ad altri Paesi, perché è da molto tempo che non accadono episodi o incidenti gravi legati all’utilizzo di queste tecnologie in Italia. Questa fortuna, tuttavia, finisce per favorire ancora di più la disinformazione, facendo pensare che se qui le cose non succedono non serve parlarne. Ma anche in Italia le intelligenze artificiali vengono utilizzate e ci troviamo davanti a un grande sommerso, perché nessuno sa cosa succede, nessuno ne parla, e non abbiamo modo di scoprire e di sapere se c’è qualcosa che non sta funzionando. È importante comunque sottolineare che ci sono alcune realtà in Italia, organizzazioni pubbliche e imprese private, che sono molto sensibili e innovative rispetto al tema. Contrariamente a quello che tanti pensano, sono proprio le realtà più inclini all’innovazione che si rivelano essere più sensibili ai temi dell’etica.

 

A inizio 2025 il lancio da parte della startup cinese DeepSeek di un modello di intelligenza artificiale paragonabile a ChatGPT, ma a costi significativamente inferiori, ha scosso i mercati globali e interessato e preoccupato i Paesi occidentali. Uno dei temi sollevati nel suo libro è la mancanza di interesse che viene riposto, da parte dell’opinione pubblica, nelle intenzioni alla base del design della “nuova” tecnologia. In pochi si sono chiesti quali fossero i valori, le idee, le visioni del mondo, che stanno dietro alla definizione di questo nuovo modello di IA cinese. Crede che qualcuno si porrà questo problema? Se così non fosse, riesce a immaginare un futuro in cui questi aspetti vengano maggiormente presi in considerazione?

Diletta Huyskes: Io ribalterei la domanda con la risposta: è vero che nessuno si è chiesto che cosa ci fosse dietro a DeepSeek in termini di valori, tuttavia, secondo me, dalla centralità del discorso economico emerso intorno a questa alternativa che si è posta sul mercato, si possono intuire molti dei valori con cui vengono costruite queste tecnologie. Da una parte abbiamo una tecnologia che esiste da due anni e che continua a essere presentata come qualcosa di estremamente costoso, che per essere sostenuta ha bisogno di sfruttare enormi risorse – si pensi al discorso di Donald Trump sul colonizzare la Groenlandia – dall’altro abbiamo invece un approccio diverso e meno dispendioso. Non sto dicendo che sia quello “giusto”, o che la situazione ci sia completamente chiara, però è un’alternativa che fino a poco tempo fa sembrava impossibile ai più, e non perché manchino le condizioni, bensì perché, spesso, ci viene proposta una sola modalità. Questo esempio ci sta mostrando che esistono potenzialmente delle alternative per raggiungere comunque risultati paragonabili. Qui chiaramente il discorso culturale-valoriale-sociale è importante, perché stiamo vedendo come due potenze totalmente diverse tra loro creino due tecnologie con presupposti altrettanto diversi. Da questi discorsi iniziali sta finalmente emergendo che non esiste un unico modello di sviluppo della tecnologia e questo, se non altro, allarga il campo delle possibilità, distribuisce le responsabilità, riduce i monopoli e, soprattutto, ridimensiona la totale identificazione della tecnologia e del prodotto con l’azienda che la produce.

 

Approcciandosi al tema con un’impronta femminista, il libro affronta anche la questione dell’esclusione di alcuni gruppi sociali dalla “stanza dei bottoni” del settore tecnologico. Tra questi gruppi di esclusi, storicamente, ci sono le donne. Quali sono gli altri e quali punti di vista mancanti potrebbero influire modificando i prodotti finali e gli artefatti tecnologici?

Diletta Huyskes: Se volessimo portare all’estremo questo discorso, potremmo dire che in una situazione ideale a essere presente nella stanza dei bottoni dovrebbe esserci uno spettro il più rappresentativo possibile della società. Detto questo, non andrei tanto a identificare le categorie, perché finiremmo sicuramente per dimenticarne qualcuna. I movimenti femministi, che storicamente si sono occupati di donne e hanno contribuito alle lotte fondamentali per il miglioramento delle nostre vite, sono stati tra i movimenti sociali e politici più attivi, funzionali e in qualche modo efficaci della storia politica. Credo che sia un po’ parziale parlare di che cosa manca alla tecnologia perché il punto vero è che cosa manca dappertutto. Mi confronto spesso su questo tema con professionisti che lavorano nel giornalismo, nella politica, in settori completamente diversi, e il problema è lo stesso ovunque, non è un tema che attiene esclusivamente al mondo della scienza e della tecnologia. Pertanto, ognuno di questi domini è lo spettro di un potere sociale che esiste ed è identificato e rappresentato storicamente come maschile, ricco, bianco e con tutta un’altra serie di categorie che, secondo la matrice del dominio di Patricia Hill Collins, verrebbero considerate come lo spettro dell’asse del privilegio. Tendenzialmente tutte le persone che sono dall’altra parte rispetto all’asse del privilegio dovrebbero essere incluse. Chiaramente questo non è uno scenario plausibile ma l’ideale sarebbe, almeno in contesti specifici e sul piano locale, provare ad attuare un approccio che preveda di capire, caso per caso, quali voci poter interpellare e includere. Sfortunatamente, il punto della questione è proprio questo: al pari di come vengono replicate dall’IA tutte le discriminazioni già preesistenti, così vengono escluse tutte le voci e i punti di vista già marginalizzati strutturalmente in tanti altri contesti economici, sociali, politici. Non a caso parliamo di un “dominio”: serve molto potere economico per sviluppare la tecnologia, e il potere economico, storicamente, appartiene a una ristretta cerchia di categorie sociali e di persone.

 

Nella ricostruzione della tradizione di studi sulle tecnologie che troviamo nel libro, un grande spazio è dedicato alle correnti di ispirazione femminista: cyberfemminismo, ecofemminismo, xenofemminismo. Quali sono gli elementi comuni tra questi approcci che possono rappresentare un valore aggiunto per lo studio della tecnologia?

Diletta Huyskes: Queste correnti hanno in comune solo pochi elementi, ma tutte si sono preoccupate di studiare il rapporto con il corpo e quindi il tema dell’identità. L’aspetto interessante è proprio che su questi temi il femminismo si è spaccato. Da una parte c’è il paradigma del “controllo”, quindi la paura che gli strumenti tecnologici sotto il dominio maschile avrebbero esacerbato ancora di più una pressione sulle donne che era già in atto; dall’altra, invece, un potenziale “liberatorio”: Donna Haraway, Sadie Plant e altre esponenti del cyberfemminismo ci hanno fornito dei contributi a mio avviso condivisibili ma al contempo utopici. Queste pensatrici davano per assodata la necessità di operare un lavoro di decostruzione dell’esistente a monte, senza il quale è impossibile prendere in considerazione le loro proposte teoriche. Per quanto riguarda lo xenofemminismo, nel libro riporto l’esempio di quella che è forse l’unica tecnologia creata appositamente per rispondere a un bisogno delle donne e al fine di migliorarne la vita: il Del-Em, una tecnologia ideata negli anni Settanta per regolare le mestruazioni e il sanguinamento mensile. Si è trattato di un esperimento creativo, molto bello, ma che non si è mai affermato sul mercato perché chiaramente aveva scopi non economici e anticapitalisti. Queste correnti e sperimentazioni ottimiste del femminismo, caratterizzate da speranza e fiducia nei modelli alternativi di fare tecnologia, purtroppo sono state smentite e deluse dalla realtà. Restano comunque dei contributi importanti perché ci hanno aiutato a fare luce sugli impatti che le tecnologie hanno su determinati gruppi sociali e sulla dipendenza delle tecnologie dal loro contesto produttivo e creativo. Questo significa che, se le affrancassimo da questi contesti e da questi obiettivi, potremmo sicuramente creare delle tecnologie diverse. Al centro della questione restano perciò la volontà e il potere di fare queste scelte.

 

Il quarto capitolo del libro offre una descrizione accurata e accessibile del Manifesto cyborg di Donna Haraway. Un punto di vista realmente rivoluzionario per l’epoca e ancora attualissimo. Con Tecnologia della rivoluzione anche lei entra in questa tradizione di studi; è possibile stimare quanto il cyberfemminismo e le correnti affini stiano avendo fortuna negli attuali ambienti della ricerca sociale? Crede che ci sia spazio affinché questi approcci possano fare breccia anche in contesti diversi?

Diletta Huyskes: Nella ricerca sociale credo che lo spazio, l’attenzione e l’interesse ci siano. Guardando ai temi delle conferenze accademiche degli ambiti di ricerca che mi riguardano vedo questi concetti ritornare sempre. C’è, ad esempio, chi continua a riproporre nuove applicazioni delle metafore del cyborg con altre interpretazioni alla luce delle nuove tecnologie che vengono proposte. Perdipiù, direi che l’interesse per questi temi va anche oltre la ricerca sociale: in contesti molto specifici e molto di nicchia, il cyborg di Haraway è totalmente “pop” e anzi è paradossalmente l’unica cosa che è arrivata di un’intera tradizione di pensiero che troviamo raccontata nel libro. La mia proposta, sia sul piano di dibattito pubblico, sia di ricerca, è quella di provare ad andare in un’altra direzione, non strettamente legata ai contributi cyberfemministi. Haraway pensava ad alcune tecnologie, ad esempio, mentre l’interesse di ricerca di Sadie Plant e molte altre xenofemministe si è evoluto soprattutto nello studio delle piattaforme e di Internet. Io mi interesso ad altre forme tecnologiche che potremmo definire più “offline” e che hanno più a che fare con gli artefatti, perché sono incorporati in processi invece molto identificabili e fisici. La mia proposta è quella di prendere tutto ciò che c’è di buono in questi contributi per poi tornare a quell’idea più strettamente costruttivista di provare a studiare empiricamente la tecnologia nel proprio contesto di riferimento. Dunque, oltre le riflessioni teoriche, che fanno benissimo, ma che sono molto più affini ai media studies. Rispetto alla tradizione femminista di studi sulla tecnologia, di cui parlo nel libro, sento di esserle sicuramente affine e vicina nella cultura ma al contempo distante nell’approccio e nella metodologia.

 

Concluderei questa intervista chiedendole un’ultima riflessione sul tema del controllo, che attraversa tutto il libro. Alla luce del suo percorso di analisi e studio della letteratura, del passato e del presente di questa tematica, crede ci sia una direzione precisa da intraprendere per ristabilire un controllo sulla tecnologia e sui processi che la determinano e la dominano? Questa direzione passa anche attraverso una nuova rivoluzione femminista?

Diletta Huyskes: Credo che la chiave sia cercare di governare e controllare queste tecnologie nei loro contesti applicativi e, certamente, questo potrebbe e dovrebbe essere fatto in chiave di rivoluzione femminista. In generale, come già scritto nel sottotitolo – Progresso e battaglie sociali dal microonde all’intelligenza artificiale – uno degli scopi del libro è quello di avvicinare le comunità che si occupano di lotte sociali e politiche, come quella dei movimenti femministi – ma non solo – a una riflessione su questi temi. Come detto in precedenza, sono partita con questo filone di ricerca proprio pensando a quanto, un giorno, questo modello di progresso tecnologico avrebbe significativamente potuto peggiorare le condizioni di alcuni gruppi sociali. Di certo quello che serve è una rivoluzione, ed è senza dubbio auspicabile che se ne occupino anche i movimenti transfemministi.

Scritto da
Luisa Natile

Laureata in international relations all’Università di Bologna e in scienze politiche all’Università di Pisa. Ha partecipato al corso 2023 della scuola di formazione “Traiettorie. Scuola di lettura del presente”.

Pandora Rivista esiste grazie a te. Sostienila!

Se pensi che questo e altri articoli di Pandora Rivista affrontino argomenti interessanti e propongano approfondimenti di qualità, forse potresti pensare di sostenere il nostro progetto, che esiste grazie ai suoi lettori e ai giovani redattori che lo animano. Il modo più semplice è abbonarsi alla rivista cartacea e ai contenuti online Pandora+, è anche possibile regalare l’abbonamento. Grazie!

Abbonati ora

Seguici