Scritto da Barbara Gallavotti
8 minuti di lettura
L’intelligenza artificiale sta trasformando radicalmente la nostra quotidianità, dal lavoro domestico all’arte, dalla sicurezza alla politica, sollevando sfide etiche, legali e sociali. Attraverso numerosi esempi concreti, come la clonazione vocale e la manipolazione delle immagini, Barbara Gallavotti riflette sull’impatto dirompente dell’IA e sulla necessità urgente di nuove regole per affrontare un futuro che, in realtà, è già presente. Barbara Gallavotti è biologa, divulgatrice scientifica, autrice e conduttrice televisiva. Questo contributo, che pubblichiamo per gentile concessione dell’autrice e dell’editore, è un estratto dal suo libro Il futuro è già qui. Cosa può fare davvero l’intelligenza artificiale, edito nel 2024 da Mondadori.
Il cambiamento
Greg Rutkowski è un artista digitale polacco celebrato e amato per le sue immagini fantasy di draghi, guerrieri, dame, castelli, maghi e mostri dagli occhi infuocati e i capelli di serpenti. Anche troppo celebrato e amato. In un mese dal rilascio di un celebre programma per generare immagini, il suo nome era comparso già in decine di migliaia di richieste da parte di utenti che domandavano all’intelligenza artificiale di produrre scenari nel suo stile. Al punto da non riuscire più a ritrovare i suoi originali con una ricerca in rete, perché annegati nei falsi verosimili. Falsi generati ciascuno in pochi secondi, mentre per un originale all’artista occorrono ovviamente molte ore.
Remie Michelle Clarke, invece, è una doppiatrice irlandese, una delle migliori, visto che può chiedere 2.000 dollari per trenta secondi di registrato. Un giorno del 2023 incappa in Olivia, una donna asiatica forse un po’ più grande di lei, che di anni al momento della vicenda ne ha circa 38. Olivia dice: “Ho una voce morbida e carezzevole. Posso registrare audiolibri, video educativi e fare ogni tipo di doppiaggio”. Ma c’è un problema: Olivia non esiste, è solo una voce generata dall’intelligenza artificiale, disponibile su un sito che vende letture effettuate da voci sintetiche per un abbonamento di 27 dollari al mese. E la voce di Olivia è quella di Michelle Clarke, clonata: una storia che precede quella di altre celebrità che hanno denunciato l’uso senza consenso della loro voce. Per un programma di intelligenza artificiale copiare una voce è piuttosto semplice, bastano brevi registrazioni per scovare le caratteristiche delle onde sonore prodotte da una persona che parla e poi riprodurle. Oltre alla mancanza di assenso, c’è ovviamente il fatto che la doppiatrice irlandese non si è vista riconoscere alcun compenso per il “lavoro” della sua alter ego Olivia. Sembra che questo sia potuto avvenire perché Michelle Clarke anni prima aveva prestato la voce per una grande società, firmando un contratto in cui si lasciava aperta la possibilità che le registrazioni fossero utilizzate da terzi. All’epoca, però, nessuno poteva prevedere che un giorno la voce umana sarebbe stata facilmente clonabile…
L’intelligenza artificiale cambia il mondo, a cominciare da quello del lavoro. Dietro la sua quasi miracolosa capacità di tradurre un testo in pochi istanti, di creare una tabella o un grafico, di produrre immagini o video, di rispondere alla telefonata di un cliente, di fornire informazioni dettagliate, di analizzare ed elaborare dati, di scrivere testi, di guidare veicoli autonomi, di comporre musica, di ottimizzare i processi di produzione, di assistere nella diagnosi medica, di supportare la ricerca scientifica, di progettare un prodotto e di moltissimo, moltissimo altro, ci sono posti di lavoro persi, spesso molto qualificati. Certo ci sono anche molti posti di lavoro creati, ma sono di tipo diverso e quello che preoccupa è il fatto di dover adattarsi e acquisire competenze nel momento in cui avviene una transizione rapidissima, più veloce di qualsiasi altra si sia mai verificata nella Storia. Una transizione per la quale possiamo trovarci oggi a non poter più contare su quello che valeva ieri, così come la doppiatrice irlandese si è trovata a fronteggiare implicazioni di un contratto firmato quando il mondo era sostanzialmente diverso.
Di certo, non possiamo applicare all’intelligenza artificiale le regole che abbiamo sempre considerato valide fra noi umani. Noi lasciamo circolare liberamente i nostri pensieri e le nostre opere, e la chiave del nostro successo sta proprio nella capacità di scambiarci informazioni e di far crescere il pensiero di ciascuno a partire da quello degli altri. Tutto ciò che trovate in questo libro, ma anche tutto ciò che ciascuno di noi scrive, dice o pensa, non nasce dal nulla, ma da infinite parole ascoltate, conversazioni avvenute, testi letti, per cui nessun frutto della nostra mente sarebbe uguale se non avessimo imparato come si compongono le frasi leggendo quelle di altri, non avessimo avuto a fianco i nostri genitori e la nostra famiglia, se non avessimo incontrato i nostri insegnanti, gli amici, i colleghi. Niente di ciò che faccio nella mia vita professionale sarebbe possibile se non avessi avuto occasione di confrontarmi e assimilare il lavoro di innumerevoli altre persone, alcune mai incontrate e la cui eredità intellettuale è giunta a me attraverso pensieri scritti in altri secoli o continenti. È qualcosa che ci entra dentro e che noi rielaboriamo aggiungendoci una quota di originalità di cui è davvero difficile capire le dimensioni: nessuno ha mai pensato di chiedere credito per questa influenza culturale, a meno che non si verifichi un vero e proprio plagio.
Ora, se vogliamo, l’intelligenza artificiale fa un po’ lo stesso: se si tratta di comporre testi o immagini o suoni, attinge a un’enorme quantità di lavori umani e acquisisce la capacità di dare risposte proprie. Nel suo caso, però, abbiamo più difficoltà a pensare sia legittimo, anche qualora si accettasse di definire il suo prodotto davvero “originale” (ipotesi che, come abbiamo visto, non è affatto condivisa da tutti né facile da dare per scontata). Infatti, anche il più prolifico essere umano nella sua vita può produrre solo una quantità limitata di opere, dopo averle lungamente elaborate; l’intelligenza artificiale, invece, non ha praticamente limiti. Non giochiamo sullo stesso piano, non possiamo pensare che valgano le stesse regole, e che non debba essere riconosciuto un contributo a chi produce il materiale che rende possibile il funzionamento dell’intelligenza artificiale, cioè quello che sta alla base del suo addestramento.
In teoria artisti specifici, come Greg Rutkowski, o professionisti come Michelle Clarke potranno sempre più tutelarsi con sistemi pensati per rendere le loro opere irraggiungibili dai motori di ricerca che selezionano ciò su cui l’intelligenza artificiale impara. Nella pratica, però, non è semplice ed è ancora più difficile, se non impossibile, proteggere i tantissimi che hanno dato sì un contributo, ma piccolo e indistinguibile nella massa di informazioni processate dall’IA, e che non essendo abbastanza celebri sono i primi a rischiare di essere schiacciati dalla concorrenza dell’intelligenza artificiale. Naturalmente il problema è ben presente a tutti, e per esempio l’Unione Europea ha proposto un regolamento dell’IA, sottolineando la necessità che tutte le fonti utilizzate per l’addestramento siano legalmente acquisite, cosa però davvero pensabile solo per programmi particolari (per esempio quelli concepiti per uso medico).
Il documento europeo individua anche limiti all’uso dell’intelligenza artificiale a tutela della riservatezza dei cittadini, che in effetti è potenzialmente a rischio. Il primo brivido a questo proposito l’ho sentito nel marzo 2020. In Italia il Covid era appena esploso, il primo paziente era stato diagnosticato a Codogno il 20 febbraio e le misure di contenimento della pandemia si stavano allargando a macchia d’olio a partire dalle zone considerate più esposte. In Cina, però, il virus dilagava da settimane e le autorità erano più agguerrite che mai nel tentativo di contenerlo. Così la testata Al Jazeera raccontava ciò che stava accadendo partendo dal caso di Chengdu, megalopoli da 20 milioni di abitanti nella Cina occidentale (ma avrebbe potuto essere anche un’altra città)[1]. Il cronista riferiva di come speciali rivelatori misurassero la temperatura corporea di ciascuno dei passeggeri della metropolitana. Se qualcuno risultava avere la febbre, veniva fermato e, in caso fosse positivo al nuovo coronavirus, tutti coloro che gli si erano trovati abbastanza vicini venivano ugualmente identificati, contattati e sottoposti a test. Un obiettivo del genere sarebbe risultato velleitario nella stragrande maggioranza dei Paesi del mondo, ma le autorità cinesi potevano contare su un sistema di videosorveglianza capillare, composto da duecento milioni di telecamere installate sul territorio nazionale. E soprattutto, disponevano dei più avanzati sistemi di riconoscimento facciale, i quali, grazie all’intelligenza artificiale, consentivano di dare un nome e un indirizzo ai volti via via catturati.
Questa storia ci dice che oggi esiste la tecnologia per tenere sotto controllo innumerevoli persone, in ogni loro movimento e momento di vita, indipendentemente da qualsiasi possibile emergenza. Ma non vogliamo che ciò avvenga. La proposta europea è di limitare l’utilizzo dei sistemi di riconoscimento facciale ai casi in cui è realmente necessario per la sicurezza, come per esempio in indagini di polizia autorizzate. Allo stesso modo l’Unione Europea vieta i sistemi di IA disegnati per rilevare lo stato emotivo delle persone in situazioni relative al luogo di lavoro e all’istruzione, cosa che fornirebbe informazioni potenzialmente utilizzabili in modo illegittimo per valutare, per esempio, il rendimento.
Per quanto le regolamentazioni siano riconosciute da tutti come imprescindibili, e per quanto nessuno di noi possa sottrarsi al dibattito su quale uso vogliamo veramente fare dell’intelligenza artificiale, di sicuro dobbiamo essere pronti all’idea che i criteri che stiamo stabilendo non potranno che evolversi e cambiare alla stessa velocità delle nuove sfide che una tecnologia in crescita ci mette davanti.
E poi c’è l’immensa zona oscura data dall’eventualità che l’intelligenza artificiale possa essere usata per danneggiare le persone. Le guerre del nuovo millennio appaiono sanguinarie e indiscriminate nel loro colpire i civili tanto quanto lo sono state tutte le guerre della Storia, anche le più remote. Eppure si combattono con armi diverse.
Nel marzo 2024 un articolo della Reuters punta l’obiettivo sull’utilizzo di droni, che definisce come la tecnologia che sta cambiando il modo di fare guerra[2]. Si tratta di piccoli strumenti del costo di circa 500 dollari l’uno, nati per scopi civili, per esempio per essere di aiuto in operazioni di soccorso, i quali, secondo quanto riferisce la testata, sarebbero utilizzati nel conflitto in Ucraina in una scala mai raggiunta prima. La loro caratteristica è di potersi spingere oltre le linee nemiche, individuando gli obiettivi ed eventualmente attaccandoli con esplosivi. Strumenti del genere possono essere anche equipaggiati con sistemi di riconoscimento facciale, volti a colpire specifiche persone. Da sempre le nuove tecnologie vengono rapidamente utilizzate nei conflitti, ma l’intelligenza artificiale ha una potenza unica e dalle mille sfaccettature, e la sua pericolosità non è certo limitata ai campi di battaglia: in teoria, come può servire a individuare un nuovo farmaco può essere sfruttata per mettere a punto una sostanza tossica. Già in passato ci siamo accordati per considerare illegittimo l’utilizzo bellico di tecnologie potenzialmente troppo letali, è avvenuto per le armi atomiche così come per quelle chimiche: sembra difficile sottrarsi all’urgenza di limitare anche quelle derivate dall’IA.
E poi ci sono gli usi già evidentemente illegali: se scoprire che la propria voce è stata clonata e venduta è grave, molto più allarmante è sentire una madre raccontare di aver ricevuto una telefonata nella quale la figlia adolescente chiedeva disperatamente aiuto per essere stata rapita, come avvenuto negli Stati Uniti. Salvo poi verificare che per fortuna la ragazza era al sicuro e la sua voce era stata “solo” clonata a scopo di estorsione. Così come preoccupa l’uso dell’intelligenza artificiale per creare immagini false, ai fini di un ricatto o per influenzare l’opinione pubblica. Come sempre quando si tratta di reati, quella che si instaura è una specie di gara fra preda e predatore: da una parte i criminali che diventano sempre più raffinati nell’usare uno strumento tecnologico, e dall’altra chi opera per la legalità che diventa sempre più bravo a scovare l’inganno. Così, a mano a mano che i prodotti dell’intelligenza artificiale divengono più efficaci nel far sembrare autentiche le loro rappresentazioni della realtà, si sviluppano programmi, sempre di IA, raffinatissimi nello smascherarli. In questo quadro, però, ci inseriamo noi, cittadini, che possiamo reagire alla tecnologia in modo sorprendente e per nulla scontato.
Il 2024 passerà alla storia come l’anno delle elezioni: sono state previste in ben 64 Paesi in una colossale chiamata alle urne destinata a coinvolgere metà della popolazione mondiale. E il 2024 è stato anche il primo anno in cui si è votato in un pianeta in cui esiste l’intelligenza artificiale, da qui l’enorme preoccupazione per l’influenza esercitabile da false notizie. Eppure, nel momento in cui scrivo, l’utilizzo più rilevante dell’intelligenza artificiale nelle campagne elettorali non mi sembra sia stato quello volto a distruggere l’avversario con informazioni false, ma quello finalizzato a sostenere un particolare candidato, cosa avvenuta soprattutto in Oriente.
In India, per esempio, dove si parlano decine di lingue diverse, alcuni candidati hanno utilizzato sistemi di sintesi vocale, di traduzione e di manipolazione dell’immagine per costruire video dal labiale perfetto, in cui parevano rivolgersi a ciascun gruppo di elettori parlando fluentemente il rispettivo idioma locale. Alcuni di questi video erano addirittura personalizzati, e iniziavano rivolgendosi al destinatario chiamandolo per nome. Naturalmente a nessuno dei riceventi è sfuggito che si trattasse di una manipolazione ottenuta grazie all’intelligenza artificiale, ma non è importato. Così come pare non sia importato che un personaggio molto amato, defunto da parecchi anni, rivivesse in un filmato nel quale sembrava rivolgersi agli elettori per sostenere un candidato questa volta vivente (è avvenuto più volte, e in più di un Paese dell’Asia). Tornando all’India, gli elettori si sono molto divertiti a vedere filmati in cui noti politici ballavano scatenati su una pedana circondati da fan in delirio, in stile Freddie Mercury su colonna sonora del pop asiatico. Lo stesso primo ministro allora settantaquattrenne Narendra Modi sembra abbia gradito di essere rappresentato in questa situazione, e forse non stupisce, visto che appariva come uno scattante idolo della folla, nonostante tutto fosse smaccatamente generato al computer. Esagerazioni d’Oriente? Forse. Ma forse anche un’indicazione che nell’epoca dell’intelligenza artificiale, e dopo il pesante periodo di disinformazione che l’ha preceduta, siamo sempre meno interessati alla verità di ciò che ci viene proposto: rischiamo di andare verso un tempo in cui saremo tutti d’accordo a valutarci l’un l’altro non per come siamo, ma per come vorremmo essere.
[1] Shawn Yuan, How China is using AI and big data to fight the coronavirus, in «Al Jazeera», 1° marzo 2020.
[2] Mariano Zafra et al., How drone combat in Ukraine is changing warfare, 26 marzo 2024.