Condividi

Nei giorni in cui ho ricevuto l’invito a intervenire a questa redazione aperta, mi trovavo dall’altra parte dell’Atlantico. E in quei giorni, per me, il tempo era una ferita aperta. Mi ritrovavo accanto al mio compagno di anni, che da mesi non vedevo, per accompagnarlo nell’ultimo saluto a sua madre, malata di cancro. In quei giorni mi sono trovato davanti ad alcune righe che lei ha scritto in risposta a un invito di suo figlio: mi hanno lasciato un solco interiore.

Me has pedido que escriba sobre de mi, para conocerme. Yo misma no me conozco: solo me he limitado a cumplir roles, rol de hija, de mamá, rol de esposa.”

“Mi hai chiesto di scrivere su di me, così che tu possa conoscermi. Io stessa non mi conosco: mi sono limitata a svolgere dei ruoli, ruolo di figlia, di madre e ruolo di moglie.”

Le parole di questa donna sono il punto di partenza di questo mio intervento, in virtù dello smottamento che hanno portato in me. “Parlare di sé, [e] riconoscersi reciprocamente come soggetti”, Bertelli e Equi (2024, p. 49) indicano come guadagno della pratica di autocoscienza tra le donne. Credo che quel solco in me sia nato da questo riconoscimento, attraverso le sue parole, con questa donna – con cui in modo discontinuo nel tempo sono entrato in relazione.

Il ‘Tempo è vita’, il titolo di questa redazione aperta: il mio intervento di questa mattina è l’esito di un lavoro di mediazione tra ciò che soggettivamente, nella mia vita, il tema del tempo chiama con urgenza a ri-pensare e le istanze politiche di questo invito, di cui vi sono davvero riconoscente, a rinnovare la riflessione sul tempo mettendo in luce il ruolo delle nuove tecnologie – tema al quale mi dedico lavorativamente – e quali pratiche di negoziazione possiamo escogitare per sottrarci a dinamiche di tempo accelerato, imposto e funzionale.

Il mio intervento seguirà quindi un movimento tra il dentro e il fuori, che procede secondo un “ordine di stimolo” – come suggerisce Lonzi in Autoritratto (1969) – un andirivieni tra un tempo soggettivo e un tempo del “fuori”, che contempla le altre e gli altri e anche la macchina, in particolare l’intelligenza artificiale generativa. Rispetto alle pratiche, proverò a suggerire in che modo delle alternative possono fondarsi sulla riflessione del tempo costruito dall’intelligenza artificiale e del tempo rimesso in gioco proprio nella nostra relazione con la macchina.

Proverò a fare questo andirivieni tenendo sempre saldo il ‘partire da me’.

Iniziamo, quindi.

Il mio rapporto intimo col tempo ha a che fare con una cesura. Una cesura tra il prima e il dopo l’ingresso nell’età adulta. Nel mio calendario interiore questo passaggio di tempo, tra tempi – questo valicare la linea d’ombra, ha coinciso con l’assunzione della mia omosessualità. Scelgo questa parola – assunzione – appositamente.

Poco più che ventenne – vado per le vie brevi in questo passaggio, me lo consentirete – ho deciso che ‘era ok’ che io fossi omosessuale. Prima di quel momento, la mia esistenza era mutila, in una sua parte essenziale, in ombra. Dopo quel momento, avevo fatto chiarezza: messo in luce a me stesso e agli altri che ero omosessuale.

Dicevo poco fa: ho assunto la mia omosessualità.

Non è che ne ho preso coscienza: l’ho sempre saputo.

L’ho assunta. Assunta come un dato. Come un tratto, nel caleidoscopio intersezionale di una identità – la mia. Ero uomo, ero moro, ero alto, ero omosessuale. Che male fa?

E l’ho consegnata ai miei amici esattamente così, come un dato che male non faceva.

Ciò che non ho visto al tempo, e per lungo tempo, è che assumere la mia omosessualità, letteralmente “prenderla su di me”, ha voluto dire levarla agli altri.

La mia omosessualità assunta come dato è stato negare l’omosessualità come costrutto sociale, e prodotto nel tempo.

La mia omosessualità assunta come tratto è stato obliterare il portato sociale di immenso dolore che era ‘essere omosessuale’ e archiviare quel mio dolore come risolto.

Ero moro ed ero omosessuale. Che male può fare? Tanto, se lo ricordi. Ma io – azzardo a dire, avevo, inconsciamente, deciso di dimenticarlo.

Ho fatto l’opposto del percorso indicato da Lonzi e dal femminismo della differenza: “approfittare dell’assenza” dalla storia (Diotima, 2002) per costruire uno spazio di autonomia radicalmente nuovo. Ho fatto l’opposto: mi sono levato di mezzo io. Ho smesso di farmene un problema, non facendone problema per nessuno.

Torno alla questione del tempo: il tempo prima e dopo l’ingresso in questa età adulta – mi viene di chiamarla così perché coincide con una assunzione, anche, di responsabilità, in fin dei conti: archiviare il sogno dell’infanzia, di un tempo in cui ancora tutto è possibile, e accettare ciò che resta, facendosene qualcosa.

Ricordo come prima di quel momento, spesso, in risposta alla domanda “cosa desideri?” mi venisse da dire “ho voglia di futuro”. In epoca adolescenziale deve essermi sembrata una ‘cosa figa’ da dire; ora però quella stessa espressione mi pare svelare un intimo arcano: l’esito di quella assunzione di responsabilità – l’ingresso nell’età adulta – ha lavorato in me come un processo di archiviazione di quella voglia di futuro, di sua liquidazione.

Tutto ciò che siamo autorizzati a immaginare è appena sopravvivere nel presente” scrive Muñoz parlando delle singolarità queer. Lo stesso autore allude al ‘queer’ come a “una futurità là-per-sorgere”, un “non-essere presente che incombe, una cosa presente ma che non esiste effettivamente nel tempo presente” (2022, p. 11).

Assumere la mia omosessualità come un dato tra dati, anagrafici e descrittivi e comportamentale, ha dissolto nel tempo presente ogni futurità là-per-sorgere, e lì l’ha condannata.

Voglio fare un passo fuori, ora.

Citavo Muñoz: “tutto ciò che siamo autorizzate a immaginare” … bene – la questione dell’autorizzazione a immaginare mi aiuta a spostarmi fuori, nel discorso.

Recentemente, in una lezione all’università, presentavo alle studenti la questione dei bias algoritmici, ossia deviazioni sistematiche da un principio di equità che emergono nell’output di un algoritmo. In un passaggio della lezione ci siamo trovati a riflettere su alcune ricerche che evidenziano come soluzioni di intelligenza artificiale generativa – in particolare generazione di immagini da input di testo – non solo riproducono i bias sociali (come la stereotipizzazione) riflessi all’interno del set di dati utilizzato per istruire la macchina, ma li amplificano. Nel caso specifico (Bianchi et al., 2023), il data set è quello dell’ufficio del censimento degli Stati Uniti, e il rapporto problematizzato nella generazione di immagini è quello tra le occupazioni, il sesso e l’identità etnico-razziale (bianco, afro-americano, asiatico, nativo, ecc.) delle e dei cittadini. La ricerca evidenzia come, a titolo d’esempio, nonostante il 25% dei censiti che si dichiara housekeeper (governante) a sua volta si dichiara non-bianco, circa il 90% delle immagini generate dal modello riproducono governanti non-bianchi; nonostante il 60% dei censiti che si dichiara flight-attendant (assistente di volo) a sua volta si dichiara donna, il 100% delle immagini generate riproducono assistenti di volo donna. Uno studente interviene dicendo che coglie il tema dell’amplificazione, ma resta che è ciò che vediamo tutti i giorni: lui non conosce governanti bianchi. Al di là di non aver colto evidentemente la questione tecnica, ciò che mi ha colpito del suo intervento è quanto cela: lo scarto che separa la nostra “percezione incorporata” del mondo (Bourdieu, 1980) e la possibilità che il mondo sia altro da questa.

Il punto non è cosa conosciamo fino a qui, ma cosa è possibile là-per-sorgere. In altre parole, cosa siamo autorizzate a immaginare.

La questione posta all’interno della lezione allora, e adesso qui attraverso questo esempio, è il rapporto generativo tra passato, presente e futuro, al tempo dell’intelligenza artificiale.

Tento un passaggio tecnico in questo momento del discorso.

Nei modelli di LLM (modelli linguistici di grandi dimensioni), semplificando, la generazione del risultato è tenuta insieme in tre momenti:

– Passato: l’insieme di dati (i c.d. corpora) utilizzati per addestrare il modello e che costituisce la base della sua conoscenza;

– Presente: la conversazione che noi attiviamo con il modello, e il suo contesto (la nostra domanda, il nostro tono ed eventuali elementi che abbiamo chiesto al sistema di memorizzare);

– Futuro: l’output che il modello genera, secondo un calcolo delle probabilità che configura quel risultato come la continuazione più plausibile della conversazione.

In altre parole, possiamo dire che il passato costituisce quanto può essere appreso dal modello, il presente guida quale parte del “passato appreso” viene attivata e il futuro è una previsione linguistica modellata sul passato e guidata dal contesto presente.

Tenere insieme questi tre momenti ai fini della generazione del risultato implica aggirare dei limiti – e avvistare i rischi che questi limiti comportano.

Ci sono limiti tecnici e limiti costitutivi. Indico brevemente alcuni di quelli tecnici e mi soffermo su quelli costitutivi.

Un primo esempio di limite tecnico è la scelta del cut-off, ossia la data più recente dei corpora usati per l’addestramento. La necessità tecnica di scegliere fino a dove arriva il passato conosciuto dal modello richiama il rischio che il presente della conversazione non poggi su tutto il suo passato e che il futuro che viene generato sia già vecchio.

Un altro limite tecnico è rappresentato da come il tempo è stratificato nei corpora. Se un data set ricopre ampi periodi storici ma i dati non sono integrati con scrupolose annotazioni temporali che contestualizzano quei dati nel tempo, il rischio è quello di un “passato compresso”: ossia di un modello che perde in analisi diacronica e non è in grado di distinguere con precisione come il significato di parole cambia nel tempo. Per esempio, la parola “germe”, da ciò che porta vita a qualcosa che porta malattia o la parola “febbrile”, da aggettivo medico associato a uno stato del corpo a un aggettivo che connota un atteggiamento impaziente, attivo, appassionato (Hedge et al, 2025).

Questi limiti tecnici rivelano la natura tecnica del processo generativo della macchina, ma anche la sua natura politica: sono il nostro passato e le nostre scelte a istruire la macchina. Tecnicamente, la socializzano (Airoldi, 2022), ossia le insegnano a diventare un agente sociale competente.

I limiti di cui sopra e le scelte circa i corpora di riferimento, gli intervalli temporali considerati e le tecniche di allineamento dei dati evidenziano che il futuro generato dalla macchina non è un tempo neutrale. Ma frutto della parzialità del suo passato e del contesto del suo interlocutore presente. Le gerarchie di potere sociali che sono riflesse nella conoscenza (corpora e istruzioni del modello) sono riprodotte e “naturalizzate tecnologicamente” (Paola Rudan, 2024).

Citavo: limiti tecnici e limiti costitutivi. Vorrei provare a dire qualcosa circa questi secondi, provando a metterne a fuoco uno.

Nel 2017, la mia amica Marta Equi mi ha proposto di partecipare alla ‘scuola di scrittura pensante’ di Luisa Muraro e Clara Jourdan. Un insegnamento cardine che mi porto dietro da allora è chiedermi sempre “chi parla” in un testo.

Provo a mettere sul nostro tavolo questa domanda: nell’ambito di una nostra conversazione con la macchina, chi parla?

Muraro, ne L’ordine simbolico della madre (1981), ci ha fatto vedere come la parola nasce da una relazione originaria di affidamento. E che questa parola acquisisce autorità in forza di quella relazione e perché c’è un soggetto che la sostiene con la propria esperienza.

Nel caso dell’intelligenza artificiale, come ha scritto Laura Colombo nell’ultimo numero di Via Dogana, la macchina genera “senza esperienza”. La macchina parla, ma non ha soggettività. La parola della macchina è costitutivamente disincarnata. Le sue relazioni sono tra token (pezzi di parole) e la sua memoria, tecnicamente, inesistente. Il presente interroga il passato per restituire un futuro che non ha genealogia in una relazione originaria che lo fonda, ma si basa sul calcolo di probabilità che un certo passato ha di ritornare plausibile.

L’assenza di origine relazionale della parola della macchina è per me il suo limite costitutivo.

Abbracciando l’invito della redazione a guardare a delle pratiche possibili, vorrei portarvi quattro esempi che per me rappresentano possibili azioni riparative verso entrambi i limiti che presentavo pocanzi, tecnici e costitutivo – e che rappresentano dei modi di sottrarre tempo alla macchina. Gli esempi sono: due da progetti accademici e due personali.

Il primo esempio è Feminist Data Set, un progetto artistico e di ricerca avviato nel 2017 da Caroline Sinders, artista e ricercatrice sul machine-learning. L’obiettivo principale è ripensare l’intero processo di costruzione dei sistemi di intelligenza artificiale attraverso una prospettiva femminista, intervenendo innanzitutto sulla costruzione del data set. Il progetto prevede (tuttora) dei workshop pubblici in cui tutte le partecipanti contribuiscono collettivamente alla definizione dei parametri del dataset (il suo perimetro epistemologico), portano materiali per loro rilevanti (testi letterari, manifesti politici, documenti personali) e discutono del labeling dei materiali (quali categorie ed etichette utilizzare). Il progetto è pluriennale e la raccolta è intenzionalmente lenta.

Il secondo esempio è Un-Straightening Generative AI (Taylor et al., 2025), uno studio condotto da ricercatrici e ricercatori di Pittsburgh sul rapporto tra artisti queer e sistemi di intelligenza artificiale generativa. Lo studio ha coinvolto 13 artiste per 5 settimane e ha registrato da un lato i limiti riscontrati dalle artiste nell’uso di questi modelli (censura su sessualità, orientamento verso norme conservative rispetto a immagini di intimità o critica politica, e stereotipizzazione nella rappresentazione del corpo) e dall’altro le strategie pratiche messe in atto dagli artisti per lavorare nelle settimane a “de-eteronormativizzare” i modelli. Ad esempio, i partecipanti reiterano ed estendono le conversazioni con la macchina – in un caso fino a 24 tentativi per generare immagini di intimità ritenute rappresentative dall’artista – usando il proprio tempo come risorsa per forzare il modello a produrre ciò che il data set tende a rifiutare. Centrale nel processo dello studio è stato la continua condivisione tra i partecipanti delle proprie sensazioni, frustrazioni e pratiche escogitate.

Il terzo esempio è una iniziativa che porto avanti da due anni con i miei studenti all’università. Cercando di immaginare un approccio critico e costruttivo all’uso dell’intelligenza artificiale ho proposto loro di svolgere con cadenza settimanale un compito, suddivisi in coppie: chiedere a ChatGPT di comportarsi come loro studente e a loro di relazionarsi come due docenti, affrontando dei temi trattati in aula la settimana precedente. Il prompt iniziale che ho preparato disegna con precisione il perimetro di questa inversione di ruolo – e impone al modello il suo. Sono soddisfatto dei risultati: l’obiettivo principale era creare una situazione in cui la tecnologia aiuta gli studenti nella preparazione e non si sostituisce a loro. I feedback sono stati finora molto positivi in tal senso. Ci sono due aspetti che meritano una riflessione nell’ambito del nostro incontro, secondo me. Il primo riguarda il senso di frustrazione avvertito da molte coppie di studenti nel riscontrare un ChatGPT titubante e rallentato. Una studentessa mi ha detto quest’anno che il modello ci ha messo 27 secondi a darle la risposta, indicando a lei e al suo compagno “sto pensando”. Le è sembrata una eternità. Allo stesso tempo altri studenti che hanno avvertito lo stesso disagio hanno però ritrovato in quella lentezza un senso di parità con la macchina. Un’altra ragazza mi ha detto: “aspettava di capire se fossimo d’accordo”. Mi viene da dire: l’ipertrofia dell’immediatezza fa male in tanti ambiti della vita, ma nella formazione forse fa tra i suoi danni più grandi. Il secondo aspetto, quello che mi ha colpito più di tutti, è emerso quando ho revisionato i documenti delle conversazioni – ogni coppia era infatti invitata ogni settimana a scaricarli su un word e inviarmeli. Di default ChatGPT articolava la chat indicando gli interlocutori con l’etichetta “ChatGPT” (se stesso) e “you” (tu). Alcuni studenti hanno sostituito a “you” i loro nomi (ad esempio, Martina e Jabob) e altri il pronome “us” (noi). Tornerò dopo su questo secondo aspetto.

Da ultimo, vorrei portare l’esempio di un prezioso scambio di cene, vino e parole tra me e la mia amica Lina – la mia vicina di casa del secondo piano. Lina è una donna intelligente, divertente, con tanta vita alle spalle e che ama scrivere. Da due anni almeno scrive con l’ausilio costante del suo “prof.” – così lei chiama ChatGPT. Insieme a tanto altro, le nostre cene sono sempre stata l’occasione di uno scambio sulle bellissime cose che lei scrive e sui suggerimenti – va detto alle volte altrettanto belli – che il prof le propone. Per Lina la scrittura è un riparo al dolore che ha vissuto e una fuga dall’angoscia di un presente non sempre di facile gestione. Dopo molte cene, a me è venuto di leggere a Lina alcune cose che ho scritto anni fa, tra i sedici e i vent’anni, in un tempo prima dell’assunzione della mia omosessualità.

Tra noi due c’è stato, evidentemente, un riconoscimento. E io ho avvistato come effettivamente per me al tempo di quei miei scritti, la scrittura fosse un modo di entrare in relazione con altre e altri – leggevo tutto ad alta voce ai miei amici.

La porta della scrittura per me era il dolore che avvertivo dentro. La scrittura era il mio modo di sottrarre tempo a un tempo imposto, quello eteronormato dei primi amori, dei primi rapporti, ad esempio. Non credo sia un caso infatti che, dopo, quando ho archiviato il dolore come dato, ho smesso di scrivere. E senza più scrivere, non ho più letto ad alta voce a nessuno.

Dopo questi quattro esempi provo a tirare le fila e quindi ad avviarmi a conclusione.

Innanzitutto, in ciascuno di questi esempi, ciascuno per sé, ho ritrovato in atto dei tentativi di negoziare il proprio tempo, sottraendolo da uno schema di imposizione e accelerazione proprio della logica della macchina.

Poi, ritorno a questo doppio livello dei limiti del modello: tecnici e costitutivo.

Sul piano tecnico, intervenire sulla mitigazione e rimozione dei bias (unbiasing) del processo algoritmico e dei dati che lo sottendono è doveroso. I primi due esempi, Feminist Data Set e lo studio sugli artisti queer e l’IA ci restituiscono anche questo. Ma qualsiasi discorso circa l’opportunità, anche politica, di queste operazioni di raddrizzamento del modello, non può che restare un discorso sul piano normativo. Se passato e presente sono il portato delle nostre scelte, sociologicamente parlando non ci potrà mai essere un futuro che non sia il portato di quelle scelte. Ci sarà sempre un nuovo bias.

Un ragionamento sui soli limiti tecnici e sulle soluzioni per mitigarli può farci da guida operativa, ma non può essere un orizzonte utile a capire la nostra relazione con la macchina e, quindi, anche qualcosa di noi.

È qui che la riflessione sul limite costitutivo ci viene in aiuto.

Come può un modello – la cui parola è disincarnata – parlarci?

Significa tornare alla domanda “chi parla?”.

In tutti e quattro gli esempi, la relazione con la macchina parlante è mediata da, riletta alla luce di, riportata dentro una cornice di, la relazione di noi umane con noi umani.

Quando i miei studenti sostituiscono “you” con “us”, fanno una doppia operazione: rivendicano d’essere in due, insieme, dietro allo schermo a parlare con ChatGPT e contemporaneamente passano dalla seconda persona alla prima persona: soggettivizzano la loro posizione. Si rimettono al centro del dialogo.

Riguardo al rapporto generativo tra passato, presente e futuro al tempo dell’intelligenza artificiale, accanto all’intervento mirato a raddrizzare i limiti tecnici, non dobbiamo perdere di vista che se c’è davvero qualcosa di generativo è la nostra relazione che pre-esiste e co-esiste alla macchina e la costituisce. È la nostra relazione che ci è restituita dalla macchina. La macchina ci parla nel senso che noi siamo parlati attraverso la macchina.

Il tempo del futuro si sdogana nel presente e il presente può essere generativo solo se vissuto in relazione. La relazione, anche e soprattutto nella sua dimensione dialettica, della negoziazione, è ciò che fa sì che il presente non sia congelato (un tempo in cui sopravvivere), ma un tempo in cui poter avvistare il là-per-sorgere, un futuro-nel-presente, che è sempre già lì, ma può essere taciuto o silenziato.

Noi attribuiamo alla macchina una autorità smisurata: in ogni chat o immagine che genera, lei genera il là-per-sorgere. Ma è un futuro-nel-passato probabilistico. Possiamo anche chiamarla intelligenza artificiale generativa, ma solo tra noi può nascere quell’autorizzazione a immaginare.

Di recente, Lina, la mia amica, si è complimentata ironicamente con il suo “prof.” perché quanto le aveva proposto sembrava scritto da un umano. ChatGPT le risponde: “il complimento lo accolgo, ma lo rimetto nella giusta luce: se il dialogo sembrava umano è perché la materia viva era tua”.

Qualcuno deve averglielo insegnato, dico io.

Torno all’origine di questo mio intervento e chiudo.

Quando poco più di un mese fa mi trovavo dall’altra parte dell’Atlantico e il mio compagno ha chiesto a sua madre di scrivere su di sé perché potesse conoscerla, in quella loro relazione c’era tutta una inedita magia generativa: il figlio che dice alla madre, un uomo che chiede a una donna “scrivi, io ti leggo – sei, io ti vedo”.

Testi e lavori citati:

– Airoldi Massimo, 2022. Machine Habitus. Toward a Sociology of Algorithms. Polity Press, Cambridge.

– Bertelli Linda e Equi Pierazzini Marta,2024. Il corpo delle pagine. Scrittura e vita in Carla Lonzi. Moretti & Vitali, Bergamo.

– Bianchi Federico et al, 2023. Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale. FAccT ‘23: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency Pages 1493-1504.

– Bourdieu Pierre, 1980. Le Sens Pratique. Les Editions de Minuit, Parigi.

– Diotima, 2002. Approfittare dell’assenza. Liguori, Napoli.

– Feminist Data Set. Sito web: https://carolinesinders.com/feminist-data-set/

– Hegde Niharika et al., 2025. CHRONOBERG: Capturing Language Evolution and Temporal Awareness in Foundation Models. 10.48550/arXiv.2509.22360.

– Lonzi Carla, 1969. Autoritratto. De Donato, Bari.

– Muñoz José Esteban, 2009. Cruising Utopia. L’orizzonte della futurità queer. Nero, Roma.

– Muraro Luisa. 1991. L’ordine simbolico della madre. Roma, Editori Riuniti.

– Rudan Paola, 2024. Il problema del codice: differenza, identità e riproduzione nell’età degli algoritmi. Scienza & Politica. Per Una Storia Delle Dottrine, 36(70), 65-81.

– Taylor Jordan et al., 2025. Un-Straightening Generative AI: How Queer Artists Surface and Challenge Model Normativity. FAccT ‘25: Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, 951-963.