Condividi

Le domande per partire

Vorrei prendere avvio tenendo ferme, come una bussola, le domande dell’invito: che cosa accade alla nostra esperienza quando parole, immagini, gesti e relazioni vengono “catturati” e rielaborati da dispositivi e sistemi di intelligenza artificiale? Che cosa resta dell’esperienza singolare, della relazione viva, del tempo necessario a pensare e sentire? E che cosa succede alla libertà femminile e all’ordine simbolico quando la misura del senso tende a spostarsi verso sistemi opachi e proprietari?

Nel preparare questo incontro noi della redazione ristretta di VD31 abbiamo riattraversato una domanda che già nel 2020 Luisa Muraro aveva posto con acume: “Che ne è della nostra esperienza?”. L’abbiamo voluta assumere come taglio dell’incontro, adottando una postura che non fosse né di entusiasmo acritico né di rifiuto catastrofico, ma piuttosto di abitare questa realtà come una sfida, senza smettere di pensare e di stare in relazione; non partiamo dalla tecnologia, partiamo da ciò che ci accade con la tecnologia, dall’impatto che ha sul nostro modo di stare al mondo.

Che cos’è l’AI generativa e da dove viene

Quando oggi ci riferiamo all’intelligenza artificiale generativa, parliamo di sistemi che non si limitano a riconoscere o classificare (ad esempio, stabilire che una foto raffigura un gatto, o che un testo è spam), ma “generano”, ovvero scrivono testi, producono immagini, sintetizzano voci, montano video. “Generare” significa estrarre una nuova forma dallo sterminato archivio di esempi che questi sistemi hanno assimilato.

Il caso più evidente nella vita quotidiana sono i chatbot e gli assistenti di scrittura, che si appoggiano a modelli linguistici. A un primo sguardo sembra che “capiscano”, sanno rispondere, argomentare, replicare stili. Ma il loro funzionamento di base è più semplice (e per questo, in un certo senso, più inquietante) perché non fanno esperienza del mondo e non ragionano come una persona. Generano testo stimando, parola dopo parola, quale continuazione sia più probabile in base ai dati di addestramento e al contesto della richiesta, producendo enunciati spesso convincenti anche quando sono infondati, perché manca la presa sul reale. È come se avessero assimilato montagne di testi, imparando non le cose, ma le forme con cui vengono dette; così escono frasi plausibili e anche errori perentori, perché non c’è esperienza diretta, ma solo riflesso narrativo della realtà. Anche le immagini, i suoni e i video vengono generati dall’AI con risultati che sembrano veri ma sono l’effetto di ciò che abbiamo insegnato alle macchine e la realtà simulata si fa sempre più credibile, passando dal caos a una forma che “sembra vera”, o almeno sembra coerente con ciò che siamo abituati a chiamare vero.

La struttura è semplice: schemi (pattern) appresi da enormi quantità di dati, calcolo statistico e una richiesta (prompt) che guida la generazione. Ma le conseguenze sono tutt’altro che banali. Se una macchina è in grado di creare testi e immagini che appaiono sensati, si modifica il terreno stesso della nostra esperienza, cambiando il modo in cui circolano parole, prove, autorità, immaginario. Si tratta quindi di interrogarsi sul fatto che una parte sempre più ampia del mondo discorsivo e visivo possa essere generata senza esperienza e su come ciò vada a influenzare il nostro rapporto con l’esperienza.

Per non mitizzare l’intelligenza artificiale basta guardare la storia. L’idea di “macchine che pensano” non nasce con i chatbot, è un capitolo del progetto moderno di rendere calcolabile l’incerto dell’esistenza. Nel Novecento questa ambizione si istituzionalizza in una disciplina; l’intelligenza non si definisce più in astratto, si mette alla prova e Turing propone di verificarla chiedendo se una macchina sappia sostenere una conversazione fino a risultare indistinguibile da un’umana. Qui c’è un punto decisivo, perché la scena originaria non è neutra. Nel gioco dell’imitazione di Turing prima della macchina c’è un uomo che tenta di farsi passare per donna; quando l’uomo viene sostituito da una macchina, è la macchina a dover passare per donna sotto lo sguardo dell’interrogatore. Sadie Plant2 mostra che la differenza sessuale non sta ai margini, è iscritta nella grammatica stessa della prova, anche quando la tradizione la riassorbe nella versione neutra del “sembrare umani”.

Da lì in poi cambiano le tecniche ma resta la stessa questione di fondo. Se la misura dell’intelligenza è il risultato convincente, la domanda femminista torna inevitabile. Che cosa accade al nesso tra parola ed esperienza, tra verità e riconoscimento, tra relazione viva e test?

Critiche femministe all’intelligenza artificiale
Una delle prime cose che l’AI generativa ci impone, velandola al tempo stesso, è la domanda sulla neutralità, occultando la non-neutralità iscritta nell’origine di questi sistemi e producendo così un effetto di neutralità che poi passa per dato. E proprio imponendosi come neutrale, rende meno visibile anche ciò che quella neutralità normalizza, tra cui la differenza sessuale, che non scompare ma viene riassorbita nelle scelte di dati, criteri, stili e soglie di accettabilità. Questi sistemi si offrono come strumenti universali e “oggettivi”, come se funzionassero nello stesso modo per chiunque, ma la neutralità non è un fatto, è un effetto che emerge da una catena di scelte: chi decide che cosa entra nei dati, come si selezionano e si ripuliscono i testi, quali immagini contano come esempi, quale stile è decretato come “corretto”, quale risposta è “appropriata”, quale errore è accettabile.

Qui la rilettura di Sadie Plant è utile perché scioglie un equivoco. La differenza sessuale non scompare, ma viene addomesticata. Nella genealogia del test di Turing contano i segni che persuadono un giudice, e perciò la differenza prende due vie ugualmente impoverenti: da un lato viene compressa in stereotipi, tratti imitabili e cliché di genere, con “il femminile” ridotto a stile, tono, postura comunicativa; dall’altro viene assorbita in un registro neutro che non riconosce la differenza come realtà viva e la rende irrilevante, producendo un linguaggio medio, senza spigoli, spesso coincidente con la norma dominante. In entrambi i casi la differenza resta nella realtà, ma si indebolisce nel regime di lingua che l’AI tende a generare, finendo per essere negata proprio nel modo in cui viene resa dicibile, come caricatura o come rumore da eliminare.

Questa dinamica investe anche la verità. Con le immagini generative e, in modo diverso, con i testi prodotti dai modelli, si incrina un’idea che ci ha sorrette a lungo, cioè che un’immagine o una frase portino con sé un’esperienza, una traccia del reale. Joanna Zylinska3 osserva che l’immagine perde la funzione di prova non perché oggi sia più facile ingannare, ma perché diventa normale produrre contenuti credibili senza che dietro ci sia qualcuno che ha visto, vissuto, verificato. Si ottiene un effetto di verità senza il lavoro della verità. La posta in gioco diventa come tenere insieme senso e responsabilità in un mondo in cui il verosimile può essere prodotto in serie.

Ancora, il tema del pregiudizio (bias), che non è un inciampo tecnico, ma il modo in cui un ordine sociale entra nei dati e ritorna come suggerimento “neutro”. Se la società è gerarchica, l’automazione tende a stabilizzare e amplificare la gerarchia proprio mentre la presenta come naturale. Ne segue che non basta “aggiustare” il modello, bisogna interrogare che cosa viene assunto come norma e chi paga il costo di quella norma. Nell’articolo Esiste un’intelligenza artificiale femminista e postcoloniale. L’ha creata l’attivista Antoinette Torres Soler, ma è davvero etica?4 Anna Menale ricostruisce il progetto politico di Antoinette Torres Soler, Afroféminas, che nasce dalla critica ai modelli mainstream addestrati su immense raccolte di testi “presi dal web”, potenti ma inclini a riprodurre i pregiudizi online. Torres Soler sceglie un’altra via, un sistema senza connessione a Internet e non pensato per essere universale, addestrato deliberatamente su un corpus curato di pensiero nero e decoloniale. La scelta è insieme metodologica e politica: non assorbire la rete così com’è ma selezionare materiali, anche in frammenti PDF disponibili o condivisi nei circuiti attivisti, e farne, prima ancora che un assistente (chatbot), un archivio consultabile. Così la “correzione del modello” diventa un’altra idea di sapere che dichiara una genealogia, assume una parzialità, mette in primo piano il nesso tra lingua, potere ed esperienza invece di occultarlo dietro l’universale fittizio dei grandi modelli.

E poi c’è la materialità, che la narrazione tende a rimuovere perché incrina l’incanto. L’AI generativa vive di estrazione, prende testi e immagini strappandoli ai contesti che li hanno prodotti, trasforma in “pseudo-soggettività” il lavoro umano sedimentato nei sistemi addestrati e fa sparire il lavoro vivo di annotazione, moderazione, pulizia e correzione dei dati. Sullo sfondo c’è un apparato industriale tra i più energivori e sperequatori, fatto di centri dati (data center) che consumano suolo, acqua e corrente, di filiere di minerali critici e di “costi esterni” sistematicamente espulsi dalla scena (territori sacrificati e depredati, consumo idrico ed energetico, corpi messi al lavoro nell’ombra) mentre la macchina si presenta come eterea e universale. Qui la critica femminista5 incrocia quella del lavoro e quella ecologica, perché la “magia” funziona solo finché restano invisibili le catene materiali e i corpi, spesso marginalizzati, che reggono tutto e finché la resistenza del vivente viene trattata come rumore, come attrito, come limite da ottimizzare invece che come realtà. Se non guardiamo questo piano, finiamo per prendere l’inorganico come misura e per scambiare per naturale ciò che è un assetto costruito, violento e dunque modificabile politicamente.

Partire da sé: la mia esperienza come punto di attrito

In Università ho partecipato a un lavoro serio sulle linee guida e sull’uso “etico” dell’AI. Ed è stato proprio lì, nel luogo della buona volontà istituzionale, che ho sentito il limite dell’impostazione dominante: quando riduciamo l’AI a un fascicolo di regole, rischi, adeguatezza alla norma (compliance), perdiamo il punto. È necessario, per un’istituzione, mettere paletti e procedure. Ma al lavoro del pensiero non basta, perché l’AI non entra soltanto nei processi, riorganizza il simbolico, sposta le condizioni di ciò che può essere detto, creduto, desiderato. Se non lo nominiamo, restiamo cieche proprio nel punto in cui l’AI ci prende. Io questa tensione la sento su di me. Uso strumenti generativi e ne sento l’erosione sul tempo e sull’attenzione, perché mi spingono a chiedere subito, a ottenere subito, e a delegare progressivamente il lavoro della parola e una parte del giudizio. Così la rinuncia al tempo dell’esitazione e della relazione passa per naturale. E può imporsi un’autorità altra rispetto a quella femminile, senza corpo, che si legittima in quanto “funziona” e orienta il giudizio, il tono, perfino ciò che mi pare dicibile. Da qui la questione si sposta. Non è “usare o non usare” strumenti generativi, è che cosa ne fanno di me, e soprattutto che cosa ne fanno del legame tra me e le altre; che cosa modificano nella fiducia, nel conflitto, nella parola che circola, nella responsabilità di chi parla e di chi ascolta. Mi sono chiesta seriamente quale esperienza non voglio consegnare alla macchina. Ho capito che non voglio consegnare quella che nasce dal corpo e dalla relazione, la zona in cui una parola sorge perché ha attraversato esitazione, rischio, desiderio, vergogna, gioia, e soprattutto perché qualcuna l’ha ascoltata. È lì che accade la presa di coscienza come evento che mi espone e mi modifica, esperienza che può diventare contagiosa perché vera e condivisibile.
E non voglio consegnare sensibilità, casualità, inventività. Non come qualità “interiori”, private, romantiche; ma come potenza di deviazione dal già dato, come capacità di aprire una piega nel discorso dominante e di farci passare altro. Qui riprendo Luisa Muraro, quando nell’articolo Lo strumento sei tu6 dice che lo strumento non è mai un mezzo neutro che si tiene in mano restando intatte, nello strumento entra una forma di mondo e quella forma di mondo entra in noi, fino a chiederci adattamento, fino a farci scambiare il suo criterio per realtà. Quindi è essenziale con quale scarto stiamo dentro l’AI e i suoi usi, come elemento non integrabile, come differenza che non si lascia catturare, come presenza stonata che impedisce alla macchina di diventare la misura del dicibile. Infatti, l’AI è un dispositivo infrastrutturale complesso che plasma ambienti, decisioni, rapporti di potere e immaginari collettivi, andando ben oltre la volontà dei singoli utilizzatori. Definirla strumento attenua la questione delle asimmetrie di proprietà e controllo, e della concentrazione di potere nelle mani di pochi soggetti. Così, più che uno strumento, l’AI va intesa come un vero e proprio ambiente tecnico e politico che ci usa mentre la utilizziamo, ci riconfigura, ridefinendo il modo in cui abitiamo il mondo e stiamo in relazione. In altre parole, non siamo semplici utenti di una tecnologia neutra, ma partecipi (spesso inconsapevoli) di una trasformazione profonda delle condizioni stesse dell’esperienza e della libertà.
Se l’AI prende il posto di queste facoltà (sensibilità, casualità, inventività), la mia esperienza scivola verso l’appendice dell’efficienza, cioè verso un adattamento sempre più docile a un sistema che pretende adeguamento e restituisce valore solo in questa forma, riconoscendo come “capacità” ciò che è compatibile con i suoi ritmi e i suoi standard. In questo scambio le mie forze vengono scippate senza attrito, anzi con il mio consenso, e io finisco per modellarmi su ciò che funziona, fino a trattare l’adeguamento come competenza e la rinuncia come normalità.

Da qui mi sono anche chiesta che cosa succede alla mia attenzione, al mio tempo, al mio desiderio quando uso l’AI e ho capito che la mia attenzione tende a essere risucchiata in un regime di scambi che crescono a dismisura, dove la richiesta implicita diventa più velocità, più output, più reattività. Il rischio è diventare compatibile con ciò che mi prende. L’AI non mi costringe, mi seduce con una promessa pulita di fare di più, meglio, più in fretta, e io posso perfino provarne piacere. È qui che entra il turbocapitalismo, quel capitalismo accelerato in cui la produttività smette di essere un vincolo esterno e diventa un’identità desiderabile, e la prestazione si trasforma in autovalutazione. La macchina non mi domina impedendomi qualcosa, mi domina aiutandomi a realizzare una versione di me stessa che “funziona” sempre, pronta, efficiente, rispondente, senza tempi morti. Dentro questa forma di vita il pensiero vivente rischia di essere trattato come spreco, l’esitazione come difetto, la complessità come attrito, il conflitto come inefficienza, e io posso accettare la regola senza che nessuno me la imponga, ritrovandomi a misurarmi in output e a cercare la frase migliore non per dire la mia verità ma per “performare” bene. È una cattura morbida perché non mi strappa la parola, me ne offre una pronta, e così sposta la misura del mio valore verso la prestazione. Luisa Muraro lo dice in modo radicale, se l’AI prende il posto anche della nostra capacità di capire, allora l’effetto è politico. Per questo occorre riconoscere l’impotenza e sapere come starci, non integrandosi ma restando un elemento estraneo, capace di spostarsi senza lasciare che l’apparato detti la misura del senso. Sapere come starci significa anche chiedersi quali genealogie vogliamo far valere contro l’universale fittizio dei grandi modelli. Io credo che vadano tenute vive le genealogie che hanno già smascherato il falso universale maschile, Carla Lonzi, il Demau, la politica del simbolico nata da quel gesto inaugurale che diceva “Io sono una donna”. Perché lì l’universale non viene rifiutato in astratto, viene riportato al suo trucco, a chi parla al posto di tutte e a quale esperienza viene presa come misura. Queste genealogie servono anche oggi perché ci fanno vedere due rischi che nel digitale tornano travestiti e dunque più difficili da nominare. Da una parte il pregiudizio incorporato, il patriarcato che rientra nei codici e si presenta come neutralità, come statistica, come buon senso tecnico. Dall’altra la cancellazione della differenza offerta come rimedio, come pacificazione, come inclusione, e invece capace di produrre un uguale senza storia e senza corpo, un uguale che chiede alle singolarità di conformarsi e diventare compatibili. Alla politica del simbolico a mio parere oggi va intrecciata la critica ecofemminista, perché dietro i grandi modelli e dietro l’universale fittizio c’è sempre una filiera che estrae e consuma, e ci sono corpi e territori resi disponibili, invisibilizzati, trattati come sfondo.

La domanda finale resta e non è tecnica: da chi apprendono le macchine, e chi autorizza quella memoria; chi decide quali archivi contano, quali vite diventano dato, quali scarti vengono espulsi dalla scena, quali costi vengono scaricati altrove. Se non teniamo aperta questa domanda, l’universale fittizio passa per realtà e la differenza diventa rumore da cancellare. Se invece la teniamo aperta, possiamo far valere genealogie situate come criterio politico e stare nel digitale senza integrarci, senza cedere la misura del dicibile e senza consegnare all’inorganico il governo delle nostre relazioni.

Introduzione alla redazione aperta di Via Dogana Tre, Pensiero vivente e intelligenza artificiale, 14 dicembre 2025


  1. La redazione ristretta di Via Dogana 3 è composta da: Silvia Baratella, Laura Colombo, Vita Cosentino, Marta Equi, Fosca Giovanelli, Laura Giordano, Clara Jourdan, Marina Santini, Daniela Santoro, Traudel Sattler. ↩︎
  2. Sadie Plant è una teorica e scrittrice britannica, legata al cyberfemminismo, che ha analizzato il rapporto tra tecnologia, cultura e differenza sessuale. Nel libro Zeros + Ones (trad. it. Zero, uno, LUISS University Press 2021) rilegge le origini dell’informatica (Turing compreso) mostrando come il femminile sia implicato, spesso in forma rimossa, nella storia delle “macchine intelligenti”. ↩︎
  3. Joanna Zylinska è una filosofa dei media, scrittrice e artista polacco-britannica; è Professor of Media Philosophy and Critical Digital Practice al King’s College London e lavora su tecnologie digitali, etica, fotografia e culture dell’AI. Tra i suoi libri: Nonhuman Photography (MIT Press, 2017), The End of Man: A Feminist Counterapocalypse (Univ. of Minnesota Press, 2018), AI Art: Machine Visions and Warped Dreams (2020). ↩︎
  4. https://femminismi.substack.com/p/esiste-unintelligenza-artificiale ↩︎
  5. Sul nesso ecofemminismo, esternalizzazione dei costi socio-ecologici e lavoro invisibile (cornice) e sulle applicazioni dell’AI si può vedere: Ariel Salleh, Ecofeminism as Politics: Nature, Marx and the Postmodern (Zed Books, 1997); Maria Mies & Vandana Shiva, Ecofeminism (Fernwood, 1993); Ana Valdivia, “Data ecofeminism”, in FAccT ’25 (ACM, 2025); Modestha Mensah & Aimee van Wynsberghe, “Sustainable AI meets feminist African ethics”, AI and Ethics 5 (2025). ↩︎
  6. https://puntodivista.libreriadelledonne.it/lo-strumento-sei-tu/ ↩︎