Sulla frase che ha impressionato il New Yorker. Riflessione su IA e letteratura
Wu Ming 1
27 Dicembre 2025
Ricordiamo che l’intelligenza artificiale è stata l’argomento della redazione aperta di Via Dogana 3 del 14 dicembre 2025, “Pensiero vivente e intelligenza artificiale”, di cui potete trovare le introduzioni e i primi contributi qui: Via Dogana 3 – Punto di vista.
La redazione del sito
Nelle note precedenti ho cercato di chiarire alcuni specifici equivoci su letteratura, scrittura e stile su cui secondo me si basano molte reazioni all’articolo del New Yorker “What If Readers Like A.I.-Generated Fiction”. Equivoci che in realtà sono già nell’articolo, e nell’esperimento di cui racconta e su cui ricama. A monte c’è una grande confusione su cosa sia e cosa faccia la letteratura e addirittura su cosa voglia dire scrivere; da qui discende l’assurdità concettuale e metodologica dell’esperimento, i cui esiti aggravano la confusione iniziale.
Andiamo al nocciolo. Un ricercatore fa “mangiare” a un LLM [Large Language Model*] diversi brani di opere di Han Kang. In traduzione inglese, mentre l’autrice pensa e scrive in coreano. Questo comporta già una perdita di connotazioni, da autore tradotto in varie lingue lo so fin troppo bene; eppure da questi brani – non opere: brani – tradotti l’IA dovrebbe desumere e acquisire lo “stile” di Han Kang, con tutti i malintesi su cosa sia lo stile, di cui ho già scritto. Dopodiché, il ricercatore descrive all’IA una scena del romanzo Il libro bianco, che non è tra i brani già sottoposti, e le chiede di buttarla giù nello stile dell’autrice.
In questa situazione, una madre veglia il proprio neonato, che ha dato alla luce solo due ore prima. Il bimbo sta morendo, lei lo implora di vivere, ma lui morirà. Se fosse vissuto, sarebbe stato il fratello maggiore della narratrice. Che dunque ci sta raccontando di sua madre. Siamo in un luogo intimo, il più intimo possibile, e pericoloso per chiunque scriva.
Nel romanzo (in inglese), la frase è: «For God’s sake don’t die, she muttered in a thin voice, over and over like a mantra.» [traduzione mia: ‘“Per l’amor di Dio, non morire”, mormorava con voce flebile, ripetendolo come un mantra’].
A tutta prima è una frase banale e contiene un cliché ormai logoro, “come un mantra”, ma – ecco uno degli equivoci che più fanno arrabbiare noi scrittori e scrittrici – non si può giudicare un’opera da una sola frase, va valutato l’effetto che essa ha in quel particolare punto del testo, arrivando dopo tutte le frasi precedenti e caricandosi di ulteriore senso grazie a quelle che seguono.
Ad ogni modo, ecco la frase alternativa generata dall’IA: «She held the baby to her breast and murmured, Live, please live. Go on living and become my son.» [‘Si teneva il bimbo al seno e mormorava: vivi, ti prego, vivi. Continua a vivere e diventa mio figlio’].
E il ricercatore, e dopo di lui i lettori di prova, e poi il New Yorker, e ulteriori lettori di prova, e infine i commentatori reagiscono così: urca! potente! commovente! Se un’IA può scrivere una frase così, per gli scrittori cominciano a essere seri problemi! Presto alle case editrici converrà far scrivere le IA e affinare giusto un poco, cosa che abbatterebbe i costi del dover compensare gli autori. A quel punto il ricercatore ripete l’esperimento con brani di altri autori, ne nasce un paper che esce in preprint, arriva il New Yorker e parte la sarabanda.
Ora, se la frase rivela qualcosa, rivela proprio l’incorporeità e inumanità dell’IA, di cui si dice impropriamente che “genera” – da questo dibattito andrebbero banditi tutti gli antropomorfismi e animismi perché stanno facendo danni spaventosi – ma in realtà non genera. Non avendo un grembo, non ha mai avuto in grembo una creatura vivente che deve nascere, non ha mai dato alla luce altra vita, non ha mai provato un dolore come quello di quella madre, può solo tirare a indovinare nel produrre un’imitazione.
Io credo che, in quelle circostanze, nessuna donna che ha scelto di essere madre direbbe: «Continua a vivere e diventa mio figlio», per la semplice ragione che è già suo figlio, lo è nel dato di fatto (è nato da lei), e lo è nell’amore che lei prova per lui da quand’era ancora in grembo. Non c’è madre che non pensi alla creatura che ha nel ventre come già suo figlio o figlia. Vivono in simbiosi, lei sente la creatura muoversi, scalciare, capisce se sta bene o soffre, sono tutt’uno, sono già madre e figlio.
Se un’imitazione così gelida, che andrebbe considerata un vero e proprio lapsus dell’IA, impressiona lettrici e lettori umani – anche del settore, anche scrittori! – perché come frase “funziona” “letterariamente”, ribadisco che il problema pre-esiste all’IA, e concerne quel che chiediamo alla letteratura.
Letteratura che non vuol dire una frase, non vuol dire nemmeno un testo, non si riduce all’esito rappresentato dal testo, ma è un processo, un divenire continuo, è un multiverso di opere – e un’opera non è solo un testo – e di mondi e di incontri che avvengono in quei mondi e tra quei mondi, ha una dimensione sociale, concerne i corpi.
Se temiamo che un’IA presuntamente brava a scrivere testi letterari sostituisca tutto questo, vuol dire che abbiamo una concezione miserrima dello scrivere e del leggere.
Le “esternalità” di questo modello di sviluppo dell’IA
Ma ribadisco: in cima alla lista dei problemi causati da questo modello di IA – altri modelli erano stati ipotizzati, e altri sarebbero realizzabili – ce ne sono di ben più concreti, gravi, su scala ben più vasta. Non è possibile tener fuori dal quadro l’ecocidio. L’imprinting ideologico del modello è il solito, quello che chi lotta contro le “grandi opere” ben conosce: X è tecnicamente fattibile? Allora va fatto. Tutte le conseguenze che, se prese in considerazione, metterebbero in questione tale assunto vengono rimosse, diventano “esternalità”.
Questo discorso irrita diversi operatori, pensatori e artisti che a livello “posturale” esibiscono pensiero critico, ma scattano in reazione a ogni analisi che reintroduca nel discorso le (false) esternalità.
Non si può criticare solamente l’uso dell’IA a valle, ad esempio il fatto che la grande maggioranza di chi la usa ogni giorno – per fortuna, pare, ancora una minoranza di chi sta in rete – lo faccia per produrre sbobba. Va criticato anche il modello a monte.
Servono a ben poco i brillanti vademecum su usi etici e/o presuntamente liberanti dell’IA se resta sottotematizzato il primevo dato di fatto: questo modello è letteralmente tossico dal principio. È espressione dei settori più schifosi di Big Tech, di un pugno di multinazionali rapaci spesso guidate da miliardari sociopatici e con seri problemi cognitivi (cfr. George Monbiot, Billionaire Brain); è compromesso alla radice con interessi militari e genocidi; è basato su lavoro sottopagato, alienato, invisibilizzato; è vorace di suolo, energivoro, assetato, inquinante e climalterante, arrogantemente lanciato nella direzione opposta a quella in cui dovremmo muoverci come civiltà.
Dai discorsi che danno l’IA per scontata restano sempre fuori i mastodontici centri dati.
I movimenti che lottano contro la loro costruzione sono molto più avanti nella consapevolezza di qualunque teorico che si interroga su come usare un chatbot.
(*) un tipo avanzato di intelligenza artificiale addestrato su enormi quantità di dati testuali per comprendere, generare e interagire nel linguaggio umano, svolgendo compiti come scrivere, tradurre, riassumere e rispondere a domande, con applicazioni in vari settori come assistenza clienti e analisi dati, e basato su architetture come il Transformer.
(Giap, 27 dicembre 2025)