Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti.  Casa editrice: Krisis Publishing

Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.

Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Oggi quell’intuizione si è fatta urgenza, e AI and Conflicts 2 diventa un manifesto o forse un manuale di sopravvivenza nella calura antropoceno-tecnologica in cui ci troviamo immersi.

Non è un caso che l’Umanesimo, quello con la maiuscola, venga coinvolto nel secondo volume. Perché se l’AI si impone come infrastruttura del senso, allora il conflitto si gioca proprio sulla capacità di raccontare, rappresentare e resistere.

Già nel primo volume si notava un’attenzione particolare verso l’ecologia, ma non nel senso banale del greenwashing da start-up milanese. Piuttosto, un’ecologia dei sistemi, dei dati, delle immagini e dei corpi che quei sistemi attraversano o inglobano. Il secondo volume alza la posta e si fa esplicitamente politico. Non è un libro sulla tecnologia, ci tengono a dirlo ed è vero.

È un libro che parla del potere che si annida nei dataset, della violenza nascosta negli algoritmi di raccomandazione, della retorica della neutralità che maschera il dominio neoliberale. In poche parole, è un libro sul capitalismo del riconoscimento, non sull’innovazione.

La scelta editoriale è chiara: coinvolgere artisti, teorici, attivisti, ricercatori e autori che non si accontentano di discutere il funzionamento dell’AI, ma che intendono dissezionare le sue mitologie. L’AI non è uno strumento, è un campo di battaglia semantico. AI and Conflicts 2 del 205prende posizione, senza ambiguità, dentro quella che potremmo chiamare con un certo gusto per il paradosso l’estate del disincanto algoritmico.

Francesco D’Abraccio, figura che si muove da sempre tra l’estetica e la speculazione, tra l’arte e il pensiero critico, racconta bene questa transizione.

Il progetto Lone, con cui ha già collaborato con le UANIS, rappresenta un caso esemplare di come si possa fare arte non con l’AI, ma contro l’AI. Non nel senso distruttivo del termine, ma nel senso della messa in crisi, del sabotaggio simbolico.

Come racconta D’Abraccio, il passaggio dal primo al secondo volume è stato anche un cambiamento di temperatura: se prima si cercava di mappare, ora si cerca di incendiare. Di creare cortocircuiti cognitivi in grado di rendere visibile il meccanismo, come quando si spoglia un algoritmo del suo glamour e si mostra la catena di lavoro sottopagato e invisibile che lo sostiene.

Il punto centrale, quindi, non è discutere se l’AI sia “buona” o “cattiva”, ma interrogarsi sulle condizioni materiali, culturali e geopolitiche che rendono possibile il suo dominio. Perché ogni sistema intelligente è anche un sistema di esclusione. Ogni classificazione algoritmica è una forma di giudizio morale travestita da efficienza.

Ogni “bias” non è un errore, ma una scelta politica già fatta. Ed è qui che AI and Conflicts 2 diventa non solo profetico, ma necessario.

C’è un passaggio nel libro che suona quasi come una dichiarazione di guerra: “Questo non è un libro sulla tecnologia”. In altre parole: basta con le descrizioni entusiaste, con gli approcci neutralizzanti da white paper corporate.

Qui si parla di sfruttamento, di estrattivismo cognitivo, di resistenza dei corpi e delle narrazioni e lo si fa in un momento in cui l’intelligenza artificiale sembra voler riscrivere i codici stessi del reale, dagli affetti alla politica, passando per l’estetica. Ma proprio in questo momento si moltiplicano le contro-narrazioni, le forme di insubordinazione semiotica che rifiutano l’ordine del discorso imposto da chi possiede i server.

Uno degli elementi più interessanti del volume, ed è qui che il ruolo dell’umanismo si fa centrale, è il tentativo di costruire alleanze tra mondi apparentemente distanti: l’accademia, la cultura visiva, l’attivismo, l’arte sperimentale. Perché il conflitto non è solo tra umani e macchine, ma tra mondi interpretativi.

Tra chi vuole ridurre l’AI a puro strumento di profitto, e chi invece la legge come sintomo di un cambiamento epistemologico che richiede nuovi paradigmi. Il ritorno dell’umanesimo, quindi, non è nostalgico: è strategico. È l’unico modo per evitare che l’AI diventi la nuova religione secolare del nostro tempo.

Del resto, l’AI ha già i suoi dogmi, i suoi sacerdoti, i suoi rituali. Ma non ha ancora incontrato una resistenza davvero culturale, e AI and Conflicts 2 tenta di costruirla. Con un linguaggio affilato, con testi che non cercano consenso ma dissonanza, con pratiche artistiche che si pongono in attrito, non in collaborazione. Perché collaborare con l’AI, oggi, significa spesso interiorizzare le sue logiche. E invece servono diserzioni, deviazioni, hackeraggi concettuali.

È per questo che il libro non va letto come un saggio lineare, ma come una costellazione di interventi: ogni testo è una mina piazzata sotto il pavimento levigato della Silicon Valley. Ogni autore contribuisce a disegnare una cartografia del conflitto, che non è solo tecnologico, ma simbolico.

L’AI, in fondo, è il nuovo immaginario totalizzante, e se non siamo capaci di inventare nuove immagini, rischiamo di essere intrappolati in quelle generate da altri. In automatico.

Il passaggio da AI and Conflicts 1 a questo secondo volume segna quindi una fase nuova. Non è più tempo di osservare, è tempo di agire. Di mettere in discussione la grammatica stessa della computazione, di rifiutare l’innocenza estetica delle interfacce, di smascherare la brutalità che si cela dietro il termine “machine learning”. Perché, come ci ricorda uno degli autori del volume, nessuna macchina “impara” davvero. Sono gli umani a essere addestrati. Alla passività, alla delega, alla sottomissione soft.

Ecco allora che il ruolo dell’umanismo non è solo teorico, ma operativo. Non si tratta di salvare l’umano, ma di ridefinirlo. Di reinventare un soggetto capace di muoversi dentro le macchine senza esserne assimilato. Di pensare il conflitto non come fallimento, ma come condizione vitale. Perché in fondo, come scriveva Deleuze, resistere non è dire no. È creare.

Tra dati, corpi e resistenza: mappare l’estate rovente dell’AI

La struttura del libro è stratificata. Si apre con una sezione introduttiva, quasi un manifesto: La calda estate dell’AI, firmato da Daniela Coimbo, Francesco D’Abbraccio e Andrea Facchetti. Una mappa iniziale che posiziona il progetto, lo carica di tensione e ne chiarisce l’intento. Non stiamo parlando di tecnologia, dicono, ma di sfruttamento, di resistenza, di rappresentazione, di corpi e immagini che la macchina filtra, classifica, manipola. È come entrare in un campo minato: ogni capitolo è un’esplosione.

Il primo blocco tematico è dedicato a Dati & Modelli. Qui si scava nei meccanismi interni delle AI generative e predittive, ma lo si fa con un tono critico, non celebrativo. Matteo Pasquinelli apre le danze con Una macchina che apprende sbagliando, smontando l’idea romantica dell’apprendimento automatico come processo neutro.

L’errore, ci ricorda, non è un incidente ma un fondamento. I modelli apprendono distorcendo, selezionando, escludendo. E più diventano sofisticati, più rischiano di cristallizzare i bias che li attraversano. Buschek e Thorp, in Nel profondo dei modelli, ci portano invece a guardare sotto la superficie dei LLM, nei livelli nascosti dove si annidano le logiche che producono senso.

Eryk Salvaggio, con il suo Compendio allucinogeno, ci regala un testo psichedelico e potentemente teorico, che collega dataset, immaginari e controculture, quasi a voler riaprire la mente ingabbiata dell’AI a possibilità altre.

Il secondo blocco, Corpi & Tassonomie, è una lama affilata. Hito Steyerl in Immagini Mean riflette sul ruolo delle immagini nell’epoca dell’estrazione algoritmica. Le immagini, oggi, non servono a raccontare ma a prevedere, controllare, addestrare.

Vengono lette, scomposte, trasformate in segnali. Flavia Dzodan, che torna anche più avanti nel libro, qui scrive Algoritmi e colonialismo, un testo lucidissimo che mette in relazione la classificazione dei dati con l’eredità del pensiero coloniale. Le tecnologie digitali, dice, sono nuove forme di mappatura violenta, dove il sapere si costruisce escludendo e gerarchizzando.

Il corpo soprattutto il corpo femminile, nero, queer, non occidentale è ancora una volta l’oggetto di questa classificazione.

E poi arriva Estetiche & Resistenza, che è la parte forse più liberatoria, quella dove le cose iniziano a sbandare. Rosemary Lee scrive un saggio visivo e concettuale su come l’AI sta trasformando l’estetica contemporanea. L’immagine sintetica diventa il linguaggio naturale della macchina, e tutto ciò che è “umano” inizia a sembrare imperfetto, lento, sporco. Ma è proprio in quello scarto che si apre lo spazio per una resistenza.

Domenico Quaranta, con Controcultura – Estrattivismo, ci ricorda che ogni rivoluzione digitale ha avuto le sue estetiche e le sue trappole. L’arte, dice, può ancora essere un’arma, ma solo se si sporca le mani con i codici del nemico.

Dzodan ritorna con Lutto aptico, un testo ibrido, lirico e filosofico insieme, che esplora il rapporto tra corpo, dolore e intelligenza artificiale. Cosa significa soffrire in un mondo in cui anche il lutto viene quantificato, tradotto in segnali, inserito in una pipeline predittiva?

Infine Frizioni, una sezione collettiva che funziona come un collage di pratiche e visioni alternative. Herndon e Dryhurst, Simnett, Ridler, Zach Blas e altri artisti e teorici si intrecciano in un dialogo aperto che sfida il linguaggio chiuso dei modelli. Non è un caso che qui il formato diventi più aperto, ibrido, performativo. È un invito a immaginare una cultura dell’AI che non sia solo consumo di tool, ma frizione produttiva, errore consapevole, deviazione poetica.

Chiude il libro un testo importantissimo di Lauren Klein e Catherine D’Ignazio: Un femminismo dei dati per l’AI. Non è un saggio tecnico, è una bussola etica. Ci ricordano che dietro ogni dataset c’è una scelta, un’omissione, un’intenzione. Che i dati non parlano da soli, e che l’intelligenza non è mai neutra. È forse il messaggio più potente del libro: se vogliamo davvero cambiare le AI, dobbiamo prima cambiare la nostra idea di conoscenza.

AI and Conflicts 2 è un libro necessario. Non perché spiega tutto (non lo fa), ma perché rompe il frame. È una raccolta di voci che disturbano, che fanno rumore, che sabotano. Non ti dice cosa pensare, ma ti costringe a pensarci. E in un’epoca in cui l’intelligenza è sempre più automatica, questo è forse l’atto più umano che ci resta.