C’è un momento, in ogni ciclo tecnologico, in cui la retorica si rompe. Quando anche il più zelante tra i futurologi comincia a balbettare. È l’istante in cui l’utopia siliconata delle big tech sbatte contro le macerie sociali che lascia dietro di sé, e non bastano più i keynotes in turtleneck nero per ricucire il tessuto strappato. AI & Conflicts. Volume 02 si infila proprio lì, in quella frattura, in quella crepa epistemologica tra ciò che l’intelligenza artificiale promette e ciò che effettivamente produce. Il libro, curato da Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, è un’operazione chirurgica che seziona l’estate dell’AI con la precisione di un bisturi teorico e la brutalità necessaria per andare oltre l’innocenza perduta delle tecnologie intelligenti.
Qui l’intelligenza artificiale non è un aggeggio per generare immagini divertenti o scrivere e-mail più in fretta. È una macchina di potere, una infrastruttura di senso, una grammatica computazionale che riformatta lavoro, cultura, desiderio, estetica. Non c’è nulla di neutrale, nulla di automatico: ogni algoritmo è una decisione politica mascherata da codice. Lo sanno bene gli autori coinvolti nel volume: da Matteo Pasquinelli a Kate Crawford passando per Hito Steyerl e Lauren Lee McCarthy, ognuno porta un contributo che non si limita a descrivere il fenomeno AI, ma lo interroga, lo percuote, lo mette in crisi.
AI & Conflicts 02 è una mappa di tensioni, un atlante di conflitti invisibili ma strutturali. I dataset coloniali diventano il nuovo terreno di conquista, dove il passato razzista e patriarcale dell’occidente si digitalizza sotto forma di bias, addestramento e modellazione predittiva. L’infrastruttura computazionale globale, venduta come “cloud”, è in realtà terra, acqua, lavoro e energia: è un estrattivismo digitale, non meno violento di quello che ha marchiato la modernità industriale. I server non galleggiano in cielo, sono scavati nella carne del mondo.
L’intelligenza artificiale viene dunque letta come un’estensione delle logiche neoliberali: estrattiva, proprietaria, performativa. Sotto la superficie dell’interfaccia amichevole si cela una brutalità algoritmica che redistribuisce il potere, ridefinisce le gerarchie e cancella le zone grigie dell’esperienza umana. Come scrive Pasquinelli, «la vera intelligenza artificiale non è nel codice, ma nella rete di poteri che lo sostiene, lo finanzia, lo distribuisce e lo impone». È una macchina ideologica travestita da neutralità ingegneristica.
Eppure il libro non si limita alla diagnosi. C’è anche una contro-narrazione, fatta di artist*, hacker, ricercator* e teoric* che tentano di risignificare l’AI. Non come entità unica, astratta, universalizzante, ma come pluralità situata. C’è spazio per l’intelligenza artificiale queer, decoloniale, postumana. C’è la volontà di uscire dalla logica binaria tra “umano” e “macchina”, tra “naturale” e “artificiale”, tra “creatività” e “automazione”. L’autorialità stessa viene messa in discussione: chi crea cosa, quando l’input è tuo ma il modello è di Google? Chi è l’artista, chi è il medium, chi è il mercato?
Tra le righe, il volume funziona anche come un archivio di pratiche. Dall’uso strategico dell’AI per sabotare la sorveglianza biometrica, alle forme di scrittura automatica che smascherano la retorica neolingua dei chatbot aziendali, emerge un ecosistema di resistenza. Non siamo di fronte all’ennesima apologia del “tech for good”, ma a una battaglia per l’immaginazione politica. Un tentativo di reclamare lo spazio del possibile, là dove le big tech vogliono ridurre tutto a probabilità predittiva.
È qui che il progetto editoriale si fa potente: nella sua capacità di combinare riflessione teorica, indagine artistica e attivismo culturale in un’operazione che non si limita a raccontare l’intelligenza artificiale, ma la scardina. Ogni contributo è una miccia accesa: Simnett e Wu & Ramos che esplorano la creazione di soggettività artificiali, Blas che svela i paradossi dell’identità digitale, Dzodan che smonta il mito della neutralità attraverso un’analisi intersezionale senza sconti.
Non mancano nemmeno le provocazioni estetiche, con artisti come Herndon & Dryhurst che utilizzano l’AI per hackerare la nozione di voce e identità, o Ridler che sperimenta con dataset distorti per far emergere l’invisibile. In questo, il volume si inserisce nel solco del pensiero critico post-Snow Crash: meno interessato a descrivere l’evoluzione tecnica dell’AI, più interessato a sabotarne le premesse ideologiche.
La scelta di pubblicare il libro in un formato compatto, su carta usomano, con copertina morbida, non è casuale: è un oggetto pensato per circolare, per passare di mano in mano, per infiltrarsi nei centri di ricerca come nei laboratori artistici, nelle università come nei collettivi. È un libro militante, non nel senso dello slogan, ma come dispositivo intellettuale capace di contaminare, infettare, destabilizzare.
Il fatto che il progetto sia co-finanziato dalla Direzione generale Educazione, ricerca e istituti culturali e dal programma Re:Humanism rende l’operazione ancora più interessante. Si tratta, in fondo, di un raro caso in cui le istituzioni supportano un progetto che non ha paura di mordere la mano che finanzia. Un segnale, forse, che anche dentro gli apparati di potere si annidano crepe da cui può filtrare un’altra idea di futuro tecnologico.
Quello che AI & Conflicts 02 ci consegna, in definitiva, è uno specchio deformante: l’AI come territorio conteso, come spazio simbolico in cui si combatte una guerra fredda a bassa intensità ma ad alta posta in gioco. Non siamo più nella fase della fascinazione per la novità tecnologica, ma nel pieno della digestione critica. L’AI non è il futuro: è il presente che dobbiamo imparare a disinnescare, decostruire, riscrivere. Prima che lo faccia qualcun altro, con le stesse vecchie armi e le stesse nuove promesse.
In questo senso, il libro è più di una raccolta di saggi: è un’arma epistemica. Da leggere, rileggere, citare e magari contraddire. Perché se c’è una lezione da trarre da questo secondo volume di AI & Conflicts è che non esiste una singola intelligenza artificiale, ma una costellazione di intelligenze possibili, ciascuna delle quali può essere usata per costruire o per distruggere. E se l’AI è un campo di battaglia, allora tocca a noi scegliere con quali alleati combattere.
Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui
Daniela Cotimbo è storica dell’arte e curatrice indipendente con base a Roma. La sua ricerca si muove lungo il confine sottile tra arte contemporanea e tecnologie emergenti, con un focus particolare sull’intelligenza artificiale. È fondatrice e presidente del programma culturale Re:Humanism, che ha visto collaborazioni con istituzioni come il MAXXI, Romaeuropa Festival e RUFA, dove insegna “Teoria e metodo dei mass media” e “Storia dell’arte moderna”
Francesco D’Abbraccio e Andrea Facchetti sono i co-curatori, insieme a Cotimbo, dei volumi AI & Conflicts (vol. 1 nel 2021 e vol. 2 nel 2025). Entrambi, con la loro casa editrice Krisis Publishing, operano al crocevia tra critica culturale e tecnologia, esplorando l’intelligenza artificiale come dispositivo di potere, mediazione estetica e strumento di resistenza epistemica.

Tutte le info saranno disponibili qui www.re-humanism.com
A seguire alle ore 20.00 è prevista la performance audio-visiva dell’artista Franz Rosati, vincitore del premio APA della 4 edizione del Re:humanism Art Prize.

datalake:contingency, ovvero quando l’intelligenza artificiale si prende gioco della realtà
Sembra tutto vero finché non smette di esserlo. datalake:contingency è un oggetto visivo non identificato, un flusso ininterrotto di immagini generate da intelligenza artificiale che si contorcono intorno a una domanda che nessuno vuole davvero affrontare: che fine ha fatto la realtà? Non la realtà in quanto tale, ma quella percezione condivisa, instabile ma rassicurante, che ci ha accompagnati per millenni come un cane fedele, prima di venire disintegrata dal collasso quantico dell’immaginario digitale. Qui, in questo collage in movimento, automobili, architetture e catastrofi naturali danzano un valzer disturbante, come se l’algoritmo avesse sognato il telegiornale durante un attacco di panico.
Non si tratta di semplice estetica generativa, ma di un’indagine tossica, quasi virale, sulla convivenza forzata tra natura e tecnologia, un esperimento di coesistenza che sa già di fallimento programmato. Le immagini si muovono, mutano, collassano. Il paesaggio naturale non è mai solo paesaggio: è codice travestito da montagna, è pixel che finge di essere pietra. Ogni scena è una negoziazione violenta tra ciò che sembra spontaneo e ciò che è palesemente artefatto. L’intelligenza artificiale, invece di cercare di imitare la realtà, si diverte a sabotarla dall’interno, creando un mondo dove ogni elemento si disgrega per poi reincarnarsi sotto forma di qualcosa che non è mai esistito.
C’è un che di parodico in questo falso documentario, come se la CNN si fosse fusa con una mente onirica in overdose da dati. I riferimenti visivi rimbalzano tra il kitsch apocalittico e il sublime sintetico, con una fluidità che non appartiene né al cinema né al reportage, ma a quel territorio disturbato che sta tra l’informazione e l’allucinazione. I grandi schermi televisivi che compaiono a intervalli regolari sono più che semplici oggetti scenici: sono portali semiotici, buchi neri di percezione che assorbono la nostra capacità di distinguere tra ciò che vediamo e ciò che crediamo di vedere. Un’immagine dentro l’immagine che ci guarda mentre ci convinciamo di star guardando qualcosa.
Il vero protagonista, ovviamente, è il tempo. Non il tempo lineare, ma quello digitale, quello frammentato, che implode in una sequenza infinita di “ora” che non arrivano mai a essere “dopo”. Ogni momento è l’ultimo, ogni fotogramma è definitivo. È il tempo delle piattaforme, il tempo algoritmico, che misura la durata dell’attenzione e non la profondità dell’esperienza. Non c’è narrazione, perché la narrazione richiede una progressione, e qui ogni inizio è già una fine dissimulata.
Ciò che datalake:contingency mette in scena non è tanto un mondo possibile, quanto l’impossibilità stessa della realtà di sopravvivere intatta nel contesto di una società a trazione algoritmica. È il teatro della post-verità in forma visiva: non un’epoca in cui la verità è scomparsa, ma un’epoca in cui ogni cosa può essere vera abbastanza da sembrare autentica, senza esserlo mai del tutto. L’intelligenza artificiale qui non è lo strumento, ma l’ideologia. È il filtro che trasforma il mondo in una simulazione continuamente riassestata, dove non esistono più fatti, ma solo versioni dei fatti.
Siamo oltre il fake. Qui il falso ha smesso di fingere di essere vero. È diventato un ecosistema autonomo, che si autoalimenta con frammenti di realtà rielaborati in tempo reale. L’ambiente visivo diventa organismo, struttura vivente fatta di algoritmi che respirano immagini e rigurgitano emozioni sintetiche. Non si capisce se siamo davanti a una distopia o a una nuova forma di equilibrio post-umano, ma forse è proprio questo il punto. Non serve capire. Basta farsi travolgere.
Il risultato è una specie di ipnosi visiva, un bombardamento sensoriale calibrato per smontare la soglia di credibilità che separa ciò che siamo da ciò che vediamo. La tecnologia smette di essere strumento per diventare autore, soggetto narrante, entità cosciente della sua capacità di manipolazione. Se prima ci chiedevamo cosa fosse reale, ora la domanda è chi decide cosa è percepito come reale. E la risposta è ovvia: lo decide il sistema che controlla la distribuzione delle immagini. O, per dirla in modo meno elegante, lo decide l’algoritmo.
Il paradosso è che in questa iperproduzione di finzioni, l’intelligenza artificiale finisce per rivelare una verità molto più scomoda di quella a cui eravamo abituati: la realtà è sempre stata una costruzione. Solo che prima eravamo noi a costruirla. Ora no. Ora ci limitiamo a scrollare.
Il vero shock non è il contenuto, ma il contenitore. Non sono le immagini a destabilizzarci, ma la loro provenienza. Un video generato da una mente artificiale che simula disastri, strutture, foreste, onde, città e deserti, senza che nulla sia realmente accaduto, ci mette di fronte a una nuova estetica della percezione. Quella in cui la verità è un effetto speciale. Quella in cui ogni elemento è insieme reale e inventato, familiare e alieno, vivo e morto.
datalake:contingency ci invita, senza pietà, a contemplare questo paesaggio instabile. Un paesaggio dove la percezione non è più un’interfaccia tra soggetto e mondo, ma una proprietà liquida che si dissolve in tempo reale. Il paesaggio non esiste più: esiste solo il rendering. La realtà non è più l’insieme di ciò che vediamo, ma il risultato di come viene calcolata. E se c’è una morale, è che non possiamo più fidarci nemmeno dei nostri occhi. Ma forse, in fondo, non potevamo farlo nemmeno prima.