Nel 2025, parlare di “intelligenza artificiale creativa” è come discutere del sesso degli angeli con una calcolatrice. Ma ogni tanto, tra una valanga di immagini di Barbie in stile cyberpunk e Leonardo da Vinci trasformato in influencer da Midjourney, spunta qualcosa che ci costringe a rallentare, a dubitare, a chiedere: e se ci fosse qualcosa di più profondo qui sotto?

Il lavoro di Terence Broad, artista e ricercatore britannico, potrebbe essere proprio quel raro caso in cui il generativo smette di scimmiottare il reale per cominciare a produrre qualcosa di autenticamente alieno. E tutto questo senza usare alcun dato di training. Esatto: niente set di immagini, niente prompt, niente modelli addestrati su migliaia di opere pittoriche rubate a Rothko o a chi per lui. Solo una rete neurale intrappolata in un loop autoreferenziale e lasciata vibrare fino a generare — sorpresa — immagini astratte, pure, pulsanti, come se l’AI stesse sognando per conto proprio.

Broad ha chiamato questo esperimento (un)stable equilibrium, ma potrebbe benissimo essere titolato “esperimento Frankenstein inverso”: invece di assemblare pezzi umani per simulare la vita, Broad ha bloccato l’accesso al mondo esterno, inducendo la macchina a creare da una camera anecoica algoritmica. Il risultato, pubblicato su YouTube, ha il fascino ipnotico del colore in movimento, simile ai primi lavori di Rothko, quelli meno ossessionati dalla morte e più vicini a un’idea metafisica di armonia.

Eppure Rothko non c’entra. Nessuna delle opere è stata usata per addestrare la rete. “Non volevo fare dataset,” dice Broad. “Mi ero stancato.” Dietro questa rinuncia non c’è solo un atto etico, ma anche una fatica esistenziale da data wrangler: la sua prima esperienza lavorativa è stata addestrare modelli di machine learning su immagini di videosorveglianza a Milton Keynes, città britannica così ordinaria da sembrare generata da un GAN pigro. Dopo mesi passati ad annotare 150.000 immagini di incroci, semafori e rotonde, Broad ha deciso: mai più dataset.

Ma l’illuminazione arriva con il fallimento. Dopo aver ricevuto una notifica DMCA da Warner Bros per aver “ricreato” Blade Runner con un autoencoder, Broad si ritrova in una spirale kafkiana fatta di algoritmi censorii, copyright automatici e minacce legali. “Non voglio basare la mia pratica su roba che non mi appartiene,” dichiara. Così si spinge verso una forma di astinenza radicale dal dato, una specie di dieta chetogenica dell’intelligenza artificiale.

Ed è qui che comincia il vero viaggio.

Nel suo dottorato alla Goldsmiths, Broad affronta un paradosso quasi zen: come generare senza imitare? Ogni modello generativo, per definizione, è un imitatore: apprende dai dati e rigurgita variazioni. Ma cosa succede se togliamo la pappa? Se spegniamo Netflix, cosa sogna la rete neurale?

Broad ristruttura un GAN (Generative Adversarial Network) per sostituire i dati d’ingresso con un secondo generatore, creando un sistema dove due reti si imitano a vicenda, in una danza cieca. Niente discriminatore, solo generatori che si osservano l’un l’altro come due specchi messi faccia a faccia. I primi risultati sono desolanti — grigi, amorfi, “blob” di rumore. Ma poi inserisce una “color variance loss” e qualcosa accade: le immagini iniziano a respirare, si aprono in campi di colore, emergono vibrazioni, variazioni, una specie di estetica primitiva.

Il paragone con Rothko è inevitabile, tanto che Broad salva i primi esperimenti in una cartella chiamata “Rothko-esque”. Eppure non è l’estetica che conta, ma il processo. L’opera non è la tela, ma l’atto di chiudere il rubinetto del mondo e osservare cosa succede dentro la macchina. “Non è che ho imposto nulla,” dice Broad. “Ma forse le mie preferenze estetiche hanno agito da metaeuristica.”

La vera provocazione sta tutta qui: la creatività, anche artificiale, può emergere dal vuoto? O si tratta solo di retroingegneria del caos, come un chitarrista che ottiene feedback casuale avvicinando troppo l’ampli al pick-up?

La risposta di Broad è sospesa, e volutamente non risolutiva. Sospetta che il suo gusto personale abbia “contagiato” il sistema, ma accetta il mistero. Non vuole spiegare troppo. E questo, paradossalmente, lo rende uno dei pochi nel campo a trattare l’intelligenza artificiale non come un idolo o un mostro, ma come uno strumento ancora parzialmente incomprensibile — e quindi umano, troppo umano.

C’è un’ironia squisita in tutto questo. Mentre il mondo corre verso il prompt perfetto, verso l’ottimizzazione semantica e la generazione iper-ingegnerizzata del contenuto, Broad spegne i fari e lascia che il GAN si muova nel buio. È un’operazione quasi eretica, in un’epoca dominata dal datafarming indiscriminato. Ma è anche una critica implicita al nostro culto della performance, della somiglianza, dell’imitazione a tutti i costi.

Eppure la maggior parte delle persone non vuole sapere come funziona la magia. Le piattaforme spingono sull’usabilità, sull’interfaccia a un click, mentre l’interno — le matrici, i pesi, i bias — resta inaccessibile, opaco. “Alla fine sono solo moltiplicazioni di matrici,” dice Broad. Eppure questa banalità matematica produce suggestioni quasi mistiche, come se il GAN fosse una divinità oracolare, o un demone intrappolato in un circuito.

In questo senso, (un)stable equilibrium non è arte nel senso classico, ma una provocazione concettuale: cosa succede quando togliamo la referenza? Cosa emerge quando l’intelligenza non è addestrata, ma abbandonata a se stessa? È ancora creatività, o solo rumore estetizzato?

Forse entrambe. Forse nessuna delle due. Ma in un’epoca in cui ogni IA è addestrata per compiacere, per prevedere, per plagiare meglio, Broad ha avuto il coraggio di dire: e se la lasciassimo solo sbagliare?