Chroma ha appena piazzato una pietra tombale su una delle narrazioni più pigre dell’ultimo anno: “RAG è morto”. No, non è morto. È stato solo usato male, e i dati lo confermano con una brutalità che dovrebbe far arrossire chiunque continui a ripetere slogan per fare engagement su LinkedIn. Le loro ricerche mostrano un fenomeno tanto intuitivo quanto ignorato: all’aumentare della lunghezza del contesto, la performance dei modelli peggiora in modo misurabile. Lo chiamano “context rot”. Io lo chiamerei semplicemente logica, ma il marketing tecnologico ama i neologismi a effetto. Eppure questa volta il termine funziona, perché racchiude in due parole il problema reale della Retrieval-Augmented Generation: più non è meglio. Mai stato, mai lo sarà.
Autore: Dina Pagina 16 di 57
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.
Hai ragione a notare un salto nella qualità dei motori 3D generativi basati sull’intelligenza artificiale. Odyssey rappresenta proprio quel punto di rottura, dove la generazione di mondi virtuali interattivi, fotorealistici e almeno nel demo “live”, si avvicina alla fantascienza.
Immagina di premere W e vederti trasportato in una radura con una baita o un centro commerciale, senza necessità di asset precaricati o di un vero game engine come Unity o Unreal. Tutto è animato al volo, un nuovo frame ogni 40 millisecondi e l’intera esperienza è orchestrata da un world model AI.
Nel cuore dell’argomentazione di Utkarsh Kanwat si legge una frase che fa sobbalzare chiunque viva di hype e speculazioni sull’intelligenza artificiale automatica: «Error rates compound exponentially in multi‑step workflows» . Tradotto dal bureaucratese tech: se ogni passaggio di un agent ha il 95 % di successo, alla ventesima iterazione sei ridotto al 36 % di affidabilità complessiva. Roba da crittografia, ma al contrario: la probabilità di fallimento sale vertiginosamente. E in produzione non puoi permettertelo, servono livelli attorno a 99,9 %.
Un annuncio pubblicitario basato sull’intelligenza artificiale diventa davvero dirompente quando riesce a fare tre cose insieme: creare un impatto emotivo profondo, mostrare in modo concreto e narrativo le potenzialità dell’AI e cambiare la percezione dell’intelligenza artificiale da semplice strumento a forza culturale. La campagna di Perplexity ispirata a Squid Game con Lee Jung-jae colpisce proprio per questo. La scelta dell’attore non è solo marketing da celebrity, è un simbolo: l’AI viene associata alla strategia ad alto rischio, alla competizione e all’istinto di sopravvivenza. Un messaggio subliminale che non parla di tecnologia, ma di potere: l’AI ci aiuterà o ci batterà al nostro stesso gioco? Questo tipo di tensione resta impressa molto più di uno spot aziendale generico o di un demo tecnico.
Taiwan non sta più giocando a fare il fornitore per conto terzi dei giganti americani e cinesi. Ha appena lanciato una mossa da 510 miliardi di dollari che somiglia più a una dichiarazione di guerra industriale che a un piano economico. La chiamano “Ten Major AI Infrastructure Projects”, ma sarebbe più corretto ribattezzarla “Operazione Sovranità Digitale”. L’obiettivo? Trasformare l’isola nella prima “smart technology island” del mondo e, incidentalmente, scalzare chiunque altro osi anche solo pronunciare la parola “AI” senza pagare dazio a Taipei.
Chi ancora pensa che l’intelligenza artificiale sui sistemi operativi serva solo a “fare riassunti” non ha capito nulla. Microsoft lo sa benissimo e gioca la sua partita più audace con Copilot Vision, il nuovo strumento che, in modo molto elegante e apparentemente innocuo, scansiona tutto ciò che appare sul tuo schermo. Sì, hai letto bene: tutto. Documenti di lavoro, chat private, fogli Excel, grafici sensibili. Ti basta chiedere qualcosa e l’AI di Windows 11, con un candore quasi offensivo, ti risponde come se fosse il tuo analista personale. A prima vista, sembra geniale. Ma se guardi meglio, ti accorgi che questo è l’inizio di un cambiamento radicale nella percezione stessa del sistema operativo. Windows non è più un semplice strumento. È diventato un osservatore costante, un’entità che interpreta, suggerisce, e forse memorizza molto più di quello che vorresti ammettere.
“Il futuro del web non è più una pagina di link blu, ma un cervello che decide per te cosa è utile”. Non è marketing, è la nuova regola del gioco scritta da Google con il suo AI Mode e con gli AI Overviews che stanno divorando la vecchia Seo come un algoritmo affamato. Il motore di ricerca non si limita più a restituire risultati, interpreta, sintetizza, connette i puntini e ti offre una risposta già confezionata. Il problema? Gli utenti sembrano apprezzarlo. O, per essere più precisi, sembrano smettere di cliccare.
Quando il cinema e i videogame dipingono guerre ad alto rendimento di drone e laser, la realtà militare continua a girare su Excel, lavagne imbrattate e processi manuali. Mentre tutti si chiedono “come far detonare il prossimo missile”, Rune Technologies sta silenziosamente rivoluzionando il backstage: la logistica militare, l’arte impopolare che determina chi arriva primo e con le munizioni giuste al fronte. Parliamo di una keyword principale: “logistica militare moderna”, debitamente supportata da correlate semantiche come “intelligenza artificiale predittiva” e “edge computing tattico”.
Il cervello artificiale che ha preso oro sembra un titolo da romanzo cyberpunk, ma è realtà. OpenAI ha portato a casa una medaglia d’oro all’International Mathematical Olympiad 2025 con un suo modello sperimentale, un reasoning llm general purpose capace di risolvere problemi di livello olimpionico come un campione umano. E non parliamo di un modello matematico dedicato, non è un GPT‑5 segreto, non è uno di quei progetti iperspecializzati come AlphaGeometry. È un’intelligenza pensata per ragionare in modo generale, e lo ha fatto senza scorciatoie, senza database di trucchi preconfezionati, senza imitare pattern di soluzioni. Ha pensato, ha ragionato, ha vinto. E questo cambia tutto.
Pochi eventi riescono a intrecciare con tanto garbo l’ambizione umana, la spiritualità e la narrazione di potere come il gesto di Papa Leone XIV nella sua recente visita all’osservatorio astronomico vaticano a Castel Gandolfo. Il pretesto? Il 56° anniversario dell’allunaggio. Il simbolismo? Assoluto. Il messaggio? Che il cielo, dopotutto, non è mai stato solo una questione di scienza, ma un terreno negoziabile tra Dio e l’uomo, con il Vaticano come mediatore silenzioso ma strategico.
Mentre il mondo si perde nelle tensioni geopolitiche terrestri, il papa sceglie di elevare lo sguardo e lo fa non da San Pietro, ma dalla quieta e apparentemente anacronistica cornice delle Ville Pontificie, un luogo che custodisce da oltre un secolo il punto d’intersezione tra il cosmo e la fede cattolica. L’osservatorio, fondato nel 1891 da Leone XIII, non è una bizzarria esoterica della Curia, ma uno dei laboratori astronomici più rispettati del pianeta, al punto da vantare una delle più importanti collezioni di meteoriti, inclusi frammenti provenienti da Marte. E questo, si badi, in un contesto religioso che fino a poco tempo fa veniva stereotipato come nemico giurato del pensiero scientifico.
In un Paese che considera ancora l’intelligenza artificiale un tema da talk show, l’idea che un professore romano possa guidare la conferenza più importante al mondo sul Natural Language Processing sembra quasi un cortocircuito culturale. Roberto Navigli, docente alla Sapienza e “papà” del Large Language Model italiano Minerva, sarà il Chair di ACL 2025, il summit globale che detta le regole del futuro digitale. Chiunque abbia compreso il significato profondo di questa notizia sa che non si tratta solo di un onore accademico. È un momento di rottura per il nostro Sistema Paese, l’ennesima dimostrazione che, quando si osa e si investe in cervelli veri, anche l’Italia può sedersi al tavolo dei giganti.

Digitale oggi non è più un’opzione ma una condanna. Siamo seduti sull’orlo di un abisso che chiamiamo rivoluzione tecnologica, ma qui non si tratta più solo di innovare, bensì di sopravvivere alle conseguenze di un cambiamento accelerato che nessuna precedente epoca storica ha conosciuto con tale rapidità e intensità. La trasformazione digitale ha da tempo smesso di essere un fenomeno emergente: è una realtà consolidata, inscindibile, che ci trascina dentro nuove architetture sociali, economiche e politiche. Ignorare questa realtà non è soltanto ingenuo, è un suicidio collettivo di intelligenza.
Lavorare con MCP (Model Context Protocol) è uno di quei momenti rari in cui si alza il sipario su una rivoluzione nascosta sotto la polvere dell’ordinario. “Oh cavolo, questo cambia tutto” non è solo un mantra da startup ma una verità con cui fare i conti, soprattutto per chi ha visto passare l’evoluzione dell’intelligenza artificiale dai laboratori universitari fino alle scrivanie dei CTO. MCP, per chi ancora non fosse caduto nella sua orbita, non è un semplice framework o un altro giocattolo per smanettoni: è quel ponte invisibile che finalmente connette i grandi modelli linguistici (LLM) al mondo reale, ai sistemi, ai dati concreti.

Chi oggi parla di neuro symbolic nell’ecosistema GenAI lo fa con la stessa leggerezza con cui una startup promette di “reinventare la finanza” usando un foglio Excel colorato. Il termine è usato come una parola magica, un talismano lessicale per rassicurare board e investitori: “è neuro symbolic, quindi è sicuro”. No, non lo è. E chiunque conosca i fondamenti dell’integrazione neuro simbolica sa che quello che viene venduto oggi come tale è solo una caricatura goffa.

Uno sguardo freddo su documento presenato a ISCA 2025 (52nd Annual International Symposium on Computer Architecture, Tokyo Japan, June 21 – 25, 2025) di DeepSeek‑V3 rivela un mix esplosivo di ingegneria hardcore e visioni che rasentano la fantascienza. Il modello da 671 miliardi di parametri gira su “solo” 2 048 GPU NVIDIA H800, sfruttando Multi‑Head Latent Attention per ridurre l’occupazione dei KV cache a 70 KB per token, Mixture‑of‑Experts che attiva solo 37B parametri per token (circa 5 % del totale) e precisione FP8 che dimezza tempi e costi. La topologia “Multi‑Plane Network” ottimizza congestione e latenza nel training, placcando forti colpi al muro hardware‑model co‑design arXiv.
Un Jack Russell come il nostro Sole non si ferma mai. È un concentrato di energia che ignora la fisica newtoniana e sembra governato da una logica propria, un’oscillazione caotica di pura intenzione. Perché parlo di un cane iperattivocome Sole quando dovrei parlare di Physical AI? Perché nessuna batteria al litio, nessun pannello solare, nessuna turbina eolica riesce a replicare quella combinazione di istinto, apprendimento e reazione istantanea che un semplice mammifero di pochi chili manifesta in modo naturale. È la metafora perfetta per capire quanto sia riduttivo parlare di energia solo in termini di watt e joule, quando il vero tema è la trasformazione intelligente dell’energia in azione. Physical AI, oggi, non è altro che il tentativo imperfetto di creare macchine che si comportino più come un Jack Russell e meno come un’automobile ben programmata.
In un’epoca in cui tutto sembra cambiare a velocità vertiginosa, la relazione tra intelligenza artificiale (AI) e lavoro umano si impone come uno degli argomenti più cruciali, se non il più essenziale. Siamo di fronte a un cambiamento epocale che tocca non solo gli aspetti economici e sociali, ma anche la nostra stessa identità, profondamente intrecciata con la nostra professione. Se i lavori svaniscono, con essi rischia di scomparire anche il nostro senso di autostima.
Donald Trump, l’uomo che ha trasformato la politica americana in uno show senza pause, torna a far parlare di sé con una nuova impresa destinata a infiammare dibattiti globali: la sua candidatura al Nobel per la pace. Mentre il mondo fatica a tenere il passo con i suoi tweet incendiari e le politiche “America first”, ecco che il tycoon si lancia in una corsa per il premio più prestigioso al mondo, trasformando un’istituzione storica in un campo di battaglia politico. Il risultato? Un mix di ironia, scetticismo e propaganda da manuale.
In un mondo dove le tecnologie emergenti non sono più semplici supporti ma veri e propri protagonisti, l’intelligenza artificiale si affaccia con prepotenza al centro del dibattito economico globale, in particolare riguardo alla doppia missione della Federal Reserve: massima occupazione e stabilità dei prezzi. Lisa Cook, governatore della Fed, ha riassunto con una chiarezza chirurgica la sfida che ci attende. Da una parte, l’AI promette di rivoluzionare il mercato del lavoro, potenziando la produttività dei lavoratori ma allo stesso tempo alterando radicalmente la composizione stessa delle mansioni. Dall’altra, l’effetto sui prezzi non è affatto scontato, oscillando tra una possibile riduzione delle pressioni inflazionistiche grazie alla maggiore efficienza e l’aumento dei costi derivante dall’investimento massiccio in nuove tecnologie.
L’analisi finanziaria avanzata su Perplexity integra l’intelligenza artificiale, dati aggiornati in tempo reale e capacità interattive per supportare professionisti, analisti e investitori nelle valutazioni aziendali, nelle ricerche di mercato e nella gestione strategica di portafoglio.
La verità è che se ti ostini a credere che l’analisi finanziaria avanzata sia solo questione di leggere bilanci trimestrali, sei già fuori dal gioco prima ancora di entrare. Gli hedge fund hanno capito da anni che i numeri ufficiali sono la parte più inutile di questa recita. Li usano solo per convincere i piccoli investitori che il “fondamentale” conta davvero, mentre il vero denaro si muove su segnali che non troverai mai nel comunicato stampa di un earnings report. C’è una frase che gira tra i desk buy-side di Manhattan, e no, non è una battuta per fare networking: “il valore non è nei dati, è nelle discrepanze”. Un’ovvietà che nessuno ti spiega perché funziona finché il 90% del mercato continua a inseguire guidance ufficiali come se fossero oro colato.
La promessa di crescita nel 2026 di ASML, gigante olandese dei chip, si tinge di foschia. il CEO Christophe Fouquet, pur riconoscendo la solidità delle fondamenta dei clienti AI, mette un freno all’entusiasmo: “non possiamo confermare la crescita” in un contesto geopolitico e macroeconomico sempre più incerto. La dichiarazione arriva a caldo dopo il report del secondo trimestre, ricordandoci che nel mondo dei semiconduttori la volatilità è la nuova normalità. I chip restano il cuore pulsante dell’innovazione, ma il battito potrebbe rallentare o accelerare a sorpresa, dettato da forze fuori dal controllo aziendale.

Ci siamo davvero spinti fin qui? Qualche giorno fa Musk ha lanciato Ani, la “waifu” digitale di Grok, un concentrato di kawaii erotico con un NSFW mode che sfiora il borderline tra aneddoto adolescenziale e flirt da adulti. Nessuna sorpresa che ora stia mettendo le mani su un “husbando”: un compagno maschile, scuro, misterioso, e broody, ispirato esplicitamente a Edward Cullen e Christian Grey. Sì, proprio quelli. È una decisione che fa venire in mente l’espressione perfetta: “ottima idea… forse”.

Ore 18, Siamo stati initati all’evento Sala della Lupa. IA e Parlamento, “Umanità in equilibrio tra robot, Intelligenza artificiale e natura” Lectio magistralis di Maria Chiara Carrozza con l’introduzione della Vicepresidente, Anna Ascani.
La Professoressa Maria Chiara Carrozza, voce autorevole di una saga robotica Asimoviana che sfida la banalità e reclama spazi di profondità in un mondo dominato da feed superficiali, ci ha coinvolto con “passione” e i suoi ricordi d’infanzia, in un circuito di innovazione dove intelligenza artificiale e robotica si fondono in un unico ritmo.
Nel dialogo tra AI, robotica e diritti umani emergono proposte chiare: Carrozza proclama un equilibrio storico, con la sua nascita del mondo dell’automotive Ford in America, e FIAT in Italia e poi della applicazione dei Robots, dove la macchina non fagocita il lavoro umano, ma lo amplia. È un paradigma che sposta l’automatizzazione su ciò che è ripetitivo e usurante, restituendo dignità al lavoro umano .
“Non esistono sistemi sicuri, esistono solo sistemi ancora non compromessi. E il fattore umano è l’unico exploit che nessun aggiornamento potrà mai patchare definitivamente.” Massimiliano Graziani di Cybera entra nell’intervista con questa frase, senza preamboli, come se volesse azzerare la retorica prima ancora che la domanda venga formulata. Il riferimento è all’incidente che ha scosso il già delicato equilibrio della sicurezza informatica globale, quando un dipendente del Dipartimento per l’Efficienza Governativa ha caricato su GitHub uno script chiamato “agent.py” con la chiave API privata di xAI, spalancando una finestra sui modelli Grok e su decine di altre intelligenze linguistiche avanzate. Una svista, dicono. Una minaccia nazionale, ribatte Graziani.
Immagina un assistente digitale che non solo capisce, ma agisce. Non sono descrizioni vaghe di “AGI”. Parliamo di produzione, di valore e di flussi operativi reali. LangChain ha appena rilasciato una guida step‑by‑step su come costruire un AI agent pratico e pronto per la produzione. Quindi smettiamo di sognare: questa è la road map per chi vuole risultati, non pipponi filosofici.
Il segreto? Divisione netta tra macro‑futuro tech e micro‑azioni effettive. Ogni step – da job definition a deploy – rispecchia la struttura SOP industriale, cosa che garantisce precisione e scalabilità.

Sarà interessante, più avanti, tra una coda in autostrada e l’ennesima newsletter su quanto l’IA cambierà tutto, tornare davvero alle basi. Non quelle da manuale Harvard Business Review, ma le fondamenta epistemologiche dell’interazione uomo-macchina. Perché ogni tanto bisogna fare il backup del pensiero critico, soprattutto ora che i large language model (LLM) stanno colonizzando silenziosamente il nostro modo di ragionare. E lo fanno con un’astuzia algoritmica che nemmeno gli autori del nudge avrebbero saputo scrivere così bene.
Non c’è bisogno di leggere Daniel Kahneman in lingua originale per capire cosa stia succedendo. Bastano un paio di prompt su ChatGPT o Claude per accorgersi che qualcosa non torna. L’apparente abbattimento delle barriere all’ingresso, quella sensazione di accesso diretto a competenze linguistiche, tecniche, persino filosofiche, è una messinscena raffinata. L’interfaccia parla semplice, ma dietro c’è un teatro epistemico in cui gli attori sono solo marionette addestrate a confermare ciò che già pensiamo.
NotebookLM non è più soltanto l’ennesimo assistente AI che promette di aiutarti a prendere appunti meglio. Da oggi si comporta come un media. Un aggregatore autorevole. Un portale culturale travestito da app. Google ha appena annunciato l’introduzione dei cosiddetti “notebook in vetrina”, una selezione di contenuti editoriali curati da testate come The Economist e The Atlantic, accademici di varie discipline, autori, ricercatori e perfino Shakespeare, che evidentemente non aveva firmato alcun NDA. È il momento in cui l’AI da strumento diventa contenuto. O, per dirla come piace a Mountain View, da modello linguistico si trasforma in destinazione esperienziale.

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.
Immaginate di vivere in una città dove solo chi possiede l’unica autostrada può decidere chi può usarla, quando, e a che prezzo. Se sei un piccolo trasportatore o un nuovo imprenditore, sei costretto a pagare quel pedaggio, oppure rinunci del tutto a far viaggiare le tue merci. Ora applicate questa logica alle reti digitali europee: fibra, 5G, cloud, intelligenza artificiale. È qui che entra in gioco la proposta di legge chiamata Digital Networks Act, che rischia di trasformare le infrastrutture digitali europee in un feudo privato, togliendo al regolatore pubblico la possibilità di intervenire quando un operatore è troppo dominante e chiude l’accesso agli altri.
Let’s drop the comforting illusion that artificial intelligence is just another shiny tool in humanity’s long romance with technology. The truth is cruder, and perhaps more dangerous: we are not using the digital we are living inside it. The shift is not evolutionary but ontological. The difference is all the difference. To call this era a transformation is an understatement. It is a colonisation, silent and irreversible, of our very existence by invisible architectures and algorithmic ecosystems. What we mistake for platforms are sovereign environments. And no, this is not metaphor it’s reality with a new texture.
Philosopher Luciano Floridi was among the first to shout from the ivory towers: we don’t surf the digital anymore, we inhabit it. Unlike a hammer or a smartphone, an environment doesn’t extend our reach it defines our being. It is not something we use but something that uses us to define itself. And yet, through most of the 1990s, policymakers still treated the internet as infrastructure a glorified mailman, not the habitat it was already becoming. That failure to grasp the ontological stakes is now coming home to roost.
L’epitaffio del prompt engineering era già scritto. “Sarà un’arte effimera, una moda passeggera”, dicevano. Poi sono arrivati GPT-4, Claude, Gemini, Mistral, LLaVA, ReALM e compagnia cantante. E quel presunto cimitero è diventato un’azienda da miliardi. Ma ora il gioco si è evoluto. Le regole sono cambiate. E anche il nome: benvenuti nell’era dell’ingegneria del contesto, Context Engineering. Sì, è ancora prompt engineering. Solo che ha smesso di giocare con i Lego ed è passato ai sistemi complessi.
Perché, alla fine, non stiamo solo scrivendo istruzioni a un LLM. Stiamo progettando interi ambienti cognitivi. Strutture di senso. Architetture semantiche. E serve chiamarlo con un nome che rifletta questa complessità. “Ingegneria del contesto” suona molto meglio di “prompt sofisticato con campi ben ordinati e delimitatori XML improvvisati”.

La retorica della responsabilità è la nuova foglia di fico delle big tech. Quando OpenAI annuncia di ritardare ancora il rilascio del suo modello open-weight, la dichiarazione suona come un mantra già sentito: sicurezza, precauzione, responsabilità. Tutto giusto, tutto nobile. Ma sotto quella superficie si muove un ecosistema affamato di trasparenza, controllo e, soprattutto, indipendenza dall’ennesima API gatekeeper. Perché stavolta la posta in gioco non è solo tecnica, è politica e quando Sam Altman afferma candidamente “Once weights are out, they can’t be pulled back”, non sta facendo solo un’osservazione ovvia: sta tracciando un confine. Un punto di non ritorno.
C’è una vecchia battuta tra veterani del commercio internazionale: “L’unico modo per far capire a un americano cos’è un dazio è che glielo faccia pagare un altro Paese”. Peccato che oggi, a infliggerli, sia proprio l’America. Non un’America qualsiasi, ma quella reinventata a immagine e somiglianza del suo patriarca arancione, tornato a occupare lo Studio Ovale come un magnate che rileva un’azienda in crisi e la risana con tagli, intimidazioni e grida. Donald Trump, al suo secondo giro da presidente, ha deciso che il tempo delle negoziazioni è finito, i trattati multilaterali sono per i deboli e che la politica commerciale può essere fatta con lettere scritte a macchina, spolverate di maiuscole strategiche e sigillate con l’intuito del “gut feeling”.

Benvenuti nel teatro delle illusioni finanziarie, dove le startup tecnologiche italiane si affacciano con l’entusiasmo ingenuo dei fondatori che confondono un palco con una piazza. L’EGM acronimo nobilmente ambiguo di Euronext Growth Milan si presenta come il mercato alternativo per le PMI innovative, una promessa di capitali, visibilità, scalabilità. In pratica: il posto dove una startup può finalmente smettere di elemosinare seed round da venture in modalità oracolo e accedere, si dice, al grande banchetto del capitale pubblico. Ma la realtà è più crudele, più sottile, più pericolosa: EGM non è un mercato. È una recita. Un catalogo interattivo con scarsa interazione e nessun pubblico pagante.
In principio era la disruption, poi venne il caos. E oggi, mentre una parte dell’America tecnologica flirta apertamente con l’ideologia MAGA, quella stessa cultura che una volta celebrava la globalizzazione, il talento internazionale e la regolazione “light touch”, sta ora ballando sul filo di una contraddizione ideologica che potrebbe costare agli Stati Uniti la leadership tecnologica globale. La parola d’ordine? “Decoupling”. Ma quando il taglio si fa a caso, a pagare il conto è sempre l’innovazione.
Negli ultimi mesi, l’alleanza tra l’élite tecnologica americana e la base populista di Donald Trump ha assunto contorni sempre più surreali. Da un lato, una manciata di venture capitalist e CEO anti-woke con i portafogli pieni e l’ansia da rilevanza politica, dall’altro una base elettorale convinta che le Big Tech siano parte di un complotto liberal per cancellare l’America. La dicotomia è più che evidente, ma il matrimonio di convenienza regge, per ora, su interessi comuni come la deregulation, la crociata contro il DEI (diversity, equity and inclusion) e la sacralizzazione del mercato libero, purché non includa immigrati o concorrenti cinesi.
Mentre alcuni si illudono di poter negoziare trattati sull’intelligenza artificiale come se si trattasse di emissioni di CO₂, altri si limitano a osservare l’esperimento dall’interno, sperando che almeno valga il biglietto. Elon Musk, nella sua solita performance tra profezia e show business, ci regala una frase che potrebbe appartenere tanto a un predicatore del XIX secolo quanto al fondatore di una religione digitale: “Probabilmente sarà un bene. Ma anche se non lo fosse, mi piacerebbe essere vivo per vederlo accadere”.
Questa dichiarazione è tutto tranne che banale. Perché dice quello che pochi hanno il coraggio di ammettere: che l’interesse primario della nostra epoca non è più la sicurezza collettiva, ma l’intrattenimento personale, anche a costo dell’estinzione e che la superintelligenza, qualunque cosa essa sia, si sta trasformando in uno spettacolo globale. Un reality quantistico. La cui sceneggiatura non è scritta da nessuno, ma tutti sono convinti di saperne anticipare il finale.
L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.
Non capita spesso che uno spazio di archeologia industriale trasformato in sala performance riesca a mettere in discussione la percezione stessa della realtà. Ma ieri sera, alla Fondazione Pastificio CERERE, è successo. Franz Rosati, artista visivo e compositore elettroacustico, ci ha portato altrove. Non altrove nel senso naïf dell’arte immersiva per turisti digitali, ma in un luogo difficile da nominare, fatto di vettori, texture e latenza. Più che un’esibizione, una dissezione algoritmica del paesaggio. Se uno volesse trovare una parola per quello che abbiamo visto, dovrebbe forse inventarla.
Rosati non suona e basta. Rosati orchestra macchine. Non macchine come strumenti, ma macchine come entità dotate di linguaggio, memoria e volontà grafica. Il suo setup è chirurgicamente distribuito tra Ableton Live, Max/MSP, TouchDesigner e Unreal Engine. Un’architettura modulare che fa impallidire l’idea stessa di “live performance”, perché qui il tempo reale è una simulazione guidata da dati, da strutture sintetiche e da pulsazioni nervose che sembrano provenire direttamente da una foresta neurale, non da un musicista.

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti. Casa editrice: Krisis Publishing
Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.
Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.