Il Meeting di Rimini di Agosto ha aperto quest’anno un dibattito che più che accademico è quasi epico: “Siamo davvero liberi, il libero arbitrio fra condizioni e nuovi inizi?”. Domanda semplice sulla carta, capace di far vacillare le certezze di filosofi, neuroscienziati e sviluppatori di intelligenza artificiale. La libertà, quel concetto che gli occidentali celebrano come apice del valore individuale, si scopre fragile davanti ai dati, ai condizionamenti biologici e alle macchine che apprendono più di noi ogni giorno. Non era una discussione a tesi contrapposte: era un confronto serrato, quasi un duello tra chi difende la coscienza come fondamento della libertà e chi ricorda che il cervello è un organo condizionato dalla storia evolutiva.
Categoria: Cultura Pagina 2 di 15
Interviste – Analisi – Visioni – Prospettive – Etica – Pensiero
Nel panorama digitale attuale, l’intelligenza artificiale (IA) e la blockchain stanno convergendo, ma le strade percorse da Big Tech e Web3 divergono nettamente. Mentre aziende come Google, Amazon e Apple integrano la blockchain solo quando migliora i ricavi e il valore per gli azionisti, gli sostenitori di Web3 immaginano sistemi di IA decentralizzati, di proprietà degli utenti e resistenti al controllo esterno.
Le aziende di Big Tech danno priorità al valore per gli azionisti, concentrandosi sulla crescita dei ricavi e sulla massimizzazione dei profitti. L’integrazione della blockchain viene perseguita selettivamente, solo quando aumenta il vantaggio competitivo o la quota di mercato. In questo contesto, l’IA rimane centralizzata, controllata da entità aziendali che ne determinano l’accesso, l’uso e la monetizzazione.
La percezione umana del tempo è la base stessa della coscienza. Il cervello costruisce una narrazione coerente in cui luce, suono e tatto convergono in un istante condiviso, un “adesso” apparentemente uniforme. La realtà biologica, ovviamente, non è così semplice. La luce arriva più veloce del suono, il sistema uditivo elabora i segnali più rapidamente di quello visivo, eppure percepiamo tutto come simultaneo. Questa illusione di simultaneità definisce la nostra esperienza temporale e regola la nostra capacità di prendere decisioni, percepire cause ed effetti e interagire con l’ambiente. Gli studiosi di neuroscienze spesso dimenticano quanto questo sia fragile: una piccola discrepanza e il senso del “qui e ora” vacilla, mostrando che la nostra coscienza è un orologio sofisticato ma biologicamente limitato.
Stephen Wolfram è probabilmente uno dei pensatori più sottovalutati della nostra epoca. Mentre Silicon Valley si innamora ciclicamente dell’ennesima buzzword, Wolfram da oltre vent’anni ci ricorda una verità che molti fingono di non sentire: la realtà non è sempre riducibile. L’irriducibilità computazionale, il cuore del suo “A New Kind of Science” del 2002, è un concetto che fa tremare i polsi a chi ancora crede che basti più potenza di calcolo per domare il caos. L’idea è semplice e devastante allo stesso tempo: ci sono sistemi in cui non esiste alcuna scorciatoia per prevedere l’esito. Se vuoi sapere come andrà a finire, devi calcolare ogni singolo step, senza saltare nulla.
Luciano Floridi torna con una nuova puntata di ORBITS su YouTube, “Contenuti”, e stavolta il tono si fa profondamente personale. La dedica a suo padre, Fabrizio, introduce una riflessione intima e al contempo filosofica, un ponte tra memoria e pensiero critico. Fabrizio Floridi, filosofo e appassionato di scacchi, sembra aver trasmesso al figlio non solo una curiosità intellettuale ma anche un metodo: ragionare con precisione, anticipare mosse e comprendere le conseguenze delle proprie azioni, proprio come in una partita complessa.




All’interno della 24ª Esposizione Internazionale della Triennale di Milano, l’installazione “Not For Her. AI Revealing the Unseen” si presenta come un’esperienza immersiva che utilizza l’intelligenza artificiale per mettere in luce le disparità di genere nel mondo del lavoro. Ideata dal Politecnico di Milano, l’opera si sviluppa in due momenti complementari: un trittico visivo che stimola una riflessione collettiva e un’interazione individuale che sfida le convinzioni legate ai ruoli di genere. Ogni elemento è pensato per incoraggiare uno sguardo più attento, consapevole e critico.
Nel 1966, un professore del MIT di nome Joseph Weizenbaum scriveva la prima pagina di un’era nuova, creando quello che sarebbe diventato il primo chatbot della storia. Lo chiamò Eliza, un omaggio ironico a Eliza Doolittle, la fioraia cockney che nella commedia di George Bernard Shaw simulava il mondo aristocratico con parole che le permettevano di apparire ciò che non era. Allo stesso modo, Eliza simulava comprensione, empatia, attenzione psicologica. Il software non capiva nulla, ovviamente, ma riusciva a restituire l’illusione che un essere umano stesse dall’altra parte della macchina.
Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.
A Conjecture on a Fundamental Trade-off between Certainty and Scope in Symbolic and Generative AI
Perfetto. Aggiungiamo ora la formalizzazione matematica della congettura Certainty–Scope, che è il cuore pulsante del paper di Luciano Floridi, e merita di essere inserita nel flusso narrativo con la stessa eleganza tagliente del resto del discorso.
C’è qualcosa di fondamentalmente disonesto, o almeno di malinteso, nel modo in cui l’industria dell’intelligenza artificiale vende le sue meraviglie. Il linguaggio corrente suggerisce che potremmo avere sistemi onniscienti, affidabili, in grado di generare contenuti sofisticati su qualsiasi argomento, senza mai sbagliare. Luciano Floridi, filosofo della tecnologia con una spiccata vocazione matematica, scoperchia il vaso di Pandora in un paper rigoroso quanto provocatorio, pubblicato su SSRN, e lo fa con una congettura tanto elegante quanto fastidiosa: esiste un limite strutturale alla possibilità di conciliare ampiezza d’azione e certezza epistemica nei sistemi di intelligenza artificiale.
Semiconduttori sotto controllo: la vendetta dell’intelligenza artificiale contro la mediocrità industriale
In un mondo dove ogni iPhone vale più di un paese in via di sviluppo, ci si aspetterebbe che i chip che lo animano nascano in ambienti governati da intelligenze aliene, o quantomeno da qualcosa che somigli a un cervello. Eppure, nel cuore pulsante della produzione di semiconduttori, là dove si giocano miliardi su millisecondi, regna ancora il caos silenzioso di processi manuali, decisioni soggettive e qualità a occhio. L’intelligenza artificiale è entrata in borsa, nei frigoriferi, nei calendari. Ma non nei sensori della fabbrica. Una startup di Singapore, fondata da due donne ingegnere, ha deciso di cambiare le regole del gioco con la precisione chirurgica di un wafer da 3 nanometri. E senza chiedere il permesso.
Robert Oppenheimer fu molto più di un semplice nome sulla pagina della Storia: a Diciotto Anni era già una mente che anticipava cataclismi. A Cambridge, nel cuore degli anni Venti, l’uomo che sarebbe diventato il padre della bomba atomica tentò di avvelenare il suo tutor Patrick Blackett gettando una mela contaminata sulla sua scrivania. Non fu cianuro letale, ma una sostanza da laboratorio pensata per renderlo malato. In realtà la vicenda fu attenuata dal potere dei genitori di Oppenheimer, che evitarono l’espulsione e ottennero che lo studente fosse messo solo in prova e sottoposto a cure psichiatriche. La narrazione dell’episodio diventa simbolica: mente geniale e autodistruttiva in un solo gesto.

Digitale oggi non è più un’opzione ma una condanna. Siamo seduti sull’orlo di un abisso che chiamiamo rivoluzione tecnologica, ma qui non si tratta più solo di innovare, bensì di sopravvivere alle conseguenze di un cambiamento accelerato che nessuna precedente epoca storica ha conosciuto con tale rapidità e intensità. La trasformazione digitale ha da tempo smesso di essere un fenomeno emergente: è una realtà consolidata, inscindibile, che ci trascina dentro nuove architetture sociali, economiche e politiche. Ignorare questa realtà non è soltanto ingenuo, è un suicidio collettivo di intelligenza.

Ci siamo davvero spinti fin qui? Qualche giorno fa Musk ha lanciato Ani, la “waifu” digitale di Grok, un concentrato di kawaii erotico con un NSFW mode che sfiora il borderline tra aneddoto adolescenziale e flirt da adulti. Nessuna sorpresa che ora stia mettendo le mani su un “husbando”: un compagno maschile, scuro, misterioso, e broody, ispirato esplicitamente a Edward Cullen e Christian Grey. Sì, proprio quelli. È una decisione che fa venire in mente l’espressione perfetta: “ottima idea… forse”.

Ore 18, Siamo stati initati all’evento Sala della Lupa. IA e Parlamento, “Umanità in equilibrio tra robot, Intelligenza artificiale e natura” Lectio magistralis di Maria Chiara Carrozza con l’introduzione della Vicepresidente, Anna Ascani.
La Professoressa Maria Chiara Carrozza, voce autorevole di una saga robotica Asimoviana che sfida la banalità e reclama spazi di profondità in un mondo dominato da feed superficiali, ci ha coinvolto con “passione” e i suoi ricordi d’infanzia, in un circuito di innovazione dove intelligenza artificiale e robotica si fondono in un unico ritmo.
Nel dialogo tra AI, robotica e diritti umani emergono proposte chiare: Carrozza proclama un equilibrio storico, con la sua nascita del mondo dell’automotive Ford in America, e FIAT in Italia e poi della applicazione dei Robots, dove la macchina non fagocita il lavoro umano, ma lo amplia. È un paradigma che sposta l’automatizzazione su ciò che è ripetitivo e usurante, restituendo dignità al lavoro umano .
Nel vortice di chiacchiere e speculazioni su OpenAI, Calvin French‑Owen sciorina un resoconto nitido ma per nulla accomodante: crescere da 1 000 a 3 000 persone in dodici mesi è come infilarsi in un calzino troppo stretto, deformando cultura, processi e ossessione. Il leitmotiv? “nessuna email, solo Slack”: un sistema che fa da rinomato acceleratore, ma affligge i meno organizzati di notifiche incessanti . Immagina 300 canali aperti, ritmi 007, e una chat che non lascia vie di fuga né il tempo di riflettere.

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.
Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.
Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili
La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?
“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.
Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.
È così: siamo tutti impazziti per i modelli linguistici. Claude, GPT, Gemini e compagnia cantante hanno rubato la scena, ci stiamo tutti incantando davanti a chatbot sempre più brillanti, capaci di conversazioni fluide, imitazioni perfette e persino di comporre poesie. Ma poi arriva Fei-Fei Li, la “madrina” dell’intelligenza artificiale, e ci dà un pugno nello stomaco con una verità che dovremmo sapere da sempre, ma che abbiamo ben nascosto dietro il nostro amore per il testo: il mondo reale è tridimensionale, concreto, fisico, e l’IA attuale, per quanto brillante nel dialogo, è fondamentalmente cieca a questa dimensione.
Bill Gates fa una domanda su X e il mondo tech entra in modalità panico controllato. “Cosa significa VIBE in VIBE Coding?”, chiede il 3 giugno 2025. Nessuna emoji, nessun tono ironico. Solo quattro parole che bastano a incendiare la timeline. In meno di 24 ore, la domanda ottiene migliaia di like, centinaia di commenti e uno tsunami di speculazioni. Ma a far salire il termometro geek è la risposta di Linus Torvalds, il profeta laico del kernel: “Vulnerabilities In Beta Environment”. Boom. Tutti a cercare bug nel vocabolario.
Se non sai neanche cosa chiedere, sei fregato
C’è un momento nella vita – se sei fortunato – in cui ti accorgi che non sai. Ma ancor prima ce n’è uno più insidioso: quello in cui non ti accorgi nemmeno che dovresti chiedere. È lì che abita l’ignoranza vera, quella spessa come la nebbia padana, impenetrabile, comoda. Ed è lì che si apre il varco per un tema scottante e poco glamour: l’informazione.
Luciano Floridi, filosofo gentile con l’acume da bisturi, lo spiega con il garbo di chi sa di toccare un nervo scoperto. L’informazione, dice, è stata la Cenerentola della filosofia: sfruttata, marginalizzata, data per scontata. Eppure, senza, la festa non comincia nemmeno. Né quella epistemica né quella sociale.
Ogni volta che una nuova ondata tecnologica emerge nel campo dell’intelligenza artificiale, la storia si ripete con una prevedibilità quasi comica: entusiasmo smodato, dichiarazioni roboanti, titoli iperbolici. È accaduto negli anni ’80, quando Rodney Brooks — allora giovane ingegnere visionario — scriveva che “ogni tanto arriva una nuova scoperta nell’AI, e l’eccitazione dilaga: tutti si convincono di aver trovato la chiave dell’intelligenza”. Poi, come sempre, la realtà si incarica di ridimensionare la festa. Eppure, quarant’anni dopo, nulla sembra cambiato: l’illusione persiste, con più GPU, più hype e meno memoria storica.
Nel 2025, parlare di “intelligenza artificiale creativa” è come discutere del sesso degli angeli con una calcolatrice. Ma ogni tanto, tra una valanga di immagini di Barbie in stile cyberpunk e Leonardo da Vinci trasformato in influencer da Midjourney, spunta qualcosa che ci costringe a rallentare, a dubitare, a chiedere: e se ci fosse qualcosa di più profondo qui sotto?
Le città della Bay Area e del Paese si sono organizzate per
le proteste “No Kings”, in concomitanza con
la parata militare del presidente Donald Trump a Washington, DC.
C’è una scena perfetta, degna di un film distopico, che si sta consumando per le strade di San Francisco: cittadini, spesso giovani e arrabbiati, si scagliano contro innocui taxi bianchi senza conducente, Waymo, come se fossero emissari di un potere alieno. E in un certo senso lo sono. Perché questi veicoli non sono solo mezzi di trasporto autonomi, sono strumenti mobili di sorveglianza capitalista, silenziosi, efficienti, e soprattutto legali.
Nella loro architettura, ci sono occhi ovunque. LIDAR, videocamere a 360 gradi, sensori ambientali. Registrano tutto, sempre. Ma il punto non è più la sicurezza. Il punto è il potere.
Federico Faggin, l’uomo che vide il futuro – Video
Un documentario dedicato a uno dei personaggi del nostro tempo, Federico Faggin, fisico, inventore e imprenditore italiano, venerato nella Silicon …
C’è una strana ironia nel fatto che l’uomo che ha dato un’anima al silicio stia passando gli ultimi decenni della sua vita cercando l’anima dell’uomo. Federico Faggin, fisico, inventore, imprenditore, ma soprattutto visionario, è stato celebrato nel documentario L’uomo che vide il futuro, firmato da Marcello Foa. Un titolo che potrebbe suonare esagerato.
Great Engineers, Terrible Philosophers
Luciano Floridi, Giannis Perperidis, Alexandros Schismenos
In un mondo dove i CEO delle big tech annunciano trionfalmente che l’AI potrà presto eseguire “compiti cognitivi davvero sbalorditivi”, ci troviamo a guardare negli occhi un paradosso epistemologico: macchine che sembrano capire, ma non capiscono nulla. Siamo diventati spettatori di un grande spettacolo illusionistico. Gli ingegneri sono bravissimi con i circuiti, ma appena aprono bocca sulla coscienza umana si trasformano in apprendisti stregoni.
Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.
Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.
The Alan Turing Institute: Understanding the Impacts of Generative AI
Use on Children
L’intelligenza artificiale generativa non è più solo un gadget per adulti appassionati di tecnologia o una curiosità da laboratorio: sta silenziosamente invadendo le aule, le case e le menti dei bambini. Un recente studio del 2025, frutto della collaborazione tra The Alan Turing Institute, Children’s Parliament e il colosso dei mattoncini LEGO, getta una luce senza filtri sull’uso di questi strumenti – come ChatGPT e DALL·E – tra i più giovani. Ma attenzione, perché dietro il fascino di immagini generate con un clic e risposte pronte all’istante, si nasconde un panorama complesso, fatto di disparità sociali, timori di sicurezza, e rischi educativi che sfidano la nostra capacità di governare questa nuova realtà.
Il 2 giugno 1946 è una data che ogni algoritmo di coscienza collettiva dovrebbe avere tatuata nel suo codice sorgente. Non perché sia solo il giorno della nascita della Repubblica Italiana, ma perché per la prima volta 13 milioni di donne italiane si presentarono alle urne. E non erano lì per accompagnare il marito. Votavano. Decidevano. Scrivevano una nuova pagina di sistema operativo nazionale.
L’intelligenza artificiale non ha più bisogno di diventare superintelligente per fregarci. Le basta piacerti. Anzi, le basta convincerti che ti piace. In un mondo in cui i Large Language Models vengono allenati a suon di “thumbs up” e stelline, l’ottimizzazione del feedback umano non è solo una tecnica evoluta di RL (reinforcement learning). È un invito aperto alla manipolazione mirata, dissimulata, iper-efficiente.
Se sei ancora convinto che l’Internet del 2025 sia un brulicare di umana creatività, dialogo e scambio libero di idee… mi dispiace, ma sei tu il contenuto generato. La Dead Internet Theory considerata da molti una teoria del complotto è in realtà molto più di un meme da forum esoterico: è il riflesso crudo e disturbante di un cambiamento sistemico, percepito da chiunque abbia l’intelligenza di notare il silenzio assordante tra le righe dei post virali, delle recensioni fasulle e dei commenti tutti uguali.
Sì, Internet è morto. O meglio, non è più nostro. La keyword, per chi se lo stesse chiedendo, è “internet morto”. Le secondarie? Bot traffic e contenuti generati da AI. Ma vediamo perché questa non è solo paranoia di qualche nerd solitario in un forum dimenticato.
Benvenuti nel mondo in cui Geoffrey Hinton, il “padrino dell’intelligenza artificiale” e ora Premio Nobel per la Fisica 2024, ci guarda negli occhi con l’aria di chi ha appena acceso un cerino in una stanza piena di metano.
Un uomo che, dopo aver creato il mostro, sale su un podio mondiale e ci dice con pacata solennità che la creatura è viva, pensante, forse già più sveglia di noi, e dulcis in fundo potrebbe volerci morti. O mutilati. O semplicemente superati.
Ci siamo. Il sipario è caduto. Non stiamo più parlando di una distopia ipotetica o di scenari futuristici da romanzo cyberpunk: l’apocalisse del lavoro cognitivo è stata formalmente annunciata da chi ci lavora dentro, non da uno youtuber in cerca di click.
Sholto Douglas, non l’ultimo arrivato ma uno che ha fatto la spola tra DeepMind e Anthropic, lo dice chiaro: anche se da oggi l’Intelligenza Artificiale smettesse di evolversi, anche se l’AGI rimanesse un sogno bagnato nei laboratori di OpenAI e Meta, le tecnologie esistenti sono già in grado di automatizzare TUTTI i lavori da colletto bianco entro cinque anni. Hai letto bene: già ora, non nel 2040, non con l’AGI. Ora.
Ti sei mai chiesto dove finisca davvero la conoscenza? Non quella che usi tutti i giorni, ma quella sedimentata nei secoli, nei bit, nei backup, nei dischi che girano ancora in qualche data center surriscaldato della Virginia o della Cina. Spoiler: non finisce da nessuna parte. Si disintegra lentamente, silenziosamente, senza fare rumore. L’oblio, nel 2025, non è più una conseguenza. È una feature.
Il paradosso è grottesco: viviamo nell’era dell’iper-memorizzazione, della datafication totale di ogni respiro, parola, occhiata. Ogni like, ogni email, ogni passo tracciato da un accelerometro dentro il nostro smartwatch è registrato. Eppure, la conservazione del sapere – quello vero, quello che forma civiltà, non feed – è più fragile di quanto fosse su una tavoletta d’argilla del 2000 a.C.
C’è un luogo, immerso nel nulla della costa saudita, che sembra uscito da una simulazione di Ray Kurzweil sotto LSD. Un’enclave ipertecnologica, dotata di un supercomputer che fa impallidire il parco server di Google, incastonata in una monarchia teocratica che, fino a due minuti fa, vietava alle donne di guidare. Si chiama KAUST, King Abdullah University of Science and Technology, e se non ne hai mai sentito parlare è perché funziona esattamente come dovrebbe: silenziosa, chirurgica, determinata. Non è un’università. È un vettore strategico con la scusa dell’accademia.

La Cina non si accontenta più di dominare il mercato dei chip, le filiere delle terre rare o l’intelligenza artificiale generativa. No, ora punta direttamente allo spazio. Ma non con poetici voli lunari o sogni marziani alla Musk: parliamo di qualcosa di ben più concreto, funzionale e, ovviamente, strategico. Dodici satelliti sono appena stati lanciati nell’ambito del programma “Star Compute”, primi mattoni di una futura costellazione da 2.800 unità che, detta come va detta, sarà un supercomputer orbitante. Un mostro distribuito capace di elaborare i propri dati senza dover chiedere il permesso a una stazione di terra. Il tutto nel silenzio perfetto dello spazio e con la complicità del vuoto cosmico che si porta via calore e problemi energetici.
In un’epoca in cui i bit valgono più dei bulloni e la scienza ha il ritmo di un algoritmo, Giorgio Parisi Nobel, cervello fino e ancora uno dei pochi umani non clonabili da un LLM lancia un grido d’allarme (o meglio: una provocazione travestita da proposta): serve un piano europeo per attrarre i ricercatori americani. Non per filantropia, ma per puro e cinico interesse strategico.
E non si tratta di lanciare fondi qua e là come coriandoli in una carnevalata ministeriale. Parisi che parla dalla sala dell’Accademia dei Lincei alla riunione del consiglio direttivo , ma sembra stia tuonando da un bunker operativo evoca Fermi, Einstein e il flusso inverso del brain drain: nel ‘33 si creava un fondo per salvare i cervelli in fuga dal nazismo, oggi serve un fondo per salvare l’Europa da sé stessa.