Nel mondo delle tecnologie emergenti è raro imbattersi in un programma che unisca audacia strategica, rigore scientifico e una chiara agenda nazionale ma il Defense Advanced Research Projects Agency (DARPA) lo ha fatto con il suo programma Quantum Benchmarking Initiative (QBI). La keyword su cui ci concentriamo è quantum benchmarking, con le semantiche correlate utility-scale quantum computer e fault-tolerant quantum computing. Provate a pensare all’internet, al GPS e ai veicoli autonomi: ogni volta che DARPA ha messo in moto la leva è stato un cambio di paradigma. Ora lo sta facendo di nuovo, ma questa volta con la promessa di ridefinire il computing.

Il contesto è semplice: la corsa al quantum è affollata e caotica. Le startup, i big tech, i governi tutti parlano di “quantum advantage”, “error corrected qubits”, “scalable architectures”. Ma le parole non bastano. Qui entra in scena il benchmarking: misurare, validare, discriminare non solo sognare. La missione del programma è spiegata in modo cristallino: verificare se è possibile costruire “un computer quantistico a scala industriale ossia un sistema la cui valenza computazionale supera il suo costo entro il 2033”.

Il programma non si limita ad assegnare fondi. Niente “gara di chi fa più qubit”. È un percorso a tappe: Stage A (concetto tecnico plausibile), Stage B (piano R&D dettagliato, rischi mitigati, roadmap prototipi) e Stage C (verifica e validazione indipendente dell’hardware) .

Alla fine dell’ultima settimana è stato annunciato che 11 aziende sono state promosse allo Stage B: tra queste IBM, IonQ, QuEra Computing e altre.

Se non vi sembra rivoluzionario, mettete questo nel vostro radar: un’agenzia federale statunitense che decide non solo chi finanziamo, ma quali concetti sono credibili nel quantum computing. Quasi un arbitro di mercato e innovazione.

Quanto è significativo tutto ciò per l’industria del quantum? Molto. Primo, il benchmarking trasforma il discorso da “promessa” a “verifica”. Dalle parole alle carte, dal marketing al piano tecnico. Come scrivono Prineha Narang e Joshua Levine, “esattamente ciò di cui il quantum aveva bisogno: una disciplina rigorosa piuttosto che un’ottimistica cieca”.

Secondo, la reputazione conta. Essere selezionati per Stage B ora è un segnale forte: “ok, abbiamo superato un filtro serio”. Per gli investitori in un settore in cui molte promesse stanno davanti ai risultati, questo cambia la dinamica. Narang segnala che alcuni investitori stavano aspettando proprio l’annuncio DARPA prima di firmare term sheets.

Terzo, l’ecosistema globale si ridefinisce. Non è più solo “chi lancia più qubit” ma “chi dimostra credibilità su road-map, mitigazione rischi, scalabilità”. Il fatto che il programma sia aperto a tecnologie diverse (superconduttori, ioni intrappolati, atomi neutri, fotonici) riflette che DARPA non punta su un solo cavallo ma vuole mappare l’intero campo.

Dal punto di vista della leadership tecnologica statunitense, il programma ha implicazioni strategiche. Il quantum computing è emergenza nazionale, non solo startup hype. Con attori globali come la Cina e potenze europee che spingono duro, gli USA vogliono mantenere vantaggio. DARPA assume il ruolo di arbitro che riduce l’incertezza per policy-maker, industria e finanza. Il benchmarking diventa infrastruttura tecnologica strategica: non solo “fare quantum” ma “garantire che il quantum abbia senso economico e operativo”.

Inoltre, questa iniziativa spinge ad un paradigma diverso: non più «quanti qubit ho» ma «quanta utilità produco». Spostare il focus verso “utility-scale” e “fault-tolerant” significa che il discorso tecnico si alza di livello: error correction, architetture modulari, costo totale di possesso, integrazione con sistemi classici. Come la stessa IBM afferma, la selezione a Stage B “è una valida conferma del nostro approccio a computer quantistici su larga scala e fault-tolleranti”.

Una riflessione provocatoria: possiamo interpretare il QBI come un segnale che il mondo quantistico sta abbandonando la “fase promessa” per entrare nella “fase verifica”. Fino a ieri le startup facevano annunci spettacolari (“X qubit”, “Y gate fidelity”), ma l’ecosistema restava frammentato su metriche non omogenee, hype e poca trasparenza. Ora arriva un ente che mette sul piatto: definisci il tuo piano, elimina le imprecisioni, rendi trasparente il progetto, dimostra la scalabilità, e solo dopo potresti essere considerato. Questo è un cambio culturale, non solo tecnico.

Non tutto sarà facile. Il programma stesso stabilisce che nessuno garantisce che una o più aziende arriveranno al traguardo. “Multiple, single, or even no participants will ultimately demonstrate a path to an industrially useful quantum computer within the next eight years”, recita il sito DARPA. (DARPA) Questo porta un sano realismo in un settore spesso famoso per l’ottimismo estremo.

Come CTO o CEO che abbraccia innovazione digitale, intelligenza artificiale applicata e trasformazione tecnologica, vedo tre traiettorie da monitorare nel contesto del QBI. Primo, l’impatto sugli investimenti: con un ente regolatore-benchmark come DARPA che stabilisce credibilità, gli investitori possono filtrare meglio i rischi e destinare capitali verso tecnologie più credibili. Second, l’impatto sulle roadmap interne aziendali: se siete parte dell’ecosistema quantistico (o state valutando l’ingresso), dovete assimilare metriche di “costo vs valore” e “scalabilità” non solo “quanto è grande il sistema” ma “quanto produce”. Terzo, l’integrazione con AI, ottimizzazione processo, industry use-cases: la promessa del quantum va collegata a problemi concreti che l’AI e il software classico oggi non risolvono bene. Il benchmarking DARPA spinge in questa direzione

Quel che distingue il QBI dai programmi precedenti è che si rivolge alla fase industriale e non solo al laboratorio. Il target è realmente “utility-scale” e “fault-tolerant” non solo “fare esperimenti quantistici”. Se il programma avrà successo, potrebbe essere ricordato al pari dei programmi DARPA che hanno dato forma all’internet o al GPS: non perché DARPA costruisce direttamente il quantum, ma perché crea le condizioni, i filtri, gli incentivi per farlo accadere seriamente.

Tenete d’occhio quantum benchmarking, utilità quantistica e tolleranza agli errori. Perché nel giro di qualche anno potremmo guardare indietro e dire che il vero salto è avvenuto quando qualcuno ha smesso di contare qubit e ha cominciato a misurare valore.