Il problema non è la fisica. È la fiducia. Tutti parlano del quantum computing come della prossima rivoluzione tecnologica, ma pochi capiscono cosa accade davvero dietro quelle scatole criogeniche che lavorano a temperature più fredde dello spazio interstellare. Le aziende fingono sicurezza quando in realtà brancolano tra probabilità, rumore e correzione d’errore. È la prima volta nella storia dell’informatica in cui il computer non è prevedibile, e l’imprevedibilità, paradossalmente, è il suo valore più grande.

La differenza fra un bit e un qubit non è solo una questione di zeri e uni. È una questione di filosofia industriale. Il bit obbedisce, il qubit vibra. Dove l’informatica classica vede determinismo, quella quantistica vede possibilità. Il quantum computing è il primo sistema in cui il caos è progettato, e la casualità è una risorsa. Chi ha capito questo non è un fisico teorico, ma un manager capace di intuire che il vantaggio competitivo del futuro non sarà nella potenza di calcolo, ma nella capacità di gestire l’incertezza.

Gli algoritmi quantistici sono il nuovo petrolio intellettuale. Shor e Grover sono diventati nomi da citare nelle conference call come se fossero brand di moda. Il primo ha dimostrato che i numeri grandi non sono più sicuri, il secondo che cercare nel caos può essere straordinariamente efficiente. Gli algoritmi quantistici non risolvono problemi, li trasformano. E trasformare un problema oggi è la forma più pura di potere tecnologico.

C’è un’illusione diffusa: che il quantum computing serva a far girare Excel più velocemente. Non è così. È uno strumento che cambierà la logica stessa con cui le imprese decidono. I modelli predittivi basati su machine learning diventeranno ibridi, parte classici e parte quantistici. Le reti neurali quantiche, ancora embrionali, saranno capaci di trovare correlazioni dove l’intelligenza artificiale classica si ferma. È una nuova geografia della conoscenza, dove la statistica incontra la meccanica quantistica e il business diventa probabilità applicata.

Il paradosso è che viviamo nell’era NISQ, la Noisy Intermediate Scale Quantum, un periodo in cui i computer quantistici sono rumorosi, instabili e poco affidabili. Ma come tutte le tecnologie rivoluzionarie, il difetto è il motore dell’evoluzione. Il rumore quantistico non è un bug, è un linguaggio primitivo da decifrare. Ogni errore contiene informazione, e chi saprà interpretarlo guiderà la corsa verso la supremazia quantistica.

L’industria non è ferma. IBM, Google, Intel e Rigetti non stanno costruendo computer, ma ecosistemi. La sfida non è avere più qubit, ma averli migliori. La coerenza quantistica è il nuovo KPI, e la connettività dei qubit la vera metrica di efficienza. Nel frattempo, Microsoft si gioca la carta topologica, un approccio elegante e quasi filosofico: usare le proprietà geometriche della materia per stabilizzare il caos. Nessuno sa ancora chi vincerà, ma tutti sanno che non si può restare fermi.

Il quantum computing non sostituirà il cloud, lo trasformerà. Già oggi si parla di quantum cloud, ambienti dove le aziende potranno “affittare” potenza quantistica per applicazioni verticali: ottimizzazione logistica, simulazioni chimiche, gestione dei portafogli finanziari, progettazione di nuovi materiali. Sarà il ritorno del mainframe, ma con un twist quantistico. Chi controllerà la distribuzione di questi servizi controllerà la prossima economia del calcolo.

Poi c’è la questione della sicurezza, il lato oscuro di questa rivoluzione. Tutta la crittografia moderna si basa sulla difficoltà di fattorizzare numeri grandi, un compito che Shor ha reso ridicolo per un computer quantistico sufficientemente potente. Quando quel giorno arriverà, l’intero sistema di sicurezza globale dovrà essere riscritto. È qui che entra in gioco la crittografia post-quantum, l’ultima linea di difesa prima che la realtà digitale venga decifrata in tempo reale.

La crittografia post-quantum è l’esempio perfetto di come il futuro non sia una conquista, ma una reazione. Gli algoritmi lattice-based, come Kyber o NewHope, cercano di anticipare una minaccia che non esiste ancora. È l’arte di costruire muri prima che il nemico si materializzi. Un approccio tipicamente umano: difendersi da un pericolo teorico con un’architettura matematica sperimentale. È affascinante e inquietante allo stesso tempo.

Nel frattempo, la politica osserva. I governi finanziano programmi quantistici miliardari come se stessero costruendo centrali nucleari. Stati Uniti, Cina e Unione Europea hanno trasformato il quantum computing in un campo di battaglia geopolitico. I qubit non sono solo unità di informazione, ma di potere. Ogni laboratorio è un’avanguardia militare, ogni algoritmo un’arma potenziale. L’epoca del soft power tecnologico è appena iniziata.

Ciò che stupisce, tuttavia, è l’assoluta mancanza di consapevolezza manageriale. In molte board room il quantum computing è ancora una parola esotica, una curiosità da keynote. Ma il valore non è nel laboratorio, è nella visione strategica. Le aziende che iniziano oggi a comprendere il linguaggio dei qubit potranno domani reinventare i propri modelli di business. Le altre, semplicemente, si limiteranno a comprarli come servizio, esattamente come oggi comprano AI-as-a-Service.

Il fascino più grande del quantum computing è la sua indeterminatezza. Non sappiamo quando arriverà, né come cambierà la nostra economia, ma sappiamo che cambierà tutto. E come ogni rivoluzione, sarà riconosciuta solo dopo che avrà distrutto i paradigmi precedenti. Le previsioni ottimistiche parlano di un decennio per arrivare alla vera quantum advantage, ma la storia insegna che le rivoluzioni tecnologiche non si annunciano, accadono.

Il destino dell’informatica è tornare alla fisica. L’idea che la materia stessa diventi linguaggio computazionale è l’apoteosi di una visione feynmaniana: usare la natura per calcolare la natura. È il sogno di un universo che pensa se stesso. E mentre cerchiamo di addestrare l’intelligenza artificiale a comportarsi come un cervello umano, il quantum computing ci obbliga a pensare come la realtà stessa: non lineare, probabilistica, contraddittoria.

Il futuro non sarà quantistico perché lo vogliamo, ma perché non possiamo evitarlo. I mercati, la sicurezza, la scienza, persino l’arte dei dati finiranno per parlare la lingua della sovrapposizione e dell’entanglement. Sarà un mondo meno certo, ma infinitamente più potente. La prossima era del calcolo non sarà digitale. Sarà quantica, e il suo vero codice sorgente sarà la nostra capacità di tollerare l’ambiguità.


Nel panorama globale del 2025, la corsa al dominio del calcolo quantistico si sta delineando con contorni sempre più netti, separando nettamente chi guida l’innovazione da chi si limita a inseguirla. Gli Stati Uniti, con giganti come IBM, Google e Microsoft, continuano a dettare l’agenda tecnologica, mentre l’Europa, pur mostrando segnali di risveglio, fatica a costruire un ecosistema coeso e competitivo. L’Italia, da parte sua, si trova in una posizione ambigua: tra ambizioni dichiarate e realtà infrastrutturali, la strada verso una leadership quantistica appare ancora in salita.

Stati Uniti: pionieri indiscussi

IBM rimane il faro del settore, con il suo sistema Quantum System One e la piattaforma open-source Qiskit, che continua a guidare la ricerca e l’adozione industriale. Google, con il suo chip Willow, ha fatto un ulteriore balzo in avanti, riducendo drasticamente gli errori nei calcoli quantistici e avvicinandosi alla promessa di un calcolo industriale su larga scala. Microsoft, attraverso Azure Quantum, sta cercando di integrare il calcolo quantistico nel suo vasto ecosistema cloud, puntando su qubit topologici per migliorare la stabilità e la scalabilità. IonQ, con la sua tecnologia a ioni intrappolati, offre una via alternativa, accessibile tramite piattaforme cloud come Amazon Braket e Microsoft Azure Quantum, rendendo il calcolo quantistico più fruibile per ricercatori e aziende.

Europa: tra iniziative e frammentazione

L’Europa sta cercando di colmare il divario con gli Stati Uniti, ma la mancanza di una strategia unificata e di investimenti consistenti limita il suo impatto. D-Wave, con il suo approccio al quantum annealing, ha recentemente siglato un accordo da 10 milioni di euro con Swiss Quantum Technology per espandere la sua presenza in Europa, un passo che potrebbe stimolare l’adozione del calcolo quantistico nel continente. Tuttavia, la frammentazione tra i vari Stati membri e la mancanza di una visione comune ostacolano la creazione di un ecosistema europeo competitivo.

Italia: ambizioni dichiarate, realtà da costruire

L’Italia ha lanciato iniziative promettenti, come la Q-Alliance, una collaborazione tra D-Wave e IonQ con l’obiettivo di creare il “più potente hub quantistico del mondo” in Lombardia. Tuttavia, la realizzazione di tali ambizioni richiede investimenti significativi, coordinamento tra istituzioni e industria, e una strategia a lungo termine che vada oltre le dichiarazioni di intenti. L’accordo con IQM per l’installazione di un computer quantistico Radiance 54 a Cineca rappresenta un passo importante, ma da solo non basta a posizionare l’Italia tra i leader globali nel settore.

La corsa al calcolo quantistico è ancora nelle sue fasi iniziali, e la posizione di ciascun attore dipende dalla capacità di investire, innovare e collaborare. Gli Stati Uniti, con la loro leadership consolidata, sembrano destinati a mantenere il primato, mentre l’Europa, e in particolare l’Italia, devono affrontare sfide significative per costruire un ecosistema competitivo. La speranza risiede nella capacità di superare la frammentazione e di sviluppare strategie nazionali e regionali che favoriscano l’innovazione e l’adozione del calcolo quantistico.


La tabella confronta i principali sistemi di computer quantistici (IonQ, Quantinuum e altri) usando diversi benchmark, cioè test che cercano di misurare quanto un sistema quantistico sia “utile” o “performante” in scenari reali. Non sono numeri assoluti, ma indicazioni su come si comportano queste macchine in certe condizioni controllate.

IonQ Tempo (2025) ha raggiunto #AQ = 64. Qui #AQ significa Algorithmic Qubits, un numero inventato da IonQ per dire “quanto il sistema può eseguire algoritmi utili”. Non rappresenta qubit corretti dagli errori, quindi non equivale a 64 qubit perfetti. Il vantaggio evidente è che il sistema può eseguire algoritmi misti, ma la criticità è che questo numero include tecniche di mitigazione d’errore, quindi non è direttamente comparabile con altri sistemi “raw”.

IonQ Forte / Forte Enterprise ha #AQ = 36 nelle versioni sperimentali. Questo è più realistico ma ancora influenzato da error mitigation. Il sistema scala bene internamente, cioè si possono aggiungere qubit senza degradare troppo la qualità dei calcoli. La criticità è la stessa: #AQ può essere gonfiato dalle tecniche di correzione degli errori.

Quantinuum H2-1 si misura con Quantum Volume e test QAOA / LR-QAOA su circuiti profondi. Mantiene coerenza fino a 56 qubit in problemi di MaxCut (ottimizzazione). Questo significa che può gestire problemi più complessi senza perdere precisione. Il vantaggio è la robustezza intrinseca, ma non è detto che possa scalare facilmente a migliaia di qubit.

Confronto Quantinuum vs IonQ senza error mitigation mostra che senza correzione degli errori Quantinuum H2-1 ottiene #AQ ≈ 26, IonQ Forte ≈ 9. Questo indica che Quantinuum ha hardware più pulito, meno rumore intrinseco, mentre IonQ fa affidamento sulle mitigazioni d’errore per aumentare il punteggio.

Altri sistemi (IBM, Rigetti, ecc.) sono confrontati usando LR-QAOA su grafi e circuiti specifici. IBM mantiene coerenza fino a 35 qubit e circa 35.000 gate, ma Quantinuum H2-1 fa meglio su grafi fully connected fino a 56 qubit. Questi benchmark permettono un confronto “orizzontale”, ma sono molto specifici e non rappresentano tutti gli algoritmi industriali.

Note critiche:

  • #AQ è un numero sintetico che può dare una visione ottimistica delle capacità di IonQ.
  • La resistenza al rumore, la latenza di controllo e la complessità della correzione d’errore rimangono variabili cruciali per applicazioni reali.
  • Alcuni test si concentrano su algoritmi “amici” come QAOA e VQE, mentre algoritmi complessi come Shor potrebbero comportarsi diversamente.

In pratica, la tabella dà un’idea di chi sta facendo meglio in certi scenari, ma bisogna leggere tra le righe: i numeri più alti non significano automaticamente che il sistema sia “migliore” in ogni caso. Sono indicazioni su scenari controllati e selezionati.

Sistema / AziendaMetodologia BenchmarkRisultato / Quota RilevanteDettagli / CondizioniVantaggi evidentiCriticità / Limitazioni
IonQ Tempo (2025)Algorithmic Qubits (#AQ)#AQ = 64 (record) System Tempo ha raggiunto questo traguardo in anticipo secondo IonQ Mostra forza applicativa reale, indica che il sistema può eseguire un mix di algoritmi utiliBenchmark interno, uso di mitigazioni d’errore, non indica “logical qubits” pienamente fault-tolerant
IonQ Forte / Forte Enterprise#AQ, benchmark pubblici#AQ = 36 (nelle versioni sperimentali) IonQ ha aumentato il numero di qubit da 30 a 36 senza degradare le fidelità Buona scalabilità interna, progressione lineareIl punteggio #AQ può essere influenzato da error mitigation e casi scelti
Quantinuum H2-1Quantum Volume, test QAOA / LR-QAOA su circuiti profondiCoerenza mantenuta fino a 56 qubit su istanze MaxCut / QAOA In benchmark Montañez et al. (2025), per grafi fully connected, Quantinuum-H2-1 è risultato “più robusto” sui problemi con 56 qubit Test di “linear ramp QAOA” con profondità significative, confronto su più architetture Resistenza al rumore su ampia larghezza / profondità, migliori gate 2-qubit fidelità medie citateNon è detto che la robustezza si mantenga per scenari arbitrari, limite nell’estensione a migliaia di qubit fuori portata oggi
Quantinuum vs IonQ (senza error mitigation)Confronto #AQ raw (dati non mitigati)Quantinuum H2-1: #AQ ≈ 26; IonQ Forte: #AQ ≈ 9 Quantinuum argomenta che senza mitigazioni la differenza è significativa Implica che Quantinuum ha gate / connettività con rumore inferiore intrinseco rispetto a IonQIonQ replica che mitigazioni d’errore (plurality voting, ecc.) sono parte integrante dell’uso reale — il confronto “raw” potrebbe essere ingiusto
Sistemi vari (IBM, Rigetti, altri vendor)LR-QAOA benchmark su larghezza / profondità (Montañez et al. 2025)IBM “fez” mantiene coerenza fino a p ≈ 200 con 35.200 gate su 35 qubit; Quantinuum-H2-1 supera in grafi fully connected per 56 qubit Il test percorre griglie 1D, layout nativi, grafi fully connected su 19 QPU di 5 vendor Permette confronto “orizzontale” su architetture differenti per larghezza / profonditàI test sono specifici (QAOA / ramp) — non coprono tutti i possibili algoritmi industriali. Le condizioni di calibrazione, scheduling e routing influenzano i risultati.

Note aggiuntive e osservazioni critiche:

Il benchmark #AQ (Algorithmic Qubits) è un numero sintetico promosso da IonQ per valutare l’utilità di un computer quantico sui casi applicativi (ottimizzazione, simulazione, machine learning)

Quantinuum ha criticato il benchmark #AQ, sostenendo che l’uso di mitigazioni d’errore (plurality voting, “error folding”) possa gonfiare artificialmente il punteggio e mascherare le reali capacità hardware. In uno degli argomenti: senza error mitigation IonQ Forte ottiene #AQ = 9, mentre H2-1 #AQ = 26

Lo studio indipendente Montañez et al. (2025) è tra i più significativi, perché applica lo stesso protocollo LR-QAOA su varie architetture con test parametrizzati di larghezza (numero di qubit) e profondità (numero di strati 2-qubit)

Il test di Quantinuum su 56 qubit per problemi QAOA / MaxCut dimostra che il sistema può mantenere coerenza su istanze che superano la simulazione classica diretta, elemento che simboleggia un “frontier benchmark”

IonQ afferma che il sistema Tempo userà fra 80 e 100 qubit fisici per supportare #AQ = 64

IonQ ha una roadmap aggressiva: entro il 2025 prevede sistemi con 100 qubit fisici (in tecnologia Tempo)

Un rischio sempre presente è che i benchmark concentrino l’attenzione su algoritmi “amici” (QAOA, VQE, simulazioni Hamiltoniane) mentre gli algoritmi “difficili” (ad es. factoring classico → Shor estremo, algoritmi quantistici personalizzati) possono comportarsi diversamente.

La resistenza al rumore nel mondo reale, l’overhead di routing, la latenza di controllo e la complessità della correzione d’errore rimangono variabili che possono far saltare la previsione da benchmark idealizzati all’applicazione industriale.