Il quantum computing sta entrando esattamente in questa fase. Per anni è stato il regno dei white paper, delle dimostrazioni accademiche e delle promesse sempre rinviate. Oggi, tra IBM, Google e IonQ, il panorama cambia tono. Non siamo più davanti a un esercizio teorico elegante ma a una corsa industriale sporca, costosa e strategica, dove l’obiettivo non è la supremazia simbolica ma l’utilità economica misurabile. Il termine chiave qui è quantum computing pratico, non perché sia improvvisamente facile ma perché ha smesso di essere astratto.

IBM ha scelto la via della scala controllata. I suoi annunci più recenti non puntano a stupire il pubblico generalista ma a rassicurare chi deve costruire roadmap industriali su orizzonti di cinque o dieci anni. Nighthawk, con i suoi 120 qubit e una rete di coupler sintonizzabili che aumenta la connettività riducendo il rumore, è un segnale chiaro: meno fuochi d’artificio, più circuiti profondi che reggono il carico. Il messaggio implicito è che la quantum advantage verificata non arriverà con un singolo benchmark spettacolare ma con una serie di problemi reali risolti meglio dei computer classici entro il 2026. Loon, l’altro tassello, sposta l’attenzione su ciò che conta davvero per chi investe miliardi: la tolleranza agli errori. Senza fault tolerance il quantum resta una curiosità costosa. Con essa diventa infrastruttura. IBM continua a martellare su Qiskit, perché ha capito una verità scomoda: nel quantum il software è il vero moltiplicatore di valore, non l’hardware da solo.

Google gioca una partita diversa, più aggressiva e più rischiosa. Willow e l’algoritmo Quantum Echoes rappresentano la classica mossa da laboratorio che vuole dimostrare un salto di ordine di grandezza. Parlare di prestazioni fino a 13.000 volte superiori ai supercomputer classici su carichi selezionati non è solo marketing, è una provocazione strategica. Google sa che il dibattito sulla rilevanza dei benchmark continuerà, ma intanto sposta l’asticella psicologica. Ancora più interessante è il passaggio dalla supremazia simbolica a casi d’uso come la modellazione molecolare, dove il valore non è battere un record ma comprimere tempi di simulazione che oggi bloccano interi settori industriali. Qui il quantum computing smette di essere una gara di velocità e diventa una leva di produttività.

In mezzo a questi due colossi, IonQ rappresenta l’anomalia che molti sottovalutano. Non perché sia piccola, ma perché gioca su un asse tecnologico completamente diverso. Mentre IBM e Google restano legati a qubit superconduttivi, IonQ insiste sui qubit a ioni intrappolati. Una scelta che per anni è sembrata accademica, quasi nostalgica, e che oggi inizia a mostrare un vantaggio strutturale. I qubit di IonQ sono più lenti nelle operazioni elementari ma offrono tempi di coerenza molto più lunghi e una connettività nativa quasi totale. In termini meno poetici, significa meno errori accumulati e meno bisogno di una complessità estrema di correzione.

IonQ ha fatto una scommessa controcorrente: misurare il progresso non solo in numero di qubit ma in qualità algoritmica. Il concetto di Algorithmic Qubits, che tanti hanno criticato come fumo lessicale, è in realtà una risposta cinica a un problema reale. Contare qubit fisici senza considerare errori e connettività è come contare core di una CPU ignorando latenza e memoria. IonQ oggi dichiara sistemi con oltre 30 Algorithmic Qubits utilizzabili, un numero che sulla carta sembra inferiore ai concorrenti ma che in pratica consente di eseguire circuiti più complessi su problemi specifici. Non è un caso che le sue macchine siano già integrate in cloud come AWS Braket, Azure Quantum e Google Cloud, posizionandosi come fornitore trasversale piuttosto che come ecosistema chiuso.

La strategia industriale di IonQ è altrettanto interessante. Partnership con Hyundai per l’ottimizzazione dei processi produttivi e con Airbus per simulazioni avanzate sui materiali mostrano un approccio pragmatico. Non promette la rivoluzione domani mattina, vende accesso anticipato a capacità che migliorano marginalmente decisioni costose oggi. È una logica molto più vicina a quella del business reale. A questo si aggiungono i contratti con agenzie governative statunitensi, inclusi programmi DARPA, e gli investimenti sul fronte del quantum networking, dove IonQ intravede un futuro in cui computer quantistici distribuiti dialogano attraverso reti quantistiche sicure. Qui la narrativa cambia ancora: non un singolo mostro computazionale, ma un’infrastruttura diffusa.

Il quadro applicativo che emerge da IBM, Google e IonQ è meno glamour ma più pericoloso nel senso buono del termine. Automotive e aerospace stanno usando il quantum per simulare materiali, batterie e aerodinamica non perché sia trendy ma perché riduce il costo dell’errore. La finanza sperimenta modelli di rischio e simulazioni di mercato che oggi richiedono compromessi pesanti. La farmaceutica osserva con attenzione, perché comprimere anche solo del 10 percento i tempi di scoperta di una molecola vale miliardi. Il quantum computing pratico non promette miracoli, promette asimmetrie competitive.

Naturalmente i problemi restano. La correzione degli errori è ancora un incubo ingegneristico. La stabilità dei qubit, qualunque sia la tecnologia, è fragile. I costi energetici e infrastrutturali sono enormi. Qui emergono due scuole di pensiero. IBM e Google spingono su architetture sempre più complesse, confidando che la scala risolva il rumore. IonQ punta sulla qualità intrinseca dei qubit e su un percorso più graduale verso la fault tolerance. Nessuno dei due approcci è garantito. È probabile che il mercato premi una combinazione dei due, magari non ancora visibile.

C’è poi il tema che nessuno ama affrontare fino in fondo: la crittografia. Ogni passo verso un quantum computing operativo accelera l’obsolescenza degli attuali sistemi di sicurezza. La transizione verso standard post quantum non è più una raccomandazione teorica ma una necessità strategica. Le aziende che ignorano questo aspetto stanno accumulando debito tecnologico di tipo esistenziale. Qui il quantum diventa un tema di governance, non solo di ricerca.

Gli investimenti raccontano la storia meglio delle conferenze. Governi e grandi corporation stanno trattando il quantum come infrastruttura critica futura, al pari di semiconduttori e intelligenza artificiale. Non è un caso che le politiche industriali inizino a includerlo nei piani di sovranità tecnologica. Chi controlla il quantum controlla una leva di potere che va ben oltre il calcolo.

Il punto centrale, e forse più scomodo, è che IBM, Google e IonQ non stanno più cercando di convincerci che il quantum funzionerà. Stanno discutendo implicitamente di tempi, di accesso e di vantaggi competitivi. È il segnale classico di un’inflessione storica. Il quantum computing non diventerà improvvisamente onnipresente, ma inizierà a comparire nei bilanci sotto forma di decisioni migliori, simulazioni più rapide e rischi ridotti. In silenzio, come tutte le tecnologie davvero pericolose per lo status quo.