Qualche mattina fa, Google ha alzato la posta nella partita più strategica dell’era dell’informazione: ha annunciato che il suo nuovo chip quantico Willow, eseguendo l’algoritmo denominato Quantum Echoes, ha superato un supercomputer classico di circa 13.000 volte in un compito scientifico misurabile (non un compito fittizio). (Vedi Research+4) Il risultato è stato pubblicato su Nature e, per la prima volta nel campo, è stato definito “verificabile” (ossia un algoritmo quantico che altri sistemi quantici possono riprodurre con lo stesso risultato).

La narrazione ufficiale parla di una svolta: il passaggio dalla teoria alla realtà testabile, dal “quantum supremacy” strumentale a un “quantum advantage” con senso applicativo. Ma quanto è vera, stabile e vicina all’uso commerciale questa svolta? Ecco il punto.

Il chip Willow dispone di 105 qubit fisici, un traguardo importante nella scala dei sistemi quantici superconducting. In precedenza, Google aveva già dimostrato su Willow un calcolo random (random circuit sampling) che impiegherebbe un’aritmetica classica astrattamente gigantesca: secondo la compagnia, quel calcolo avrebbe richiesto ai supercomputer circa 10^25 anni, mentre il chip Willow lo ha eseguito in pochi minuti. Quella famosa affermazione era controversa, anche perché simulazioni intelligenti e ottimizzazioni classiche potrebbero erodere quell’apparente vantaggio.

Quantum Echoes invece opera su un terreno diverso: non genera semplici bitstring casuali, ma misura quantità fisiche soggette a verificabilità, come correlatori fuori ordine temporale (OTOC, out-of-time-order correlators). Questa scelta metodologica è cruciale: il risultato è “un numero” o “una misura”, non una distribuzione complicata da validare. E quell’output è riproducibile su un altro sistema quantico equivalente, rendendo il risultato effettivamente verificabile. Google riassume: «Questo è il primo algoritmo quantico capace di vantaggio quantico verificabile su hardware» blog.google+1

Nell’esperimento, l’algoritmo Quantum Echoes è stato eseguito su 65 dei qubit di Willow e confrontato con l’omologo calcolo classico su Frontier, uno dei supercomputer più potenti oggi. Nature+3IEEE Spectrum+3Google Research+3 Il risultato: un’accelerazione di ~13.000× (per la versione classica ottimizzata del calcolo) — un guadagno enorme. Live Science+3IEEE Spectrum+3Google Research+3 In termini concreti, alcune parti del compito avrebbero richiesto oltre 3,2 anni su Frontier, ma Willow le ha svolte in poche ore. Science News+3Live Science+3The Quantum Insider+3

Google ha accompagnato la pubblicazione con una seconda componente sperimentale: un proof-of-principle applicato alla spettroscopia NMR (risonanza magnetica nucleare) su molecole da 15 e 28 atomi, mostrando che Quantum Echoes può, in modalità “regola molecolare”, mappare distanze atomiche e strutture molecolari con precisione in linea con metodi NMR classici. Questo non è un caso astratto: è un indizio dell’intenzione di Google di muovere il quantico verso problemi reali, non solo dimostrativi.


La reazione della comunità scientifica è oscillante. Alcuni fisici descrivono il risultato come “decisivo” o “molto convincente” per suggerire che la simulazione quantistica utile può essere praticabile. Altri sono più cauti: in passato vantaggi quantici sono stati erosi da nuove simulazioni classiche più efficienti, o da attacchi algoritmici imprevisti. Un aspetto particolarmente discusso è che finora il test Quantum Echoes riguarda sistemi relativamente piccoli, e non un’applicazione industriale completa.

Anche la “verificabilità” richiede due sistemi quantici equivalenti o un confronto con esperimenti naturali. Ma siamo ancora lontani da poter verificare un calcolo quantico con un computer classico in modo efficiente — ciò sarebbe l’ideale per molti scenari applicativi come crittografia o simulazioni chimiche complesse. Un’altra incognita è la scalabilità: l’errore per qubit deve continuare a diminuire mentre estendiamo il numero di qubit, mantenendo la coerenza, sincronizzazione e controlli. Willow mostra promettenti miglioramenti nell’errore man mano che si scala (“below threshold” di correzione dell’errore) ma non è ancora un sistema fault-tolerant completo.

Sì, questo è un salto tecnico notevole, forse un punto di non ritorno nella fiducia che l’infrastruttura quantica può produrre risultati utili. Ma “commerciale”? Non ancora. Per trasformare il vantaggio quantico verificabile in un servizio quantistico affidabile, servono almeno alcuni elementi: hardware con molti migliaia o milioni di qubit logici, correzione dell’errore robusta, scalabilità dei controlli, integrazione con stack software applicativi reali, interventi di ottimizzazione ibrida classico-quantico e modelli di business sostenibili.

Vorrei proporre una roadmap provocatoria: nei prossimi 3-5 anni vedremo protocolli quantici “ibridi” che affiancano calcoli classici e quantum simili a Quantum Echoes, sfruttati in chimica o materiali. Dopo di che, solo quando il salto hardware e software sarà consolidato (10 anni? Forse meno) potremo vedere offerte quantistiche “commerciali” usate da aziende e industria reale.

Questo annuncio di Google non è la linea d’arrivo, è la freccia scoccata nella direzione giusta.