IBM, con oltre un secolo di storia e innovazione alle spalle, ha appena svelato un algoritmo quantistico che potrebbe ridefinire cosa significa “efficienza computazionale”. Non è un annuncio di facciata, ma un segnale che il quantum sta mutando da esperimento accademico a strumento con leve reali nel mercato. L’algoritmo in questione drenato dall’astrattezza della matematica più pura si chiama QXC, ovvero quantum approximate counting (conteggio quantistico approssimato).
Il contesto tecnico è denso: l’algoritmo è stato progettato per stimare i coefficenti di Kronecker, quantità che emergono quando si combinano due rappresentazioni di simmetria (il “pattern nei pattern”) e che compaiono in algebra combinatoria, teoria dei gruppi e simulazioni quantistiche. Calcolare quei coefficienti su un computer classico si traduce in un’esplosione combinatoria quasi ingestibile. La proposta IBM utilizza una versione generalizzata della phase estimation su gruppi non abeliani per individuare queste molteplicità con guadagno rispetto al classico.
Non è magia: è matematica quantistica che sfrutta la struttura intrinseca dei problemi, non solo la potenza del gate. A livello formale, il problema è inquadrato nella classe QXC, pensata per stimare “quanti certificati quantistici possibili esistono” per un problema QMA. In particolare, il team — che include Havlíček e Larocca — ha mostrato che alcuni casi del problema dei coefficienti di Kronecker cadono esattamente in quella classe.
Dunque, non stiamo parlando di un salto quantico irrealistico, bensì di un guadagno polinomiale più elegante (meno esoso in risorse) rispetto agli approcci classici. La prima affermazione del gruppo (velocità superpolinomiale) è stata rivista da Greta Panova, che ha fornito miglioramenti classici non banali e smontato l’ipotesi estrema. Resta però che l’algoritmo è più efficiente su certi casi, e che la struttura matematica emersa illumina strade nuove anche per i computisti classici.
Le implicazioni finora teoriche possono rapidamente diventare pratiche. Nell’industria farmaceutica potremmo stimare configurazioni molecolari/strutture complesse più velocemente; nella finanza scenari di rischio multidimensionale potrebbero essere simulati con grane di calcolo inferiori; nella gestione dell’energia si potrebbe raffinare il bilanciamento fra fonti variabili e accumulo con modelli più granulari in tempo reale.
Naturalmente non siamo ancora all’“algoritmo quantistico che risolve tutto”. Il lavoro è più un template che una soluzione già pronta per applicazioni industriali. Serve che l’hardware quantistico migliori (meno rumore, più qubit utili, error correction più efficiente). Ma è un segnale forte: il futuro delle compute stack ibride (quantistico + classico) si scrive oggi.