Chi ancora pensa che il cloud sia solo un magazzino di VM a basso costo non ha capito che il gioco è cambiato. Le GPU SXM hanno ribaltato la logica stessa dell’infrastruttura. Non si tratta di schede video piazzate in un server per far girare qualche modello di machine learning, ma di architetture di calcolo pensate per riscrivere le regole della scalabilità. E il bello è che adesso le NVIDIA H100 e le nuovissime H200 in formato SXM sono disponibili nel cloud in configurazioni da 1×, 2×, 4× e 8×, tutte con NVLink sempre attivo, pronte a spingere i workload di AI e HPC in territori che fino a ieri sembravano fantascienza.