L’evento ha confermato che non si tratta più di “assistenti AI che ti rispondono”, ma di agenti‑lavoratori autonomi. Il CEO di Amazon Web Services (AWS) ha aperto la conferenza chiarendo che il valore reale degli investimenti in AI ormai non sta più in modelli generativi da usare a mano, ma in agenti che operano da soli e attivano flussi di lavoro complessi su larga scala.

Al centro della svolta tecnologica presentata a re:Invent troviamo tre pilastri: hardware specializzato, modelli AI flessibili per imprese e agenti AI che possono vivere per giorni dentro i workflow aziendali.

Una delle rivelazioni principali è il nuovo chip AI di AWS: Trainium3, accompagnato dall’infrastruttura “UltraServers”. Questo silicio su misura per AI è un salto in avanti significativo: secondo AWS un server può contenere fino a 144 chip Trainium3, con totali peta‑FLOPS, un aumento di performance di ~4x rispetto alla generazione precedente e una migliore efficienza energetica (fino al 40% in meno di consumo per unità di lavoro).

A chiudere il cerchio hardware + software, AWS presenta Nova 2 — un pacchetto di quattro nuovi modelli generativi e multimodali: versioni “Lite” ragionevoli ed economiche, “Pro” per compiti complessi, “Sonic” per conversazioni real‑time via voce, e “Omni” per contenuti multimodali (testo, immagine, video, audio).

Ma AWS non si ferma lì: ha lanciato Nova Forge — un servizio che consente ad aziende e governi di creare modelli AI su misura combinando i checkpoint Nova originali con i propri dati proprietari. Non solo fine‑tuning: pre‑training, mid‑training, post‑training, con possibilità di definire policy di sicurezza, guard‑rails, e persino custom reward per reinforcement fine‑tuning. Questo approccio dà controllo e sovranità a chi vuole modelli “su misura” senza dipendere da modelli pubblici o API generiche.

Sul fronte agenti, AWS ha presentato una nuova classe: Frontier agents — agenti AI “autonomi” progettati per lavorare per ore o giorni su task complessi, come scrivere codice, gestire processi DevOps, mantenere infrastrutture, fare code‑review, automazione sicurezza. Per esempio, uno di questi agenti, chiamato “Kiro autonomous agent”, è pensato per “imparare come un team lavora” e replicare quel processo in autonomia.

Al contempo è stato potenziato il tool per costruire agenti: AgentCore ora offre nuove funzionalità di governance: puoi definire policy tramite linguaggio naturale per limitarne i poteri, controllare accessi a dati o tool esterni, abilitare memoria persistente, logging delle attività, e un insieme di 13 sistemi di valutazione pre‑costruiti per misurare le performance e il comportamento degli agenti.

Ultimo, ma forse più strategico, AWS ha introdotto AWS AI Factories: soluzioni per eseguire ambienti AI su data center privati (on‑premises), combinando il silicio di AWS (Trainium3) e, in alcuni casi, GPU Nvidia, per chi ha vincoli di sovranità dati — governi, grandi imprese o settori regolamentati. In pratica, portare la potenza di AWS AI “in casa”.

Il messaggio di fondo? AWS non vuole “solo” essere un fornitore di cloud, vuole essere il cuore operativo dell’intelligenza artificiale enterprise: compute, modelli, agenti, infrastruttura on‑premises, governance. Vuole trasformare le aziende. Vuole rivendicare la supremazia su costi, flessibilità, controllo.

I rischi e i segnali da non ignorare: da un lato, questa strategia può attrarre grandi clienti con bisogni di personalizzazione forte e vincoli di sovranità o compliance; dall’altro, il passaggio da “modello generativo come servizio” ad “agent as infrastructure” richiede maturità operativa, competenze, rigore su sicurezza, monitoraggio e governance. In mancanza di ciò, “agenti autonomi” rischiano di generare caos, sprechi o vulnerabilità.