McKinsey Study AI infrastructure: A new growth avenue for telco operators
“Il miglior modo per predire il futuro è inventarlo”, diceva Alan Kay. Ma nel caso dell’economia dell’intelligenza artificiale, predirlo significa anche cablarlo. Ospitarlo. Alimentarlo a megawatt e connettività. E se oggi gli operatori telco si illudono di poter semplicemente ritagliarsi un posto accanto agli hyperscaler, farebbero meglio a studiare il caso Seeweb con il suo GPU aaS ad esempio: un player italiano che, mentre i giganti si perdono tra strategie da boardroom e infrastrutture legacy, ha già capito come posizionarsi là dove l’AI genera valore reale. Ovvero, nell’inferenza. Sì, proprio quel segmento dove la corsa ai chip diventa guerra di margini, latenza, costi energetici e disponibilità immediata.
Il contesto? Secondo McKinsey, la domanda globale di data center per applicazioni AI triplicherà entro il 2030. Non è solo una questione di training: è l’inferenza quotidiana, ubiqua, embedded in ogni app, customer service, servizio pubblico. È la fase in cui l’intelligenza artificiale non solo impara, ma lavora. E per lavorare, le servono strutture vicine, leggere, distribuite. Chi controlla la rete, controlla la distribuzione dell’intelligenza.

Gli operatori possono davvero essere l’asse portante dell’economia dell’intelligenza artificiale? O finiranno come i tassisti contro Uber
Nel teatro ipercompetitivo dell’AI, gli operatori telecom stanno per giocarsi l’ultima, forse irripetibile, mano. Siamo nel mezzo di una corsa globale al dominio delle infrastrutture computazionali, eppure, ironia della sorte, i protagonisti di questa storia gli stessi che hanno connesso il mondo sono stati per anni gli spettatori marginali della rivoluzione digitale. La domanda vera ora è: potranno diventare gli architetti dell’economia AI o resteranno solo manovali sottopagati della nuvola?
Le telco hanno passato l’ultimo decennio a guardare i ricavi stagnare mentre hyperscaler come AWS, Azure e Google Cloud ingoiavano il valore generato dall’aumento vertiginoso del traffico dati. Ma l’AI, soprattutto quella generativa e “agentica”, potrebbe ribaltare le gerarchie. A patto però che gli operatori smettano di comportarsi come utility ottocentesche e si reinventino come protagonisti a pieno titolo dell’ecosistema tecnologico.
Per farlo, devono imparare a navigare tra mercati incerti, domanda fluttuante, e una concorrenza spietata. E devono farlo ora.
Il primo ingrediente della ricetta è ovviamente la parola magica: infrastruttura. Non basta però possedere fibra ottica o data center. Serve visione. Serve velocità. Serve una lucidità brutale per capire dove investire e con chi allearsi, prima che la partita venga chiusa dai soliti noti.
La domanda di potenza di calcolo crescerà di oltre tre volte entro il 2030, guidata da un’esplosione di modelli AI assetati di GPU e latenza ridotta. Per dirla con brutalità: chi non è già oggi nella posizione di garantire connettività a bassa latenza, energia affidabile e capacità di scalare velocemente, è già fuori gioco. Ma le telco hanno un vantaggio – uno dei pochi rimasti che si chiama presenza territoriale. Hanno asset distribuiti in territori dove i cloud provider faticano a costruire. Hanno cavi, nodi, permessi. Hanno, ancora per poco, il tempo dalla loro parte.
Ma trasformare questo vantaggio in valore concreto richiede quattro strade parallele, ognuna con rischi e benefici specifici.
La prima è quella più intuitiva: collegare i nuovi data center con la fibra. Gli hyperscaler stanno costruendo migliaia di nuove strutture, molte in zone dove oggi non esiste infrastruttura. Per una volta, le telco possono essere più rapide, più agili. Hanno diritto di prelazione, possono vendere o affittare dark fiber, e in certi mercati sono le uniche autorizzate a scavare. È un mercato da 30 a 50 miliardi di dollari, ma durerà pochi anni. Poi, come sempre, i big faranno da soli.
La seconda via è più sofisticata: offrire servizi di rete intelligenti per l’accesso cloud. In un mondo dove le aziende cercano di ridurre i famigerati “egress fees” e gestire AI distribuita, le telco possono offrire SDN evoluti capaci di instradare, analizzare e ottimizzare il traffico AI. È la versione moderna della rete a valore aggiunto. Chi riuscirà a vendere questi servizi con modelli a valore (non più a consumo) potrà invertire la spirale discendente del fatturato B2B. Ma serviranno software, API, interfacce e capacità di parlare ai CTO delle imprese, non ai responsabili degli acquisti.
La terza opzione è l’uovo di Colombo: valorizzare spazio e potenza inutilizzati. Centralini dismessi, data center parzialmente vuoti, sottostazioni connessissime e dimenticate. In un mondo in cui costruire un data center può richiedere cinque anni e dove le reti elettriche sono al collasso, affittare questi asset a chi ha fame di AI è quasi un dovere morale. A patto che ci siano almeno 500 kW e che non servano mesi di retrofit per installare raffreddamento a liquido. Telco come KDDI e NTT in Asia sono già dentro al gioco; in Europa si cincischia ancora, e in USA c’è chi, come Verizon, gioca il doppio ruolo: landlord e orchestratore.
Poi c’è la quarta opzione. Quella più audace: diventare provider GPUaaS. Affittare potenza di calcolo ad aziende, enti pubblici, startup AI. Una nuova forma di colocation dove il valore non è solo nei metri quadri o nei watt, ma nei teraFLOP. È un mercato che vale tra i 35 e i 70 miliardi di dollari entro il 2030. I margini? Buoni, se si riesce ad attrarre clienti sovrani (governi), regionali (banche, telco) o verticali (sanità, mobilità). Softbank, Indosat, Swisscom e Telenor sono già in partita, in partnership con Nvidia o sviluppando propri cluster. La condizione necessaria? Avere capitale da investire e una strategia chiara. La condizione sufficiente? Non aver paura di perdere.
Un New operating model sarà necessario.
E qui arriva il punto centrale. La velocità sarà tutto. Non si tratta di decidere cosa fare tra cinque anni, ma dove scommettere domani mattina. E ogni mossa richiede una trasformazione organizzativa. Non basta aggiornare il catalogo servizi. Servono team dedicati, modelli di vendita consulenziale, alleanze con hyperscaler e startup AI. Servono anche nuovi KPI, nuovi strumenti di pricing, e un atteggiamento finalmente proattivo, quasi predatorio.
Chi riuscirà a diventare parte integrante della filiera AI come servizio, come infrastruttura o come piattaforma potrà scrivere una nuova storia. Chi resterà a contare i cavi, rischia di fare la fine dei taxisti prima di Uber.
Una curiosità finale: secondo alcune stime, l’AI-RAN ovvero la convergenza tra compute AI e funzioni di rete basate su GPU potrebbe trasformare le telco in fabbriche distribuite di intelligenza, in grado di monetizzare inferenza AI on-the-edge e al tempo stesso ottimizzare la rete. Se fosse vero, si tratterebbe della più grande reinvenzione del modello telco dai tempi della liberalizzazione.
I telco devono scegliere: essere la piattaforma oppure un semplice tubo. Fornire valore o solo banda. Abilitare l’inferenza o subirla. E per una volta, dovrebbero guardare a Seeweb non come una curiosità, ma come un benchmark. Perché il futuro non aspetta. E non è scritto nei whitepaper delle multinazionali. È già in esecuzione
Ma, come sempre, la storia non aspetta i prudenti.