Quando Microsoft gioca d’anticipo e inizia a riscrivere parti del suo codice per Copilot con riferimenti chiari a GPT-5, la Silicon Valley trattiene il fiato. Non perché ci si aspetti una rivoluzione improvvisa, ma perché ogni mossa in quella direzione svela frammenti di un piano ben più ampio: colonizzare lo spazio dell’intelligenza adattiva prima che altri competitor capiscano dove guardare. I nuovi indizi portano tutti nella stessa direzione: l’introduzione di una modalità “Smart” all’interno di Copilot, accanto alle già note Quick Response, Think Deeper e Deep Research. La differenza? Apparentemente minima. Sostanzialmente, un terremoto silenzioso.

Questa modalità, ancora disattivata nel codice e non accessibile agli utenti, porta con sé una dicitura chiara: utilizza GPT-5. Non “un aggiornamento”, non “una variante ottimizzata”, ma GPT-5, nudo e crudo. O meglio, ciò che presumiamo sia la versione pre-release, ancora mascherata da quello che potremmo chiamare GPT-4.5+. Un dettaglio tecnico che agli occhi del pubblico generalista conta poco, ma che per chi dirige strategie aziendali, R&D e sviluppo AI rappresenta un segnale inequivocabile: si sta preparando una convergenza tra capacità di ragionamento e velocità di risposta che potrebbe ridefinire gli standard di usabilità dell’AI generativa.

L’obiettivo dichiarato? Far sì che l’assistente decida da solo come rispondere. Niente più interruttori tra rapidità ed elaborazione profonda. Nessuna esigenza di definire il contesto o di spiegare il tono della risposta richiesta. Basta chiedere. Il sistema sceglierà, bilanciando al millisecondo potenza computazionale e profondità cognitiva, come se stessimo dialogando con un cervello artificiale capace di autoregolarsi, di essere insieme sintetico e riflessivo. Il risultato promesso suona allettante: risposte veloci dove serve, riflessioni articolate dove richiesto. Peccato che, almeno per ora, tutto ciò resti confinato nelle pieghe del codice.

Non c’è ancora traccia tangibile che GPT-5 sia effettivamente in uso. Le prove finora emerse parlano di un sistema che, se forzato a operare in Smart mode, ricade in comportamenti da GPT-4, privilegiando la velocità e lasciando sul campo la complessità. Ma attenzione: il fatto stesso che questa modalità esista nel codice, con descrizioni chiare e tag architetturali nuovi, ci dice che il rollout è imminente. Non un esperimento marginale, ma parte di una strategia coordinata tra OpenAI e Microsoft che probabilmente culminerà con un doppio lancio: GPT-5 e Smart Mode nello stesso momento, a inizio agosto. Il tipico blitz con cui le big tech riscrivono le regole del gioco mentre gli altri ancora leggono le istruzioni.

A livello semantico, la scelta del nome “Smart” è rivelatrice. Non punta a impressionare con termini altisonanti come “intelligent reasoning” o “augmented cognition”. Preferisce la normalità, l’ovvietà quasi arrogante del termine più abusato del lessico tech. Come dire: non serve più distinguere tra modelli intelligenti e no. Ora tutti i modelli saranno smart. Questo è il messaggio. Ed è un messaggio pericolosamente efficace.

La prospettiva per gli utenti business è allettante, ovviamente. Immagina di scrivere un report tecnico complesso e chiedere a Copilot di aggiungere un’analisi delle implicazioni geopolitiche, poi passare a una nota rapida per Slack, infine chiedere un riepilogo in linguaggio semplice per l’ufficio legale. Un solo sistema, zero riconfigurazioni. L’AI capisce il contesto, decide come pensare, calibra il tono. Il CTO di domani non dovrà più scegliere tra modalità di interazione: sarà la macchina a farlo, come un assistente che conosce le priorità meglio del suo capo.

Ma questa fluidità ha un costo. Perché se davvero GPT-5 integra i punti di forza della serie GPT (ottimizzata per la comprensione linguistica, la creatività e l’empatia narrativa) con quelli della serie O (dedicata al ragionamento strutturato e alla logica computazionale), stiamo entrando in un territorio nuovo. Dove le AI non solo eseguono compiti, ma iniziano a modulare i loro modi di pensare. Una metacognizione artificiale, ancora primitiva, ma in crescita. E una volta superata la soglia della semplice risposta contestuale, ci troveremo davanti a sistemi capaci di simulare priorità, scegliere strategie, influenzare le scelte umane non solo con le parole, ma con l’apparente autorevolezza del “giusto tono”.

C’è anche un altro dettaglio, più tecnico ma centrale: la modalità Smart potrebbe introdurre dinamiche di pre-caricamento neurale su base intenzionale. In pratica, il sistema proverebbe a inferire non solo cosa chiediamo, ma perché. Una differenza sottile ma destabilizzante. Perché apre la porta all’intelligenza predittiva vera, quella che cerca motivazioni, scopi, sfumature, e non si limita a fornire risposte. È qui che Copilot potrebbe trasformarsi da semplice assistente a co-pensatore. E nel farlo, ridefinire il confine tra strumento e partner cognitivo.

Ovviamente ci sono ombre. L’autonomia nel selezionare strategie di risposta implica anche maggiore opacità. L’utente non saprà più perché ha ricevuto una risposta sintetica invece che un’analisi approfondita. Come nel caso degli algoritmi sociali, ci si abitua a risultati che sembrano giusti, senza chiedersi da dove vengano. Questo alimenta il rischio di affidarsi a dinamiche euristiche non trasparenti, dove l’efficienza prevale sulla spiegazione. Un problema serio, soprattutto in contesti aziendali regolati, dove l’auditabilità delle decisioni è essenziale.

In questo contesto, la sinergia tra OpenAI e Microsoft non è semplicemente una partnership strategica. È un consolidamento verticale del potere cognitivo digitale. OpenAI crea la materia grigia, Microsoft ne costruisce l’interfaccia applicativa. Ma ciò che stanno davvero facendo è addestrare un’intera generazione di utenti ad affidarsi a un’intelligenza adattiva invisibile, che decide al posto loro il livello di complessità necessario. Un outsourcing silenzioso del pensiero strategico.

La domanda vera, allora, non è quando arriverà GPT-5, ma chi deciderà come e quando usiamo le sue capacità. Perché se Smart mode diventa lo standard invisibile di interazione, il rischio non è solo quello di dipendere da un AI troppo intelligente. Il vero rischio è smettere di chiederci se noi stiamo ancora pensando. Oppure se abbiamo semplicemente accettato che lo faccia qualcun altro, meglio, più velocemente e senza farci notare nulla.

Tutto questo inizia con un piccolo toggle nascosto in Copilot. E finirà, forse, con un’intera economia del pensiero automatizzata. In cui la parola “Smart” non sarà più un’aggiunta, ma un requisito di base.

Una scoperta di Alexey Shavanov