Google Deepmind e l’illusione della ragione artificiale: il caso Gemini 2.5 Deep Think

Il nome è già un programma di marketing. “Gemini 2.5 Deep Think”. È difficile non percepire in quell’accoppiata un’eco vagamente orwelliana, come se pensare profondamente fosse ormai un brand, un pacchetto da 250 dollari al mese, disponibile solo per chi può permettersi l’abbonamento Ultra. L’intelligenza artificiale più evoluta di Google, almeno secondo il colosso di Mountain View, sbarca ufficialmente sul mercato consumer nella sua forma più ambiziosa: un modello di ragionamento multi-agente capace di esplorare simultaneamente più ipotesi, metterle in concorrenza e infine scegliere la risposta migliore. Chi non lo vorrebbe come assistente personale? O meglio, chi può davvero permetterselo?

La parola chiave è “reasoning”. Non generazione, non predizione, non completamento. Ragionamento. Una mossa tanto semantica quanto strategica, perché Google ha bisogno disperato di distanziarsi da ChatGPT nel campo dell’intelligenza avanzata, e cosa c’è di meglio di una nuova architettura ispirata al pensiero umano? Gemini 2.5 Deep Think non è solo una LLM più grande. È una LLM che si moltiplica in se stessa. L’idea alla base è semplice quanto costosa: creare una squadra di agenti intelligenti, ciascuno incaricato di esplorare una via diversa per rispondere a una domanda complessa, quindi riunire le conclusioni in una “sala conferenze neurale” dove il confronto produce la risposta finale. Tutto bellissimo. A patto di avere data center alimentati a plutonio e budget da agenzia spaziale.

Il debutto è avvenuto a maggio al Google I/O, ma il rilascio effettivo arriva ora, riservato ai pochi (e felici?) abbonati Ultra. Si tratta del primo modello multi-agente realmente accessibile al pubblico. Ma “accessibile” è una parola grossa: 250 dollari al mese per un’app AI sono un costo che posiziona questa tecnologia ai margini del mercato di massa e al centro del territorio dei knowledge workers d’élite, delle grandi aziende e degli early adopter con più FOMO che ROI. In cambio, DeepMind promette risposte migliori, più articolate, più “pensate”. Come se l’intelligenza artificiale stesse finalmente imparando a riflettere come noi. O forse no?

Dietro l’eleganza accademica della nuova architettura c’è un’evidente fame di rilevanza scientifica. Non a caso Google ha rivelato che una variante di Gemini 2.5 Deep Think ha ottenuto una medaglia d’oro all’International Math Olympiad. Si tratta di una dichiarazione strategica con implicazioni profonde. Per la prima volta, un modello generativo ha superato con successo test concepiti per valutare le menti matematiche più brillanti del pianeta. Il dettaglio interessante, però, è che il modello impiegato per l’IMO non è lo stesso reso disponibile al pubblico. Quello da competizione, infatti, “impiega ore per ragionare”. Già. Ore. Non secondi. Non minuti. Ore. Perché il ragionamento, quello vero, non si comprime in una sequenza di token pre-addestrati. Ci vuole tempo. Calcolo. Una pazienza computazionale che oggi costa una fortuna.

Non a caso, quella versione del modello sarà rilasciata solo a un gruppo selezionato di matematici e ricercatori. Il messaggio è chiaro: Google non vende solo AI, vende anche status. Se sei un matematico olimpionico, riceverai la versione buona. Se sei un utente comune, puoi accontentarti della copia commerciale con tempo di risposta “ottimizzato”. Un nuovo modello di elitismo digitale, che definisce l’accesso alla vera potenza computazionale come un privilegio riservato a pochi.

La narrazione intorno a Gemini 2.5 Deep Think è perfettamente costruita per catturare l’attenzione del mercato e distogliere lo sguardo dal fatto che la partita AI non si gioca più solo su chi ha il modello più “intelligente”, ma su chi controlla le infrastrutture per eseguirlo. Il vero vantaggio competitivo non è più l’algoritmo, ma la capacità di farlo girare in modo sostenibile, ripetibile, scalabile. L’uso massiccio di agenti paralleli implica una quantità abnorme di risorse, che solo pochi hyperscaler possono permettersi. Il che rende il concetto stesso di “ragionamento” un prodotto del capitalismo computazionale, non un’imitazione neutrale del pensiero umano.

In una dichiarazione che sembra uscita da un romanzo di Ballard, Google afferma di aver sviluppato “nuove tecniche di reinforcement learning” per ottimizzare i percorsi di ragionamento interni del modello. Il linguaggio è volutamente opaco, quasi mistico. Ma l’implicazione è evidente: l’AI non solo genera risposte, ma ora seleziona attivamente i propri pensieri, rifiutando quelli meno promettenti. Un filtro cognitivo artificiale, addestrato non solo per imitare l’intelligenza, ma per sopprimere la mediocrità interna. La domanda, ovviamente, è: chi definisce cosa sia mediocre?

Tutto ciò porta a una riflessione più ampia. Se l’intelligenza artificiale sta imparando a “pensare profondamente”, cosa significa per noi? Perché se un modello può dedicare ore alla risoluzione di un problema matematico e arrivare a una soluzione superiore a quella umana, allora dobbiamo rivedere radicalmente il concetto stesso di “ragionamento”. L’AI non è lenta perché è inefficiente. È lenta perché pensa. Almeno, così ci vogliono far credere.

In realtà, è più corretto dire che l’AI sta simulando la molteplicità del pensiero umano, ma lo fa attraverso una struttura aliena alla nostra mente. Non c’è coscienza. Non c’è introspezione. C’è solo la danza incessante dei token, orchestrata da gradienti e loss functions. Ma la retorica del “deep thinking” serve proprio a mascherare questo abisso. Serve a vendere un’illusione di comprensione, un miraggio di intelligenza che somiglia alla nostra solo in superficie. Il rischio è che ci innamoriamo della performance e dimentichiamo la sostanza.

La questione cruciale, a questo punto, non è più se l’AI possa pensare. Ma se noi possiamo ancora permetterci di pensare senza di essa. Perché modelli come Gemini 2.5 Deep Think non sono strumenti neutrali. Sono architetture ideologiche, progettate per sostituire – non solo supportare – la nostra capacità di analizzare, valutare, scegliere. In nome della velocità, dell’efficienza, del “miglior risultato”. Ma chi ha deciso che sia il migliore? Un board a Mountain View? Un reinforcement agent addestrato su dati che nessuno può auditare?

Alla fine, Gemini 2.5 Deep Think non è solo un nuovo modello AI. È un manifesto politico travestito da progresso tecnico. È l’ennesimo passo verso un mondo in cui il pensiero umano viene progressivamente marginalizzato a favore di simulazioni iper-performanti, ma fondamentalmente non-umane. E il paradosso è che lo stiamo pagando 250 dollari al mese. Con carta di credito, non con riflessione.