
Google sta lentamente trasformando il suo motore di ricerca in una macchina da guerra educativa. E non lo sta facendo con la solita fanfara da keynote californiano, ma a colpi chirurgici di nuove funzionalità integrate nell’ormai onnipresente AI Mode. L’ultima novità? Gli utenti possono ora caricare immagini direttamente dal desktop per chiedere a Gemini, l’intelligenza artificiale generativa al centro di tutto, di interpretarle, spiegarle e sezionarle come un professore post-moderno con un dottorato in machine learning. Il target dichiarato? Gli studenti. Il target reale? Chiunque voglia disintermediare la conoscenza, bypassando l’umano, spesso lento, opinabile e soggettivo.
L’immagine di un’equazione differenziale scarabocchiata su un quaderno diventa improvvisamente un prompt visuale. Basta caricarla, e il sistema restituisce una spiegazione, un approfondimento, magari una derivazione alternativa. Sì, perché l’apprendimento, secondo Google, deve diventare un flusso conversazionale: niente più pagine da scorrere alla ricerca del paragrafo giusto, ma un’interazione diretta con un assistente instancabile e, soprattutto, gratuito (per ora). C’è qualcosa di ironico nel fatto che proprio Google, la più grande azienda pubblicitaria del mondo, stia ora vendendo l’idea di una conoscenza democratica, disintermediata e sempre disponibile. Un’enciclopedia vivente, senz’anima, ma con milioni di parametri.
Non si tratta solo di caricare immagini. Il piano è molto più ambizioso. Google sta sperimentando la condivisione in tempo reale della fotocamera con AI Mode: un’evoluzione logica della Search Live, ma con una dimensione da documentario interattivo. Invece di digitare o parlare, si punta la camera, si fa una domanda ad alta voce e si riceve una risposta in tempo reale. È la nuova frontiera della ricerca visiva, una fusione tra il vecchio Lens e la nuova Gemini AI. Il tutto, ovviamente, ancora in fase sperimentale e solo per utenti americani che abbiano abbracciato la mistica dei Search Labs.
Ma l’intelligenza artificiale non si ferma lì. Chrome inizierà presto a mostrare l’opzione “Chiedi a Google di questa pagina” direttamente dalla barra degli indirizzi. È un dettaglio apparentemente minore, ma che rivela una strategia di posizionamento chiara: rendere l’AI Mode una seconda pelle del browser, una protesi cognitiva integrata nell’esperienza utente. Si clicca, si evidenzia un contenuto, si chiede un approfondimento, e il sistema genera una panoramica AI (AI Overview) direttamente nella sidebar. È come avere un fact-checker, un analista e un consigliere personale sempre attivi. La differenza? Non giudicano e non dormono mai.
Nel prossimo futuro, gli utenti potranno anche caricare PDF e file da Google Drive in AI Mode. Un dettaglio che, nella sua apparente banalità, rivoluziona l’interazione con i contenuti statici. Non più lettura lineare, ma ingaggio dinamico: il file diventa uno spazio di conversazione. La staticità viene uccisa dall’interazione generativa. E questo ci porta alla vera perla: l’integrazione di Canvas in AI Mode.
Canvas era già stato introdotto in Gemini a marzo, presentato come un laboratorio creativo dove costruire app, generare quiz, raffinare testi e prototipare idee. Adesso lo si porta dentro l’ecosistema AI Mode, con un posizionamento preciso: uno strumento per aiutare gli studenti a costruire le proprie guide di studio. Una sidebar che diventa un’officina di contenuti, dove si raccoglie il sapere in pillole personalizzabili, si pongono ulteriori domande, si crea una narrazione didattica a misura di prompt. Il docente si fa sintetizzatore, lo studente si fa regista. Una rivoluzione pedagogica travestita da aggiornamento software.
È difficile non notare il sottotesto di tutto questo. Google sta disintermediando anche il concetto stesso di studio. Non ti dice solo cosa cercare. Ti dice come pensarci. La differenza tra una query su un motore di ricerca e una conversazione con Gemini è esattamente questa: una ti fornisce contenuti, l’altra ti orienta mentalmente. È il passaggio da un internet consultivo a un internet conversazionale, dove l’intelligenza artificiale si propone come filtro epistemologico, come modello di pensiero.
Dietro l’apparente innocuità del “aiutiamo gli studenti con i compiti” si nasconde un cambio di paradigma. Il sapere non è più qualcosa da acquisire, ma qualcosa da costruire in tempo reale, in dialogo con una macchina che non ha esperienza ma ha accesso a tutto. È un modello di apprendimento alieno, in cui l’intuizione viene spesso soppiantata dall’ottimizzazione predittiva. Può sembrare efficace. Può anche esserlo. Ma resta la domanda: cosa succede quando ci si abitua a non cercare più, ma solo a chiedere? Quando la curiosità diventa una funzione del linguaggio naturale?
Il vecchio Lens era già un anticipo di questo mondo: inquadra, riconosci, ottieni risposta. Ma ora si entra in una dimensione nuova. Non è più solo visione aumentata. È interpretazione generativa. La realtà viene analizzata, contestualizzata e spiegata da un modello linguistico che non ha corpo ma si comporta come un mentore. Il rischio, come sempre, è l’illusione di completezza. L’idea che la risposta generata sia non solo corretta, ma esaustiva. Che ciò che non viene detto non esista. È la trappola dell’AI-overview: la sintesi come sostituto dell’esplorazione.
Certo, per gli studenti il fascino è innegabile. La possibilità di trasformare una ricerca scolastica in un dialogo produttivo, di avere un assistente personale che aiuta a scrivere saggi, risolvere problemi, generare mappe concettuali, è irresistibile. Ma in un mondo dove l’output è sempre più standardizzato, quanto vale l’originalità? Quanto costa la delega cognitiva?
Il vero punto, tuttavia, non è se AI Mode funzioni. È chi lo controlla. Perché ogni passo verso l’integrazione totale dell’intelligenza artificiale nella didattica è anche un passo verso la centralizzazione della conoscenza in poche mani. E Google, con la sua capacità di definire le priorità cognitive dell’utente medio, non sta solo suggerendo risposte. Sta riscrivendo il modo stesso in cui le domande vengono formulate. Un colpo da maestro, travestito da feature educativa.