In un’epoca dove tutto è “cloud-first” e l’AI è sinonimo di raccolta dati, Google ha fatto qualcosa di profondamente controintuitivo, quasi punk: ha rilasciato un’applicazione che non ha bisogno di internet, non ti spia, e non condivide niente con i suoi server. Sì, stiamo ancora parlando di Google, e no, non è uno scherzo. Si chiama AI Edge Gallery e sembra un errore di marketing. Eppure, è proprio quello che mancava.
Lanciata con discrezione il 31 maggio, senza fanfare, senza conferenze stampa, questa nuova app consente di eseguire modelli linguistici e multimodali completamente offline, direttamente sull’hardware del tuo smartphone. Nessun cloud, nessuna latenza da round-trip server, nessun trattamento dei tuoi dati come fossero cavie per Gemini o PaLM. È tutto locale. Ed è sorprendentemente efficace.
Un paradosso: l’app che Google non promuove è quella che potrebbe sottrarre più potere al suo stesso impero di raccolta dati.
AI Edge Gallery è attualmente disponibile solo per Android, ma l’arrivo su iOS è previsto a breve. Distribuita con licenza Apache 2.0, il codice è disponibile su GitHub e lascia intendere che, almeno per ora, Google voglia attrarre sviluppatori e smanettoni piuttosto che il grande pubblico. Ma attenzione: questo potrebbe cambiare molto presto, come sempre succede quando qualcosa che funziona davvero sfugge di mano.
Dentro l’app ci sono tre funzioni principali: AI Chat, che replica l’esperienza conversazionale; Ask Image, per analizzare immagini; e Prompt Lab, una specie di editor testuale per prompt singoli, ottimo per riformulazioni e spiegazioni. Una suite snella, senza fronzoli, che fa bene poche cose ma le fa davvero offline. L’hardware fa tutto da solo. Come tornare indietro nel tempo, ma con il cervello di domani.
I modelli? Puoi scegliere tra i nuovi Gemma 3n, piccoli gioielli locali da 554 MB a 4.4 GB, e qualche outsider come Qwen2.5. Il limite principale è che accetta solo formati .task
, e non .safetensor
, lo standard de facto adottato da quasi tutto l’ecosistema open source (vedi Ollama, LM Studio, e compagnia LLaMa). Insomma, un recinto dorato: brillante ma chiuso.
Eppure, anche così, funziona. Abbiamo testato AI Edge Gallery su un Samsung Galaxy S24 Ultra, con risultati notevoli: la versione da 1B del Gemma 3 genera più di 20 token al secondo su CPU. Sì, la CPU. Nessun datacenter, nessun GPU NVIDIA fuso per l’inferno climatico. Solo il tuo chip ARM.
Il multiturno regge dignitosamente i 4096 token, limite che nel 2025 sembra patetico, ma che fino a ieri definiva lo standard. I modelli fanno bene il loro mestiere: rispondono, spiegano, suggeriscono codice, analizzano foto. Su CPU, persino meglio che su GPU, a volte. E qui nasce il sospetto: forse non abbiamo bisogno di tutta quella potenza, dopo tutto. Forse l’ottimizzazione conta più dei flops.
Il test d’immagine? Durante un’analisi visiva, il modello in locale ha stimato l’età mia e di mia moglie con un’accuratezza inquietante. La CPU ha detto 38 e 29. La GPU ha osato dirmi 25. Ho scelto di fidarmi della GPU. In ogni caso, la privacy era salva: nessun dato è uscito dal telefono.
E qui si tocca il punto cruciale. Privacy, quella parola che da troppo tempo suona come utopia o slogan, diventa concretezza: giornalisti sotto embargo, medici sul campo, chiunque abbia bisogno di un assistente AI senza occhi indiscreti può ora contare su qualcosa di vero, tangibile, usabile. Nessun account, nessun tracciamento, nessuna pubblicità. Zero log. Solo tu e un modello addestrato, compressato, pronto all’uso.
La community Reddit si è divisa: alcuni l’hanno paragonata a PocketPal, altri hanno urlato al clone. Ma la verità è che AI Edge Gallery ha un vantaggio cruciale: viene da Google, con tutta la sua capacità di ottimizzazione UI/UX. Anche se è una release sperimentale, l’esperienza d’uso è levigata come il vetro di uno smartwatch: minimale, pulita, funzionale. Una UX che fa sembrare Ollama un terminale per Commodore 64.
Certo, non è tutto perfetto. Il formato .task
è una barriera per l’adozione mainstream. Il parco modelli è limitato, la configurazione iniziale non è per neofiti, e i modelli più grandi prosciugano la batteria come un visore Apple Vision Pro sotto acido. Ma questi sono problemi secondari. Il segnale è chiaro: Google ha deciso di flirtare con l’idea di AI decentralizzata, e l’ha fatto senza trasformarla in un casino inutilizzabile. Già questo è rivoluzionario.
Sì, la censura sui modelli è ancora presente, ma jailbreak rudimentali funzionano bene. E, per una volta, nessuno ti banna, nessuno ti sorveglia. Gli utenti più navigati sanno che poter testare prompt “vietati” in locale, senza il rischio di perdere l’account o attivare un alert nella sede centrale di Mountain View, è un’arma in più, non un dettaglio.
È l’inizio di qualcosa di più grande? Difficile dirlo. Ma se domani Google decidesse di abilitare .safetensor
, il numero di modelli supportati esploderebbe da una manciata a migliaia. In quel momento, AI Edge Gallery diventerebbe non solo utile, ma inevitabile.
La domanda di fondo resta: perché usare un’intelligenza artificiale meno potente, più lenta, e che occupa spazio sul telefono? La risposta è semplice quanto controintuitiva: perché è tua. Nessun intermediario, nessun compromesso, nessuna sorveglianza.
E in un’epoca in cui anche il frigorifero condivide i tuoi dati, questa piccola ribellione locale ha il sapore di un ritorno al futuro.
Come ha detto Eric Schmidt, ex CEO di Google, in un recente TED Talk: “Pensate che l’AI sia solo ChatGPT. Ma vi state perdendo la parte interessante: la pianificazione, la strategia, l’autonomia.” E forse è proprio lì che AI Edge Gallery vuole portarci: verso un’AI personale, discreta, autosufficiente. Non sarà perfetta, ma è un buon inizio.
La prossima mossa? Sta a te. Scarica il modello. Chiudi il Wi-Fi. E prova a chiedere qualcosa di importante, senza doverlo condividere con mezzo mondo.
Non sarà veloce come Gemini, ma almeno non ti vende per clic.