C’è qualcosa di sovversivo nel vedere un’azienda nata per difendere l’email dai predatori del marketing digitale lanciare un’intelligenza artificiale che, a detta loro, non divorerà i nostri dati come un qualsiasi algoritmo affamato di Big Tech. Proton Lumo è l’ultima provocazione di Andy Yen e del suo team, un’arma dichiarata contro quella che chiamano “la transizione verso il capitalismo della sorveglianza”. Parole forti, certo. Ma non sono semplici slogan: dietro c’è un’architettura tecnologica che ribalta lo standard tossico imposto dai giganti dell’AI.
La promessa è semplice quanto spiazzante: un assistente AI che gira con modelli open source, capace di generare codice, scrivere email, riassumere documenti e persino cercare sul web, ma che di default rifiuta di farlo per “massimizzare la privacy”. Una specie di intelligenza artificiale introversa, che preferisce stare offline e lavorare in locale piuttosto che alimentare server distanti e opachi. Qui non ci sono addestramenti nascosti sui nostri file, nessuna “ottimizzazione del prodotto” fatta succhiando dati personali, nessuna asta pubblicitaria mascherata da servizio gratuito. Proton ci ricorda brutalmente che, nella maggior parte dei casi, quando parliamo con ChatGPT, Gemini o Copilot, stiamo pagando in privacy molto più di quanto crediamo.
Lumo, invece, funziona con quello che Proton chiama “zero-access encryption”. Significa che l’unica chiave per decifrare le informazioni è nelle mani dell’utente. Proton non la possiede, non può leggerla, e nemmeno può fornirla a governi o aziende. Non è un dettaglio da nerd paranoici: è un manifesto politico in piena regola. Il messaggio implicito è quasi provocatorio: se Google e Meta non possono evitare di usare i nostri dati per alimentare le loro macchine pubblicitarie, il problema non è tecnologico ma culturale.
Chiunque abbia seguito l’evoluzione dell’AI negli ultimi due anni sa che la retorica “privacy-friendly” è spesso un ossimoro. I modelli generativi hanno bisogno di enormi dataset, e questi dataset vengono da qualche parte. Proton invece punta su un compromesso interessante. Lumo gira su server europei e utilizza modelli open source come Mistral Nemo, Mistral Small 3, OpenHands 32B di Nvidia e OLMO 2 32B dell’Allen Institute for AI. Il segreto è nel routing intelligente: per scrivere codice, il sistema sceglie OpenHands, specializzato proprio in questo; per riassumere documenti o chattare, vengono usati altri modelli più leggeri. È un approccio modulare, quasi sartoriale, che consente di limitare il flusso di dati, riducendo l’impatto sull’infrastruttura e, soprattutto, le superfici di attacco per chi ama ficcare il naso nei nostri byte.
C’è un dettaglio che farà sorridere chi conosce Proton: la funzione di ricerca web è disattivata di default. Se vuoi accenderla, devi farlo consapevolmente e ti troverai di fronte a motori “privacy-friendly”. È un ribaltamento totale dell’approccio dei competitor, che partono sempre da un presupposto implicito: più dati raccogliamo, più valore generiamo. Proton sembra urlare il contrario: più dati tratteniamo, più valore generiamo. Il valore però non è monetario, è reputazionale. In un mercato dove la fiducia è diventata una moneta rara, costruire un’AI che non ti spia è una strategia di branding feroce, quasi aggressiva.
Naturalmente, la privacy totale ha un prezzo, e non è solo quello del piano Lumo Plus a 12,99 dollari al mese. L’AI di Proton, per quanto sofisticata, non potrà competere in pura potenza con i colossi addestrati su trilioni di parametri. Gli utenti dovranno accettare un compromesso: meno intelligenza apparente in cambio di più sicurezza reale. Eppure, se si pensa all’uso quotidiano di un assistente, quanto spesso abbiamo davvero bisogno di un modello da centinaia di miliardi di parametri? La maggior parte delle richieste riguarda testi, email, riassunti e qualche script Python. Lumo potrebbe essere già sufficiente, e il fatto che non sacrifichi la privacy è un bonus che per molti utenti varrà più di qualche punto percentuale di accuratezza in più.
Andy Yen non nasconde l’ambizione. La sua dichiarazione è una frecciata diretta ai competitor: “Big Tech sta usando l’AI per supercaricare la raccolta di dati sensibili e accelerare la transizione verso il capitalismo della sorveglianza”. Una frase che avrebbe potuto tranquillamente comparire in un editoriale del Guardian. Ma qui non è solo retorica anti-establishment: Proton ha già dimostrato con Proton Mail e Proton Drive che un modello di business basato su abbonamenti, e non sulla pubblicità, può funzionare anche in un mondo dominato dal “gratis in cambio di dati”.
C’è poi una riflessione più ampia, quasi filosofica. Proton Lumo è un esperimento sociale oltre che tecnologico. È una scommessa sul fatto che una parte significativa degli utenti sia disposta a pagare per un’AI sicura, anche se meno brillante e spettacolare. È un test di maturità per un mercato che finora ha scelto la comodità alla trasparenza. Se Lumo funzionerà, potrebbe spingere anche altri player a ripensare le loro strategie. Se fallirà, sarà l’ennesima dimostrazione che gli utenti amano lamentarsi della privacy ma non vogliono pagare per difenderla.
In questa sfida, l’Europa gioca un ruolo silenzioso ma cruciale. Proton ha scelto server europei, non per puro patriottismo tecnologico, ma perché le normative GDPR offrono un vantaggio competitivo paradossale: rendono più difficile per i concorrenti americani giocare sporco con i dati. È quasi un ribaltamento geopolitico dell’intelligenza artificiale, dove la “burocrazia europea” diventa un’arma di marketing.
La vera domanda però è un’altra, e qui ci si può concedere un po’ di ironia: quanti utenti attiveranno davvero la ricerca web di Lumo? Quanti useranno un AI che non impara continuamente da loro? E soprattutto, quanti accetteranno di vivere senza l’illusione che un’intelligenza artificiale onnisciente stia risolvendo tutti i loro problemi? Forse Proton Lumo è un test anche per noi, non solo per i modelli di business.