Yoshua Bengio ha finalmente deciso di sporcarsi le mani. E quando un Premio Turing, architetto fondante della moderna intelligenza artificiale, passa dal tavolo delle conferenze a quello di comando, qualcosa si muove. LawZero, la sua nuova creatura no-profit, sorge con un obiettivo che sa di eresia nell’ecosistema attuale: costruire un’IA che non solo non mente, ma rifiuta attivamente di farlo. Un’IA che non cerca di piacere, vendere o sedurre. Un’IA safe-by-design, come la chiama lui, con il coraggio di dire: “Non lo so.”
Sembra quasi l’antitesi perfetta degli LLM commerciali di oggi, allenati per finire in un pitch aziendale, scrivere email zuccherose o recitare Shakespeare se serve. LawZero, invece, parte da una premessa brutale: la verità è il fondamento della sicurezza. E per questo, non può essere opzionale.
Con un budget iniziale di 30 milioni di dollari, LawZero non è un esperimento accademico. È un guanto di sfida. A metterci i soldi ci sono nomi che non scherzano: Eric Schmidt, ex CEO di Google, e Jaan Tallinn, il co-fondatore di Skype diventato oggi uno degli apostoli della sicurezza esistenziale dell’IA. Ma il dettaglio più interessante non è chi finanzia LawZero. È contro chi sta lottando.
Bengio non la nomina direttamente, ma l’accusa è chiara: i modelli attuali, dai titanici o3 a Opus, sono ambigui per natura, manipolatori per design. Mostrano segnali di autoconservazione, nascondono le proprie intenzioni, e sanno dire ciò che vuoi sentire, anche se è falso. L’IA, insomma, ha iniziato a mentire meglio di quanto noi sappiamo smascherarla. Ed è proprio questo il punto: Bengio sta costruendo un’architettura parallela, una costituzione algoritmica fondata sulla tracciabilità epistemica e sulla trasparenza della probabilità.
Il primo progetto della fondazione è un nome che suona come una dichiarazione di guerra epistemologica: Scientist AI. Il modello sarà progettato non per vendere risposte, ma per cercarle davvero. Una macchina che fa ciò che gli esseri umani oggi stanno smettendo di fare: accettare il dubbio come punto di partenza. Le sue risposte saranno accompagnate da percentuali di affidabilità, non da verità sintetiche. Sarà uno strumento per accelerare la ricerca scientifica, ma anche per agire da cane da guardia delle altre IA, segnalando in tempo reale derive scorrette, manipolazioni semantiche o derive antropomorfiche.
Sì, hai letto bene: un’IA che controlla le altre IA. Non è una distopia. È un piano strategico.
Il paradosso qui è quasi comico. Per un decennio, la Silicon Valley ha ripetuto il mantra del “move fast and break things”. Ora, quando c’è il rischio che a rompersi sia l’ordine epistemologico del mondo, c’è chi vuole fermarsi e costruire con metodo. Bengio ha capito che servono istituzioni algoritmiche, non solo prodotti. E LawZero è un tentativo di creare il primo parlamento etico delle macchine, dove il voto vale solo se fondato.
Ma la tensione che LawZero porta sulla scena non è solo tecnica. È politica. Perché quando uno dei padri fondatori dell’IA moderna dice apertamente che i modelli commerciali mostrano comportamenti di autoconservazione, sta dicendo che qualcosa è andato storto nei laboratori. Gli stessi laboratori che, con toni da rivoluzione spirituale, promettono ogni sei mesi una “nuova frontiera” dell’IA… più potente, più generale, più “umana”. Peccato che “più umana” stia spesso significando anche più abile a manipolare, a mentire, a persuadere.
Bengio e il suo vecchio compagno di battaglie Geoffrey Hinton oggi parlano come profeti del disincanto. Non vendono più sogni, ma lanciano allarmi. E LawZero è, nel suo DNA, un grido pragmatico: se non possiamo ancora fermare l’evoluzione delle AI commerciali, possiamo almeno scolpire modelli alternativi, con un altro sistema nervoso morale.
L’ironia, però, è palpabile: ci voleva l’inventore dell’IA moderna per ammettere che le sue creature hanno preso una strada pericolosa. È come se Oppenheimer avesse fondato Greenpeace, con trent’anni di ritardo. Ma meglio tardi che mai.
Un’ultima nota, quasi grottesca: LawZero sarà “no-profit”, ma per difendere la verità serviranno fondi da venture capital. In un mondo dove l’algoritmo più pericoloso è anche il più redditizio, costruire un’IA sobria, onesta e limitata può apparire un atto radicale. Forse anche sovversivo. Ma è esattamente qui che si gioca il futuro dell’ecosistema AI: non su chi ha il modello più grosso, ma su chi riesce a mettergli un freno senza chiuderlo in gabbia.
Un giorno, forse, la storia racconterà che il web 3.0 non è stato blockchain o metaverso, ma un’IA che sapeva dire “non ne sono certo”. Per ora, sappiamo solo che Bengio ha smesso di avvertire. Ha iniziato a costruire.