Apple ha deciso di giocare la carta della tempistica chirurgica. A una settimana dal suo evento “Awe Dropping” del 9 settembre, ha sganciato due modelli linguistici visivi che sembrano usciti da un laboratorio segreto: FastVLM e MobileCLIP2. Non parliamo di mostri da data center, ma di intelligenze artificiali addestrate per funzionare localmente, direttamente su dispositivi Apple, con output quasi in tempo reale. La mossa è un manifesto strategico: mentre il mondo intero corre verso il gigantismo dei modelli, Cupertino ribalta il tavolo e dice che la vera rivoluzione non è la scala, ma l’efficienza e la privacy.