Apple intelligence in crisi d’identità, ma Tim Cook giura che tutto è sotto controllo
L’aria a Cupertino quest’anno è più elettrica del solito. Ma non nel senso buono. Quando il palco della WWDC 2025 si è acceso, l’energia non era quella trionfale di un impero in espansione, ma quella nervosa di un gigante che sa di essere osservato da troppo vicino. Le luci dello Steve Jobs Theater brillano, sì, ma non riescono a nascondere le ombre: quelle di un’intelligenza artificiale che si è fatta attendere troppo, di giudici federali che non si fanno più incantare dalle vetrine di Apple Park, e di una politica commerciale che inizia a mostrare il conto, da Washington a Pechino.
Apple Intelligence, l’ambiziosa scommessa annunciata l’anno scorso tra effetti speciali e promesse roboanti, oggi appare come un adolescente confuso che ha dimenticato cosa voleva diventare da grande. Doveva essere l’AI “personalizzata, privata e potente”. Quello che abbiamo visto, invece, è una creatura ibrida, impantanata tra modelli on-device limitati e una dipendenza poco dichiarata da ChatGPT, con la promessa implicita che “niente sarà inviato senza il tuo permesso” — il che, detto da una società sotto indagine antitrust, suona più come un patto tra cavalieri medievali che come una policy credibile.
La notizia del giorno, ovviamente, è l’integrazione ufficiale tra Image Playground e ChatGPT. “Collaborazione selettiva” è il termine scelto da Apple, e come sempre, il linguaggio è parte del trucco. Sì, puoi trasformare una foto in un dipinto ad olio con un tap, ma l’intelligenza che lo fa è in outsourcing — quella stessa OpenAI che Apple fingeva di voler superare in autonomia. È come se Ferrari presentasse una nuova supercar… col motore Tesla.
E poi c’è la nuova estetica: quel “design spaceship-y” che vuole essere rivoluzionario ma rischia l’effetto Blade Runner in slow motion. Un’interfaccia più tondeggiante, animazioni fluide, palette cromatiche più sofisticate. Tutto molto bello, ma serve davvero quando Siri continua a rispondere “non ho capito la domanda”?
Nel cuore della conferenza, Apple ha presentato una delle novità più sottili e allo stesso tempo più cariche di significato: l’apertura del suo modello on-device a tutti gli sviluppatori. Non si tratta di un gesto di generosità, ma di una necessità industriale. Dopo anni a blindare l’ecosistema come una fortezza medievale, ora Apple ha bisogno degli sviluppatori per dare un senso alla sua Apple Intelligence. Come dire: “Abbiamo costruito il cervello, ora aiutateci a trovargli un corpo”.
Ma la vera ironia è nella funzione più scenografica dell’intera conferenza: la traduzione simultanea nelle chiamate e nei messaggi, alimentata da modelli AI proprietari. Funziona, e bene. Solo che ci troviamo nel 2025 e Google lo fa da almeno sei anni. Come diceva Orwell, “in tempi di menzogna universale, dire la verità è un atto rivoluzionario”. Qui, Apple si limita a dire cose già sentite, con la voce di Jonathan Ive in sottofondo.
Nel frattempo, mentre l’azienda prova a riguadagnare terreno, le università iniziano a riorientarsi. L’Ohio State University, ad esempio, lancia un piano per l’“AI fluency” entro il 2029. Sì, avete letto bene. Nel tempo che Apple impiega per passare dalla beta all’implementazione stabile, una generazione intera sarà già laureata in prompt engineering. Ma questa non è colpa di Apple — è il mondo che va troppo in fretta, e i giganti della Silicon Valley non sono più abituati a inseguire.
La vera domanda però è un’altra: può Apple restare Apple in un mondo che si muove alla velocità dell’AI? Perché finora, la forza di Cupertino era sempre stata quella di arrivare dopo, ma meglio. Solo che questa volta, l’AI non aspetta. Non ha pazienza, non ha bisogno del design impeccabile. Vuole essere utile, immediata, ubiqua. E soprattutto, già funzionante. L’AI non ha tempo per la perfezione: ha fame di dati, margini, errori. E qui Apple si trova in una crisi quasi esistenziale. Come vendere l’impeccabilità quando il nuovo standard è l’improvvisazione geniale?
Se ci fosse stata una scusa da parte di Tim Cook, sarebbe stata una boccata d’ossigeno. Ma invece nulla. Nessuna ammissione, nessun “ci stiamo lavorando”, nessun “è solo l’inizio”. Solo lo spettacolo, impeccabile come sempre, ma vuoto. Il rischio, però, è che il pubblico cominci a capirlo.
Nel frattempo, Apple continua a spingere sul lato più morbido dell’AI: le emoji generate, le foto in stile acquerello, la privacy che diventa un mantra religioso. Ma il mondo dell’intelligenza artificiale non è un giardino zen. È una giungla, dove a sopravvivere non è il più bello, ma il più adattabile.
E allora ecco che questo WWDC sembra più un reality show in diretta da un bunker tecnologico che una visione del futuro. C’è del buono, certo. Ma c’è anche la sensazione che, per la prima volta, Apple sia sulla difensiva. La rivoluzione non arriva con il FaceTime tradotto in giapponese. Arriva quando qualcuno — forse fuori da questo teatro — decide che l’iPhone non è più necessario per avere potere computazionale, creatività o autonomia.
Una volta, lanciare una nuova interfaccia bastava per cambiare tutto. Oggi, serve qualcosa di più. Serve un’idea. E quella, a quanto pare, manca ancora.