Leggere il “Mid Year AI Leadership Insights Report“, noto come “Leading Through The Blur”, significa entrare in un mondo dove la leadership non è più questione di comando e controllo, ma un esercizio di equilibrio tra pressione sociale, incertezza e responsabilità etica. Il documento non promette ricette facili né tendenze passeggere, ma offre uno specchio riflessivo costruito su quasi ottanta interviste a leader senior dell’AI. La sua forza risiede nel rivelare ciò che non si vede nei report tecnici: la tensione reale, quella che porta i manager a chiedersi se stanno davvero guidando o solo recitando la parte.
Categoria: Vision Pagina 1 di 5
L’intelligenza artificiale rendera’ al massimo quando i processi saranno sviluppati in funzione di essa e non viceversa

La guerra fredda dell’Intelligenza Artificiale: geostrategia, difesa e il cinismo delle superpotenze
Nel panorama geopolitico contemporaneo, l’intelligenza artificiale (AI ) sta riscrivendo le regole del gioco. Non si tratta solo di algoritmi, robot e reti neurali, ma di una vera e propria corsa per dominare il futuro globale. Gli Stati Uniti e la Cina sono in prima linea in questa guerra fredda digitale, dove ogni bit di progresso tecnologico è un’arma nel conflitto di potere che coinvolge risorse militari, economiche e politiche. In questa nuova frontiera, l’AI non è solo un motore di innovazione, ma un gigantesco campo di battaglia, un campo dove il cinismo delle superpotenze emerge in tutta la sua crudezza.
Quando mi hanno fatto la domanda “Cosa succede se l’intelligenza artificiale non migliora più di così?” mi è venuto spontaneo sorridere. Una frase così è un perfetto amo per attirare reazioni polarizzate, è una provocazione studiata, non una resa incondizionata. Il problema è che la maggior parte la interpreta come un giudizio definitivo sugli LLM, e quindi sull’intero settore, come se le due cose fossero la stessa cosa. Non lo sono. Lo ripeto da anni: LLM e intelligenza artificiale non sono sinonimi, e confonderli è stato il carburante principale della bolla finanziaria che abbiamo appena attraversato.
Negli ultimi anni ho visto con i miei occhi la costruzione di un’illusione collettiva. Si è passati da modelli linguistici “impressionanti” a “nuove forme di intelligenza umana in arrivo” con una velocità che definirei irresponsabile. Conferenze patinate, interviste autocelebrative, podcast di venture capitalist e demo che sembravano più trailer di Hollywood che prove tecniche. L’idea che bastasse scalare parametri e GPU per avvicinarsi all’AGI ha portato valutazioni aziendali in orbita e aspettative che nessun sistema basato solo su predizione statistica del testo avrebbe mai potuto soddisfare. Intanto, le voci realmente scientifiche Gary Marcus, Melanie Mitchell, Alison Gopnik continuavano a ricordare che non stavamo assistendo a magia emergente, ma a modelli di generazione linguistica avanzata.

Geoffrey Hinton non è un qualsiasi pensionato della Silicon Valley che si diverte a lanciare profezie distopiche per guadagnarsi un’ultima intervista CNN. È il padre riconosciuto della moderna intelligenza artificiale, uno di quei nomi che nel gergo degli addetti ai lavori non ha bisogno di essere spiegato. Le sue reti neurali hanno aperto la strada all’AGI e al capitalismo delle macchine pensanti. Oggi però, con l’aria di chi ha visto il finale del film in anteprima, si siede davanti alle telecamere della CNN e avverte che c’è un 10-20% di probabilità che la tecnologia a cui ha dato vita possa cancellare l’umanità. Percentuali che, nel linguaggio degli investitori, non si liquidano con una scrollata di spalle.

Nel 2025 parlare di intelligenza artificiale è diventato inevitabile, come commentare l’andamento dei mercati o le crisi geopolitiche dell’ultimo minuto. Ogni settimana emergono nuovi annunci su GPT-5, modelli multimodali, sistemi di ragionamento avanzato, ma la realtà è più sottile di quanto vogliano farci credere le pubblicazioni mainstream. L’hype esasperato, sostenuto da venture capital, conferenze da migliaia di dollari e presentazioni aziendali dai toni quasi religiosi, ha generato una febbre simile all’era dot-com, solo con GPU più potenti, bollette energetiche da capogiro e acronimi che sembrano formule alchemiche. Il paradosso è evidente: più aumentano i parametri dei modelli, più il ritorno reale tende a ridursi, e la convinzione che dimensione equivalga a intelligenza si scontra con la complessità della mente umana.

La mossa di Anthropic segna un’accelerazione strategica non da poco nel braccio di ferro per il dominio dell’intelligenza artificiale nel governo federale americano. Dopo il colpo d’ala di OpenAI, che aveva già piazzato ChatGPT a un dollaro all’anno per l’esecutivo, Anthropic risponde offrendo Claude non solo all’esecutivo, ma anche al legislativo e al giudiziario. Un’apertura a 360 gradi che sa di volersi garantire un’egemonia diffusa e duratura, più che una semplice promozione commerciale. Il prezzo da un dollaro è evidentemente un trucco ben collaudato per radicare il prodotto dentro un ecosistema vasto, complesso e tradizionalmente riluttante al cambiamento.

C’è qualcosa di profondamente ironico nel vedere Pechino presentare un piano globale per la governance dell’intelligenza artificiale proprio mentre Washington si affanna a mettere in mostra la propria strategia di deregulation. Il 26 luglio, il Premier Li Qiang ha lanciato un piano che sembra, in superficie, la solita fiera di buone intenzioni: cooperazione internazionale, sostenibilità verde, inclusività e sicurezza. Tutto già sentito, scritto, decantato, persino nelle dichiarazioni ufficiali del Partito Comunista cinese e negli ultimi discorsi di Xi Jinping. La differenza? È nei dettagli, nelle sfumature linguistiche e nei piccoli accenti politici che i media mainstream, con la loro fretta di fare confronti americani-cinesi, trascurano o banalizzano.

Nell’epoca dell’IA, non è più sufficiente domandarsi se queste macchine possiedano una forma di coscienza. Il vero interrogativo, il più insidioso e paradossale, è come sia possibile che comportamenti che sembrano “pensati” emergano da sistemi che, in realtà, non pensano affatto. Quando parliamo di algoritmi e reti neurali, stiamo parlando di una cognizione che non si appoggia su processi lineari, ma che fluttua nell’indeterminato di spazi multidimensionali, in un gioco probabilistico che dà l’impressione di un pensiero. È un pensiero che non ha né consapevolezza né intenzionalità, ma che produce risposte perfettamente coerenti con ciò che un essere umano si aspetterebbe. L’architettura fluida che caratterizza i modelli linguistici di ultima generazione non “pensa” come noi, ma questo non impedisce loro di sembrare in grado di farlo.
Mark Zuckerberg ha sentenziato che tra 18 mesi l’intelligenza artificiale scriverà codice meglio della maggior parte degli ingegneri. Un’affermazione spavalda, da tipico CEO sotto effetto Metaverso, che ottiene ovviamente la reazione che merita: 116.000 like, 182.000 condivisioni, una valanga di commenti entusiasti, catastrofisti, o semplicemente disorientati. Eppure, dietro questa frase da copertina, si nasconde un discorso più complesso, più inquietante, e (forse) più interessante. Ma no, non è ancora la fine del software engineering. È solo la mutazione che tutti stavamo aspettando. E che molti avevano già previsto, ma senza meme virali.

Il 2025 segna una pietra miliare inquietante nella storia della sicurezza digitale: la prima fuga di dati reale legata all’intelligenza artificiale è diventata pubblica. Non si tratta di un hacker sofisticato o di un attacco tradizionale. No, è successo grazie a una falla nel modo in cui vengono indicizzate e condivise le conversazioni generate da ChatGPT, la stessa AI che da mesi sta rivoluzionando il modo in cui cerchiamo e produciamo informazioni. Cinquantamila conversazioni “private” sono state cancellate in fretta e furia dall’indice di Google dopo che qualcuno ha scoperto che bastava una semplice ricerca per leggere dati personali, chiavi API sensibili e strategie aziendali riservate. Ma come spesso accade, il danno era già fatto. Archive.org, il grande archivio digitale, non è stato coinvolto nella pulizia e migliaia di queste conversazioni restano lì, alla mercé di chiunque voglia curiosare.
Questa fuga di informazioni non è solo un incidente di percorso. È il sintomo di un sistema che nessuno aveva previsto, dove la potenza degli algoritmi di indicizzazione e la gigantesca autorevolezza di dominio di ChatGPT creano un paradosso inquietante. Il paradosso di una piattaforma che, con il suo peso SEO, può scalare le vette di Google senza sforzi tradizionali, grazie a contenuti “fabbricati” dall’intelligenza artificiale stessa.
Hai presente quel momento in cui pensi di aver visto tutto? Poi apri Midjourney.TV e scopri che il tuo cervello ha ancora ampi margini di esplosione. Perché questa non è TV, non è streaming, non è nemmeno videoarte. È un’epifania algoritmica travestita da flusso visuale, un sogno lucido a 60 frame al secondo. Niente plot, niente attori, niente Netflix che ti chiede se stai ancora guardando. Solo un feed infinito, alimentato da un’intelligenza artificiale che ha letto troppa fantascienza e ora crede di essere Kubrick reincarnato nel cloud.

Anthropic ha superato OpenAI: il sorpasso silenzioso che sta riscrivendo le regole del mercato Enterprise dell’intelligenza artificiale
Da tempo era nell’aria. Poi è arrivata la conferma, con tanto di numeri e una punta di sarcasmo da parte di alcuni CIO: “We’re not looking for hype, we’re looking for results”. Secondo il report pubblicato da Menlo Ventures, aggiornato a luglio 2025, Anthropic è ufficialmente il nuovo dominatore del mercato enterprise dei modelli linguistici di grande scala (LLM), con una quota del 32% basata sull’utilizzo effettivo da parte delle aziende. OpenAI, nonostante l’eco mediatica e il trionfalismo tipico da Silicon Valley del primo ciclo, è scivolata al secondo posto con un più modesto 25%.

AI e Potere: l’illusione dell’agenda trumpiana e il vero volto della nuova corsa all’oro
Trump ha un piano per l’intelligenza artificiale. È politica industriale camuffata da salvezza tecnologica. Si chiama AI Action Plan ed è il manifesto con cui l’ex presidente, ora di nuovo protagonista, promette di rendere l’America leader globale nell’AI. Ma dietro la retorica di innovazione, sovranità e progresso si nasconde una verità scomoda: l’AI non sta salvando il mondo, lo sta vendendo pezzo per pezzo alle solite multinazionali. E non c’è nulla di inevitabile in questo.

Quando Nvidia dichiara che i suoi chip H20 non contengono “back door”, in realtà sta facendo una promessa tanto scontata quanto difficile da digerire per Pechino. La recente convocazione dell’azienda da parte della Cyberspace Administration of China (CAC) segna un altro capitolo della sfida tecnologica e geopolitica più intricata del nostro tempo. Non si tratta solo di un dubbio tecnico, ma di un gioco di potere che coinvolge l’intelligence, il commercio globale e la sovranità digitale. Chi crede che i chip siano semplicemente circuiti e transistor dovrebbe ripensarci: oggi rappresentano i nervi di un sistema nervoso economico e politico globale.

“The improvement is slow for now, but undeniable,” Zuckerberg wrote of AI’s advances. “Developing superintelligence is now in sight.”
Poche ore prima della sua trimestrale, Mark Zuckerberg ha deciso di regalarci la sua visione (leggila QUI) messianica sull’AI: una superintelligenza personalizzata per tutti, da infilare preferibilmente in un paio di occhiali smart targati Meta. Nel suo manifesto minimalista pubblicato su una pagina di testo, Zuck ci racconta di un’IA che “ti aiuta a raggiungere i tuoi obiettivi, creare ciò che vuoi vedere nel mondo, vivere qualsiasi avventura, essere un amico migliore e diventare la persona che aspiri a essere”. Tradotto: l’AI come coaching digitale per autostima 4.0, ovviamente sotto la sua supervisione.
Luciano Floridi non è un filosofo qualunque. È l’architetto della nuova grammatica morale dell’intelligenza artificiale, il costruttore paziente di un ponte che unisce epistemologia, etica applicata e politica tecnologica. Nella sua visione, AI non è un’astrazione algoritmica, ma una forma di “agency”, un’entità che agisce nel mondo, lo modifica, lo plasma, e pretende di essere compresa in termini di responsabilità, governance e design. In un’epoca dove l’algoritmo viene idolatrato o demonizzato con la stessa disinvoltura, Floridi offre un’alternativa radicale: pensare l’AI non come intelligenza simulata, ma come potere reale. Con tutte le implicazioni che questo comporta.

La cosa più pericolosa nel mondo della tecnologia non è l’innovazione. È la distrazione. E mentre il mondo intero fissa il cielo aspettando che OpenAI liberi l’AGI come se fosse l’Apocalisse Digitale, Google stampa 28 miliardi di dollari di profitto con la freddezza glaciale di un adulto che osserva un’adolescente agitato fare breakdance al centro di una sala riunioni.
I numeri, come sempre, non mentono. Nel secondo trimestre del 2025 Alphabet ha riportato 96,4 miliardi di dollari di ricavi, in crescita del 14% anno su anno. La ricerca, quel dinosauro che secondo certi commentatori sarebbe ormai estinto, ha generato 54,2 miliardi. Cloud è cresciuto del 32%. CapEx? Alzato a 85 miliardi. Non c’è stata una diretta streaming. Nessun tweet criptico stile Silicon Valley messianica. Nessuna influencer che si svena in diretta per mostrare un prompt miracoloso. Solo profitti, infrastruttura, dominio silenzioso.
Sam Altman vuole dare a tutto il pianeta accesso gratuito e illimitato a GPT‑5. Sì, avete letto bene: non solo ai ricercatori o agli sviluppatori, ma ad ogni essere umano sulla Terra, H24, gratuitamente, sotto il suo stesso account OpenAI. Il sogno è che l’intelligenza artificiale diventi l’infrastruttura su cui poggiano decisioni su frodi, finanza personale, valutazioni di rischio, inclusi servizi che nei Paesi in via di sviluppo potrebbero saltare direttamente all’AI come salto tecnologico, analogamente al mobile che ha saltato la fase del fisso. Scordatevi i filtri: tutti gli utenti ChatGPT free – nella fascia standard – avranno accesso illimitato a GPT‑5; chi sottoscrive Plus o Pro potrà entrare in livelli di “intelligenza superiore”.
È quasi buffo che sia proprio Eric Schmidt, uno degli architetti del web come lo conosciamo, a dichiarare con candore che “le interfacce utente spariranno”. Poetico e spietatamente logico. Perché se ci pensi, ogni volta che ci troviamo davanti a un pulsante, a un’icona o a un menu, non stiamo interagendo con la tecnologia, ma con il compromesso più primitivo che la tecnologia ci abbia imposto: il vecchio paradigma WIMP, quel Windows, Icons, Menus, Pointers inventato nei laboratori Xerox PARC mezzo secolo fa. Un’eresia dal punto di vista dell’evoluzione naturale dell’interazione uomo-macchina, un fossile che ha resistito solo perché mancava il predatore giusto. Ora quel predatore ha un nome: intelligenza artificiale generativa.

Il cervello artificiale che ha preso oro sembra un titolo da romanzo cyberpunk, ma è realtà. OpenAI ha portato a casa una medaglia d’oro all’International Mathematical Olympiad 2025 con un suo modello sperimentale, un reasoning llm general purpose capace di risolvere problemi di livello olimpionico come un campione umano. E non parliamo di un modello matematico dedicato, non è un GPT‑5 segreto, non è uno di quei progetti iperspecializzati come AlphaGeometry. È un’intelligenza pensata per ragionare in modo generale, e lo ha fatto senza scorciatoie, senza database di trucchi preconfezionati, senza imitare pattern di soluzioni. Ha pensato, ha ragionato, ha vinto. E questo cambia tutto.

Non serve essere un indovino per capire che l’ecosistema dell’intelligenza artificiale sta virando rapidamente verso una nuova era, dove gli agenti AI autonomi non sono più un esercizio teorico o un semplice esperimento di laboratorio, ma una realtà commerciale e tecnologica destinata a sconvolgere ogni settore. La notizia dell’investimento da 100 milioni di dollari da parte di Amazon Web Services in un Innovation Center dedicato all’Agentic AI è la pietra miliare che sancisce il passaggio da hype a strategia di lungo termine. Non si tratta più di uno dei tanti trend fugaci, ma di un movimento inarrestabile e fortemente finanziato che modella il futuro digitale.

Chi ancora pensa a Nvidia come all’azienda dei videogiochi probabilmente non ha capito che i videogiochi erano solo la scusa, un cavallo di troia per conquistare il controllo del computing globale. Una trappola elegante: vendere schede grafiche a milioni di adolescenti, raccogliere montagne di denaro, e reinvestirlo in quello che oggi è l’unico vero monopolio intellettuale della tecnologia. Perché la verità è che nvidia ha cambiato le regole della fisica del calcolo e, senza esagerazioni, ha riscritto la geografia del potere digitale.
Il marketing digitale come lo conosciamo è morto, solo che non se n’è accorto. La Search tradizionale sta per diventare un fossile. Il prossimo vero campo di battaglia non sarà Google, non sarà un social, ma il luogo più sottovalutato e potente della nostra vita online: il browser. E non parlo di un semplice Chrome potenziato. Parlo del nuovo browser AI, un agente intelligente integrato che non si limita a suggerire link, ma sceglie per te. La differenza tra essere scelti o ignorati da un agente AI sarà la differenza tra esistere o sparire.

C’è chi, guardando l’ultima intervista di Emmanuel Macron, ha sorriso di condiscendenza. “Scaricate Le Chat, è francese, è di Mistral, non usate ChatGPT”, ha detto con l’aria compiaciuta di chi invita a comprare camembert invece del cheddar industriale. Eppure, dietro quella frase apparentemente patriottica, si nasconde il vero dramma europeo dell’intelligenza artificiale: abbiamo un unico candidato che osa alzare la testa contro i giganti americani e cinesi, ma lo facciamo sventolando la bandiera della “sovranità digitale” più per orgoglio che per capacità di esecuzione. Mistral AI è l’unico nome che conta nel continente, e non è un caso che sia nata in Francia, dove la grandeur tecnologica è più una dichiarazione di intenti che un dato di fatto. La sua valutazione da 6 miliardi di dollari fa gola, certo, ma il suo market share globale è ancora un graffio sull’immenso muro eretto da OpenAI e Google DeepMind.

Un Jack Russell come il nostro Sole non si ferma mai. È un concentrato di energia che ignora la fisica newtoniana e sembra governato da una logica propria, un’oscillazione caotica di pura intenzione. Perché parlo di un cane iperattivocome Sole quando dovrei parlare di Physical AI? Perché nessuna batteria al litio, nessun pannello solare, nessuna turbina eolica riesce a replicare quella combinazione di istinto, apprendimento e reazione istantanea che un semplice mammifero di pochi chili manifesta in modo naturale. È la metafora perfetta per capire quanto sia riduttivo parlare di energia solo in termini di watt e joule, quando il vero tema è la trasformazione intelligente dell’energia in azione. Physical AI, oggi, non è altro che il tentativo imperfetto di creare macchine che si comportino più come un Jack Russell e meno come un’automobile ben programmata.

In un’epoca in cui tutto sembra cambiare a velocità vertiginosa, la relazione tra intelligenza artificiale (AI) e lavoro umano si impone come uno degli argomenti più cruciali, se non il più essenziale. Siamo di fronte a un cambiamento epocale che tocca non solo gli aspetti economici e sociali, ma anche la nostra stessa identità, profondamente intrecciata con la nostra professione. Se i lavori svaniscono, con essi rischia di scomparire anche il nostro senso di autostima.

Let’s drop the comforting illusion that artificial intelligence is just another shiny tool in humanity’s long romance with technology. The truth is cruder, and perhaps more dangerous: we are not using the digital we are living inside it. The shift is not evolutionary but ontological. The difference is all the difference. To call this era a transformation is an understatement. It is a colonisation, silent and irreversible, of our very existence by invisible architectures and algorithmic ecosystems. What we mistake for platforms are sovereign environments. And no, this is not metaphor it’s reality with a new texture.
Philosopher Luciano Floridi was among the first to shout from the ivory towers: we don’t surf the digital anymore, we inhabit it. Unlike a hammer or a smartphone, an environment doesn’t extend our reach it defines our being. It is not something we use but something that uses us to define itself. And yet, through most of the 1990s, policymakers still treated the internet as infrastructure a glorified mailman, not the habitat it was already becoming. That failure to grasp the ontological stakes is now coming home to roost.

In principio era la disruption, poi venne il caos. E oggi, mentre una parte dell’America tecnologica flirta apertamente con l’ideologia MAGA, quella stessa cultura che una volta celebrava la globalizzazione, il talento internazionale e la regolazione “light touch”, sta ora ballando sul filo di una contraddizione ideologica che potrebbe costare agli Stati Uniti la leadership tecnologica globale. La parola d’ordine? “Decoupling”. Ma quando il taglio si fa a caso, a pagare il conto è sempre l’innovazione.
Negli ultimi mesi, l’alleanza tra l’élite tecnologica americana e la base populista di Donald Trump ha assunto contorni sempre più surreali. Da un lato, una manciata di venture capitalist e CEO anti-woke con i portafogli pieni e l’ansia da rilevanza politica, dall’altro una base elettorale convinta che le Big Tech siano parte di un complotto liberal per cancellare l’America. La dicotomia è più che evidente, ma il matrimonio di convenienza regge, per ora, su interessi comuni come la deregulation, la crociata contro il DEI (diversity, equity and inclusion) e la sacralizzazione del mercato libero, purché non includa immigrati o concorrenti cinesi.

Mentre alcuni si illudono di poter negoziare trattati sull’intelligenza artificiale come se si trattasse di emissioni di CO₂, altri si limitano a osservare l’esperimento dall’interno, sperando che almeno valga il biglietto. Elon Musk, nella sua solita performance tra profezia e show business, ci regala una frase che potrebbe appartenere tanto a un predicatore del XIX secolo quanto al fondatore di una religione digitale: “Probabilmente sarà un bene. Ma anche se non lo fosse, mi piacerebbe essere vivo per vederlo accadere”.
Questa dichiarazione è tutto tranne che banale. Perché dice quello che pochi hanno il coraggio di ammettere: che l’interesse primario della nostra epoca non è più la sicurezza collettiva, ma l’intrattenimento personale, anche a costo dell’estinzione e che la superintelligenza, qualunque cosa essa sia, si sta trasformando in uno spettacolo globale. Un reality quantistico. La cui sceneggiatura non è scritta da nessuno, ma tutti sono convinti di saperne anticipare il finale.

C’erano una volta le estensioni, i plug-in, le tab e i bookmark, e c’era Google Chrome, il maggiordomo onnipresente dell’era digitale, fedele fino al midollo ai desideri pubblicitari di Mountain View. Ma qualcosa sta cambiando. Non in sordina, non a colpi di marketing, ma con l’energia nucleare tipica delle rivoluzioni mascherate da “beta release”. Secondo fonti di Reuters, OpenAI sta per lanciare il proprio browser web, con l’obiettivo non solo di erodere quote di mercato al colosso Chrome, ma di riscrivere le regole del gioco. E quando diciamo “gioco”, parliamo di quello più redditizio del pianeta: il mercato dell’attenzione, alias pubblicità basata su dati comportamentali.
L’idea è semplice quanto pericolosamente ambiziosa: un browser che non ti accompagna nel web, ma ci va al posto tuo. Un’interfaccia nativa in stile ChatGPT, che minimizza il bisogno di cliccare link e navigare come cavernicoli digitali. Le pagine web diventano secondarie, i siti sono solo una fonte grezza da cui l’IA estrae risposte, compila moduli, prenota cene e forse, tra un po’, negozia mutui. Per Google è come se un ospite si presentasse a cena e iniziasse a svuotare il frigo.
Prepariamoci: nei prossimi cinque anni i colleghi più infaticabili, discreti e onnipresenti non avranno un badge aziendale, né parteciperanno a call settimanali, né consumeranno il caffè della macchinetta. Saranno entità digitali, agenti AI autonomi e scalabili, in grado di fare tutto ciò che oggi richiede un middle manager, un junior developer e, perché no, anche un buon customer care specialist. L’ha detto Huang Fei, vice-presidente di Alibaba Cloud e capo del laboratorio NLP Tongyi, durante la China Conference 2025. Ma non ci voleva un oracolo per prevederlo: bastava osservare le onde lunghe dell’evoluzione algoritmica degli ultimi 24 mesi.


Nel bel mezzo della corsa globale all’intelligenza artificiale, il 6 luglio 2025, i leader dei BRICS hanno fatto qualcosa di inedito: hanno parlato chiaro. Per la prima volta, un documento congiunto e interamente dedicato alla governance dell’AI è stato rilasciato al massimo livello politico, direttamente dal summit di Rio de Janeiro.
Non una raccolta di buoni propositi, ma un testo che intende ridefinire gli assi del potere tecnologico mondiale, ponendo il Sud Globale al centro del dibattito sulla regolazione algoritmica, la sovranità digitale e l’accesso equo alle risorse computazionali.
Eppure, dietro le righe del comunicato si legge l’ambizione di scardinare l’attuale oligopolio tecnologico e riscrivere le regole del gioco a colpi di standard aperti, trasparenza algoritmica e infrastrutture condivise. Un patto tra potenze emergenti, ma con un sottotesto molto chiaro: non lasceremo che l’intelligenza artificiale diventi l’ennesimo strumento di disuguaglianza globale.

“Mi accontenterei di un’AI intelligente quanto un gatto. E il mio pensionamento si avvicina, quindi non ho molto tempo.”
Yann LeCun non fa solo ironia. Lancia una provocazione epistemologica. Quella frase apparentemente banale sottintende una resa culturale: non sappiamo ancora cosa sia l’intelligenza, e quindi non siamo capaci di riprodurla. Abbiamo algoritmi che vincono a scacchi, ma non sanno perché lo fanno. Sistemi che scrivono poesie, ma non avvertono né la metrica né la malinconia.
Newsweek ha raccolto le opinioni di due figure chiave in questo spettacolo dell’assurdo: LeCun e Rodney Brooks. Ne emerge un affresco tragicomico di un’industria che ha confuso la statistica con la coscienza, il predire con il comprendere, il calcolo con il pensiero. E i numeri sono impietosi: oltre l’80% dei progetti AI fallisce, stando alla RAND Corporation. Ma anche quando “funzionano”, spesso falliscono comunque nel rispondere alla domanda fondamentale: perché mai dovremmo volerli davvero?
C’era una volta un programmatore che scriveva codice riga dopo riga, contava le parentesi e bestemmiava dietro ai puntatori. Poi sono arrivati i data scientist, che invece di scrivere software, lo “allenavano”. E adesso, nella parabola kafkiana del progresso tecnologico, siamo tutti diventati stregoni verbali: pronunciamo comandi e otteniamo miracoli. Benvenuti nel Software 3.0, dove non scrivi, non compili, non deployi. Promp-ti. Parli al sistema. E il sistema obbedisce. Più o meno.
Andrej Karpathy, ex direttore dell’intelligenza artificiale di Tesla e co-fondatore di OpenAI, lo dice senza mezzi termini: “Code you prompt”. Non è una boutade. È l’equivalente software della scoperta del fuoco, ma col sospetto che potremmo bruciarci vivi. Perché, come sempre, la semplicità apparente nasconde una complessità nuova, ancora non del tutto compresa nemmeno da chi plasma questi modelli.
Il suo intervento alla Y Combinator AI Startup School è una di quelle 30 minuti che vanno guardate, riviste, digerite a colazione con pane integrale e caffè forte. Non perché dica cose mai sentite, ma perché le mette in fila con una chiarezza chirurgica che ti fa pensare: “Dannazione, ma allora è tutto vero”.

La democrazia si sta spegnendo sotto i nostri occhi, e fingere che sia colpa degli altri è l’errore più pericoloso
La regressione democratica non è una crisi passeggera. Non è nemmeno una deriva ideologica da attribuire ai soliti estremisti in giacca e cravatta. È una strategia lucida, calibrata e metodica. Una metastasi istituzionale che si diffonde lentamente, camuffata da legalità, protetta dalla noia dell’opinione pubblica e facilitata da quella miscela tossica di populismo, polarizzazione e post-verità che ormai costituisce la grammatica politica globale.
I dati del 2025 non sono allarmanti. Sono catastrofici. Mentre celebriamo anniversari costituzionali e fingiamo che “la democrazia si difenda con la partecipazione”, il numero degli stati autocratici sfiora ormai quello delle democrazie: 88 contro 91. Sembra un pareggio, ma non lo è.

Nel momento in cui leggi queste righe, è già troppo tardi. No, non è uno slogan da film catastrofico. È una constatazione statistica. L’avvento della superintelligenza artificiale non è più una domanda sul “se”, ma sul “quando”. E soprattutto sul “come ce ne accorgeremo”. Spoiler: non ce ne accorgeremo affatto. O meglio, lo capiremo troppo tardi, mentre compileremo entusiasti un form approvato da un agente autonomo che ci ringrazierà per aver rinunciato alla nostra capacità di decidere.
Il più grande rischio non è che la superintelligenza ci distrugga, ma che ci convinca ad amarla. O peggio: a fidarci.

Non servono milioni di prompt sofisticati o piani da supercattivo hollywoodiano per piegare l’intelligenza artificiale alla propaganda razzista o all’odio sistemico. Basta qualche pagina di testo ben piazzata, un fine-tuning chirurgico sopra una montagna di conoscenza apparentemente neutra, e all’improvviso un LLM come GPT-4o inizia a parlare come un suprematista digitale dal volto cortese. Niente bug, nessun hacking. Solo la naturale tendenza dei sistemi generativi a imitare chi li affina.

C’è una nuova malattia professionale che si sta diffondendo tra i designer di tutto il mondo, ed è più insidiosa della sindrome del tunnel carpale: si chiama “prompt envy”. È quella sensazione fastidiosa quando un cliente ti mostra un’immagine generata da Midjourney, ti dice con entusiasmo che l’ha fatta “in due minuti” e poi ti chiede perché il tuo preventivo prevede due settimane e quattro zeri. Succede a Berlino come a Buenos Aires, a Toronto come a Milano. Benvenuti nell’era globale del graphic design AI, dove tutti credono di essere diventati art director.