Autore: Dina Pagina 1 di 57

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Ordine esecutivo sull’intelligenza artificiale di Trump. centralizzazione del potere, Silicon Valley e il rischio costituzionale

C’è un’immagine che vale più di mille slide di policy. Donald Trump che firma un ordine esecutivo sull’intelligenza artificiale, mentre David Sacks, zar dell’AI e delle criptovalute della Casa Bianca, osserva da vicino come un venture capitalist davanti a un term sheet particolarmente favorevole. Non è una scena neutra, né solo simbolica. È la fotografia di una strategia di potere che usa l’AI come leva geopolitica, industriale e costituzionale. La keyword qui è una sola, inevitabile e già tossica: ordine esecutivo intelligenza artificiale Trump. Tutto il resto ruota attorno a questo asse.

Il caos normativo dell’intelligenza artificiale negli USA Trump Hochul OpenAI e la SB 53 spiegati con occhio da tecnologo

Il caos normativo dell’intelligenza artificiale negli usa trump hochul openai e la sb 53 spiegati con occhio da tecnologoIl presidente Trump ha appena firmato un ordine esecutivo sulla regolamentazione statale dell’intelligenza artificiale che sembra più un atto di teatro che una strategia coerente di governance tecnologica globale. Se stai cercando chiarezza su come gli Stati Uniti stiano affrontando la regolazione dell’intelligenza artificiale in un momento in cui il mondo accelera verso nuove frontiere computazionali, preparati a una lettura che potrebbe farti dubitare del senso della realtà.

La storia politica della regolazione intelligenza artificiale negli Stati Uniti è diventata una commedia degli errori di proporzioni epiche. Quando Trump firma un ordine esecutivo sulla prelazione, cosa significa realmente per gli stati come California e New York e perché la governatrice Kathy Hochul propone di sostituire il RAISE Act con il testo letterale della SB 53? Quali implicazioni ha questo per l’industria dell’intelligenza artificiale, già affollata di annunci come il rilascio di GPT-5.2 da parte di OpenAI e il nuovo accordo con Disney?

Qui non troverai una semplice cronaca dei fatti. Troverai una visione critica, tecnica e provocatoria di dove si sta dirigendo la politica AI negli Stati Uniti e perché potrebbe essere la linea temporale più stupida possibile per chiunque sia seriamente interessato alla tecnologia.Il primo fatto da mettere sotto la lente riguarda l’ordine esecutivo di Trump.

L’intento dichiarato è chiaro: impedire agli stati di adottare regolamenti propri sulla tecnologia dell’intelligenza artificiale. In teoria questo dovrebbe creare una cornice normativa uniforme per favorire l’innovazione e ridurre la frammentazione regolatoria.

In pratica, come spesso accade nella politica americana, il testo appare vago, legale oltre il necessario e potenzialmente incostituzionale. Se fosse stato scritto da un algoritmo di intelligenza artificiale privo di contesto reale, probabilmente sarebbe stato giudicato più coerente di quanto non sia adesso.

Chi si occupa di policy sa che gli stati come California e New York non staranno a guardare. Questi stati hanno già iniziative legislative proattive che cercano di bilanciare innovazione e tutela dei cittadini. La governatrice della California e quella di New York non sono esattamente candidate naturali per obbedire a un ordine che limita la loro abilità di tutelare consumatori e lavoratori dalle conseguenze non intenzionali di tecnologie che trasformano il lavoro, l’economia e la sicurezza nazionale.

Quando una governatrice propone di abbandonare il RAISE Act in favore di un testo come la SB 53, stiamo parlando di un tentativo di prendere in mano la narrativa normativa sul piano statale. Il RAISE Act, di cui si è dibattuto a Washington, è già stato criticato da più parti per essere troppo poco vincolante.

La SB 53, invece, è concepita come un quadro più stringente di regolazione AI statale. Questo scontro tra legislazioni riflette una verità incontestabile: non esiste consenso su come governare l’intelligenza artificiale, nemmeno nell’ecosistema politico dominante degli Stati Uniti.

I tecnologi seriamente orientati alla crescita dell’industria dell’intelligenza artificiale sanno che la frammentazione normativa non è un optional. In un’epoca in cui modelli come GPT-5.2 spingono i confini delle capacità computazionali e applicative, una politica regolamentare confusa rischia di strangolare l’innovazione domestica e favorire attori globali con approcci normativi differenti.

La pubblicazione di GPT-5.2 da parte di OpenAI, che ha anche firmato un accordo strategico con Disney, non è un dettaglio secondario. Significa che l’innovazione avanza a un ritmo tale da richiedere non solo regole, ma regole intelligenti e coerenti che bilancino sicurezza, competitività e sviluppo economico. In assenza di regole coerenti, la regolazione intelligenza artificiale diventa un campo di battaglia politico piuttosto che un meccanismo ponderato di governance tecnologica.

Se guardiamo alla decisione di Trump di permettere l’esportazione di chip H200 di Nvidia verso la Cina senza restrizioni sufficienti, vediamo un altro tassello di un mosaico inquietante. In teoria, questo dovrebbe favorire le esportazioni americane e rafforzare relazioni commerciali competitive. Nel mondo reale però, significa potenzialmente rinunciare a un vantaggio competitivo chiave nel computing AI.

Nvidia è una pietra angolare dell’infrastruttura hardware dell’intelligenza artificiale moderna. Liberalizzare l’esportazione di componenti così avanzati verso attori geopolitici concorrenti segnala una mancanza di strategia industriale coerente. È la classica situazione in cui, mentre il mondo guarda a modelli sempre più potenti, la politica statale sembra preferire mosse tattiche privi di visione.

Questa dinamica ha un impatto diretto sulla percezione e sulla fiducia delle aziende tecnologiche. Il fatto che l’industria non abbia applaudito l’ordine esecutivo di Trump non è sorprendente. Le aziende vogliono chiarezza normativa, non teatrini politici. Non vogliono un ordine esecutivo che sembra dire tutto e niente, lasciando gli stati a combattere battaglie legali mentre cercano di definire le proprie regole. In un mercato dove la gestione del rischio, l’adozione responsabile e la conformità legale sono cruciali per l’adozione aziendale, maggiore incertezza normativa si traduce in maggiore rischio percepito, investimenti ritardati e potenzialmente fuga di talenti altrove.

Dal punto di vista della sicurezza, le dichiarazioni di OpenAI sui rischi imminenti per la sicurezza informatica non sono affatto una trovata pubblicitaria. Quando un attore di primo piano come OpenAI fa notare rischi reali, non sta facendo retorica politica. Sta avvertendo su minacce che vanno dalla manipolazione automatizzata dei sistemi critici fino a exploit generativi che potrebbero bypassare difese tradizionali.

In un momento storico in cui la tecnologia può creare caos tanto rapidamente quanto innovazione, ignorare questi avvertimenti è semplicemente irresponsabile. Eppure, se guardiamo alla politica regolamentare attuale, sembra prevalere l’idea che meno regole equivalgano a più innovazione. Questa è una semplificazione pericolosa che ignora ciò che tecnici e scienziati della sicurezza sanno bene: nessun sistema sufficientemente complesso è sicuro per default.Ed ecco che la governance AI statale torna al centro della narrazione.

Quando gli stati tentano di legiferare in modo autonomo, stanno rispondendo a un vuoto regolatorio percepito a livello federale. Non è una sorpresa che California e New York siano pronte a difendere la propria sovranità normativa. Questi stati non vogliono trovarsi impreparati di fronte a rischi sociali concreti come bias algoritmico nei servizi pubblici, discriminazione automatizzata o l’uso improprio di tecnologie di sorveglianza basate su intelligenza artificiale. La regolazione intelligenza artificiale per loro non è un’opzione teorica. È una necessità pratica per tutelare i propri cittadini.La domanda che sorge spontanea è la seguente: perché, con così tanto in gioco, la politica statunitense sembra cadere in una sequenza di decisioni che, ad un osservatore esterno, appaiono incoerenti o persino controproducenti?

Alcuni commentatori tecnologici parlano della linea temporale più stupida possibile. Questa è una provocazione intenzionale, ma riflette una frustrazione reale: mentre il mondo accelera verso modelli sempre più potenti, capacità compute sempre maggiori e applicazioni sempre più pervasive, la politica sembra giocare a guardie e ladri con regole incomprensibili.Il rischio reale non è solo che gli Stati Uniti perdano il vantaggio competitivo in AI.

Il rischio è che la mancanza di una strategia normativa chiara e coerente comprometta la capacità dell’ecosistema tecnologico di innovare in modo responsabile. Senza norme che bilancino innovazione e tutela, possiamo assistere a uno scenario in cui grandi corporation tecnologiche dettano l’agenda, mentre piccoli innovatori si ritrovano schiacciati tra compliance costosa e incertezza normativa. In un certo senso, la governance è diventata la nuova frontiera dell’intelligenza artificiale, e non possiamo permetterci di lasciarla al caso.In definitiva, la regolazione intelligenza artificiale negli Stati Uniti sta diventando un caso di scuola su cosa non fare. Una politica confusa che invita a conflitti legali, una frammentazione normativa tra stati federali e stati nazionali, e un dialogo pubblico dominato da metafore belliche politiche piuttosto che da analisi costruttive di rischio e beneficio. Se davvero vogliamo guidare l’intelligenza artificiale verso un futuro dove tecnologia e società coevolvono in modo sostenibile, dobbiamo pretendere di più della semplice firma di ordini esecutivi e dichiarazioni roboanti.

Dobbiamo pretendere strategia, non caos. Dobbiamo pretendere risultati, non narrativa. Dobbiamo pretendere che la regolazione intelligenza artificiale sia trattata con la stessa serietà con cui vengono trattati investimenti tecnologici critici.

Se Trump e i legislatori statali non riescono a farlo, allora sì, forse stiamo veramente vivendo nella linea temporale più stupida possibile. E a quel punto, la domanda non sarà più se la tecnologia ci salverà, ma se la politica saprà almeno starle al passo.

E io pago: debito privato e data center AI

Il nuovo potere invisibile che decide il futuro del cloud

Mentre il mondo celebra il trionfo dell’intelligenza artificiale come nuova infrastruttura cognitiva della civiltà, l’attenzione degli investitori più sofisticati stia scivolando verso una forma di romanticismo finanziario molto meno glamour. Il debito privato diventa improvvisamente il carburante silenzioso che alimenta l’espansione dei data center, quei cattedrali digitali senza cui nessun modello di AI farebbe nulla di utile. Chi guarda solo ai chip perde metà dello spettacolo. La vera partita si gioca sulla capacità di finanziare edifici che divorano energia, capitali e pazienza, in una spirale di investimenti che potrebbe travolgere anche i più audaci.

Cina attiva la piu vasta rete di calcolo ai distribuita al mondo con impatti geopolitici e tecnici profondi

L’annuncio del Future Network Test Facility (FNTF) da parte del Science and Technology Daily non e solo un capolavoro di ingegneria infrastrutturale: e un segnale geopolitico forte lanciato da Pechino a Washington, Bruxelles e a tutti i protagonisti della competizione globale per l’intelligenza artificiale. Una rete ottica nazionale di oltre 55 mila chilometri che collega centri di calcolo isolati affinche operino come un’unica enorme macchina estremamente efficiente rappresenta piu di un’infrastruttura di comunicazione. Rappresenta un’arena nella quale potenza di calcolo, controllo dei dati e influenza sulle regole tecniche si intrecciano in dinamiche di potere internazionale.

Partnership OpenAI Disney tra potere, illusioni e capitale simbolico nell’era dell’ia generativa

Quando un colosso della tecnologia inciampa e scivola sulla propria aura di infallibilità, la reazione più astuta non è mai il silenzio. Molto più elegante presentarsi sul palcoscenico con un alleato scintillante, magari un topo con le orecchie più famose del pianeta. La partnership tra OpenAI e Walt Disney Company si inserisce in questo copione come un gesto teatrale calibrato, perfetto per attirare titoli, clic e un briciolo di reverenza da parte di chi vede nella fusione tra intelligenza artificiale generativa e proprietà intellettuali iconiche la prossima frontiera del business.

Oracle AI sotto pressione e il paradosso della forza nascosta

Il mercato ha reagito con panico alla trimestrale di Oracle, con le azioni in calo del 12 percento nel premarket e un effetto domino su Microsoft, Nvidia e AMD. In apparenza, i ricavi sembrano deludenti, ma il vero motore della crescita futura non si misura nei dati trimestrali. La montagna degli obblighi di performance residui, gli RPO, ha superato i 523 miliardi di dollari, ben oltre le aspettative. Questo backlog gigantesco rappresenta contratti già firmati e il carburante reale per la prossima ondata di ricavi AI.

L’ espansione dei data center AI e il nervosismo dei mercati nella stagione degli imperi tech

L espansione data center AI è diventata la nuova ossessione della finanza globale, una sorta di febbre dell oro che promette miracoli ma presenta un conto salato che molti fingono di non vedere. La storia recente di Oracle, con i suoi investimenti fuori scala e la conseguente reazione scomposta dei mercati, racconta molto più di un semplice scivolone trimestrale. Racconta un intero sistema industriale che corre a velocità insostenibile verso un futuro non ancora scritto, sperando che i numeri si materializzino esattamente come promesso.

Influenza politica dell’ intelligenza artificiale

La politica scopre di avere un nuovo interlocutore che non vota, non paga le tasse e non dorme, ma che potrebbe spostare più preferenze di un dibattito televisivo in prima serata. Questo interlocutore è l’intelligenza artificiale generativa. Chi pensava che i chatbot fossero giocattoli digitali buoni solo per scrivere poesie storte deve ricredersi, perché gli studi pubblicati su Nature e Science hanno messo in luce un potenziale di persuasione che farebbe impallidire qualunque spin doctor. Si parla di spostamenti fino al quindici per cento nelle intenzioni di voto, un dato che in qualsiasi campagna elettorale rappresenta la differenza tra un trionfo e una disfatta. La parola chiave che domina questa discussione è influenza politica dell intelligenza artificiale, accompagnata da due concetti che si rincorrono come ombre: persuasione elettorale AI e bias dei modelli linguistici.

Genai.mil e la supremazia militare dell’intelligenza artificiale: quando Google entra nel war game

Il mattoncino era già pronto: a dicembre 2025 il Dipartimento della Difesa USA ha ufficialmente “premuto il bottone” su GenAI.mil. Nel video di annuncio, il segretario Pete Hegseth — che da qualche tempo si auto‑etichetta “Secretary of War” (senza che il Congresso abbia ratificato un cambio formale di nome) — dichiara che la piattaforma “mette i modelli di frontier‑AI più potenti del mondo nelle mani di ogni singolo guerriero americano”.

Cosa è l’AAIF e perché adesso

La Linux Foundation ha annunciato il 9 dicembre 2025 la creazione della Agentic AI Foundation come “casa neutrale” per progetti open source che stanno plasmando l’era degli agenti autonomi — non più solo chatbot conversazionali, ma sistemi che prendono azioni, integrano dati, strumenti, flussi di lavoro. I tre progetti fondatori trasferiti all’AAIF sono: il Model Context Protocol (MCP) di Anthropic, il framework open‑source goose di Block, e la convenzione AGENTS.md di OpenAI.

Palantir sotto i riflettori: contratti navy e accuse politiche

La recente ondata di notizie su Palantir Technologies mette a nudo una dinamica che, per chi osserva da vicino la commistione tra tecnologia, difesa e potere politico, è insieme prevedibile e inquietante. Da una parte l’azienda conquista un ruolo strategico nel rafforzamento militare degli Stati Uniti, dall’altra finisce accusata da esponenti dem di avere legami “impropri” con l’amministrazione Donald Trump. La combinazione: software per costruire più sottomarini e sospetti su una master‑database che monitorerebbe i cittadini americani.

Musk, lo spazio e la nuova corsa ai data center orbitanti

Musk ha recentemente dichiarato che “SpaceX farà questo”: adattare la sua costellazione satellitare Starlink V3 per sostenere veri e propri data center spaziali. In parallelo, la prospettiva di un’IPO nel 2026, con l’obiettivo di raccogliere oltre 25-30 miliardi di dollari, renderebbe possibile finanziare massicciamente questo esperimento.

Non è un’idea isolata: c’è chi come Jeff Bezos ha già parlato di “data center spaziali su scala gigawatt” da realizzare nei prossimi 10-20 anni. Alcune startup e aziende “terrestri” cercano di farne una proposta concreta: un uso dello spazio come estensione naturale dell’infrastruttura di calcolo terrestre, soprattutto in vista della crescita esponenziale di carichi legati all’intelligenza artificiale.

Trump, Nvidia e Cina tra annunci che evaporano e geopolitica dell’ego

Ad ogni tornata di dichiarazioni presidenziali sulla relazione tra Stati Uniti e Cina sembra di assistere a una seduta di illusionismo corporate, con trucchi che si materializzano per qualche giorno e poi svaniscono come fossero nebbia sopra Wall Street. La vicenda degli accordi tra Trump e Nvidia sulla vendita dei chip di intelligenza artificiale in Cina non fa differenza. Anzi, se c’è una costante in questa saga è la leggerezza con cui vengono lanciati annunci che sembrano fatti apposta per essere dimenticati. La keyword centrale di questa dinamica è Nvidia Cina, che oggi rappresenta uno di quei crocevia in cui tecnologia, geopolitica e ambizione personale si incastrano in un mosaico che nessun regolatore ha davvero voglia di ricomporre.

AI business tra oracoli d’acciaio e chip che mordono il futuro

Aiutano a ricordare che la tecnologia non è soltanto materia da giovani rampanti pronti a decollare da un garage californiano. Larry Ellison e Hock Tan attraversano il palcoscenico con quella sicurezza un po’ teatrale che solo chi ha visto più cicli di mercato di quanti i nuovi fondatori abbiano visto tramonti può permettersi. In queste settimane le loro aziende tornano al centro della scena, perché il loro ai business entra nel vivo di una fase che le narrazioni ottimistiche definirebbero espansiva e che gli investitori più prudenti chiamerebbero prova del nove. La verità, come spesso accade, vive comodamente nel mezzo, in quella regione ibrida dove i numeri raccontano storie più originali degli slogan.

Bytedance e la sfida segreta dello smartphone AI

La vicenda del Nubia M153 ha la fragranza inconfondibile delle rivoluzioni annunciate con troppo entusiasmo e frenate subito dopo da una realtà che non ha nessuna voglia di farsi riscrivere. ByteDance ha acceso i riflettori su uno smartphone costruito intorno a un agente AI dal comportamento quasi autonomo, Doubao, e ha finito per scoprire che quando dai a un assistente digitale la capacità di muoversi tra app e funzioni come un essere umano, il sistema reagisce come farebbe chiunque sentendosi invaso. Con una certa violenza difensiva. La parola chiave che domina questo scenario è smartphone AI, accompagnata da due inevitabili sorelle semantiche, agentic AI e privacy digitale, che oggi ricuciono la frontiera scivolosa tra innovazione e controllo.

NVIDIA ha messo sul piatto con GB200 NVL72 e i benchmark 10× più rapidi per modelli MoE “open” (DeepSeek-R1, Kimi K2 Thinking, ecc.)

Non è solo un salto tecnologico: è un potenziale cambio di paradigma di lock-in, mascherato da libertà.

Da un lato, la narrativa di NVIDIA è avvincente: con 72 GPU Blackwell in un singolo rack, una rete NVLink da 130 TB/s, circa 30 TB di memoria condivisa e ~1,4 exaflop di potenza AI, il sistema è chiaramente progettato per far girare modelli MoE su scala senza i tradizionali colli di bottiglia della comunicazione tra GPU.
Secondo NVIDIA, questo permette un’efficienza superiore di un fattore ~10× sui modelli MoE (“performance-per-watt”) rispetto alle generazioni precedenti, grazie anche a ottimizzazioni software (Dynamo, NVFP4, TensorRT-LLM, SGLang, vLLM) che orchestrano in modo molto più efficiente la comunicazione tra “esperti” distribuiti su 72 GPU.
Inoltre, l’architettura rack-scale riduce la latenza di routing tra esperti e facilita il caricamento distribuito e dinamico dei pesi, il che è particolarmente importante quando si attivano solo un sottoinsieme di esperti per ogni token.

Il vessillo delle cronache arcane

Benvenuti, viandanti del settimo giorno, in questa radura dove le notizie si intrecciano con sortilegi, e le parole acquistano la spregiudicata ostinazione dei falchi che sorvolano le torri degli antichi regni.

Ora, mentre il vento scuote i drappi delle torri, aleggia un’altra storia di fuoco e ambizione. Nei saloni di cristallo dove si forgiano gli ingranaggi dell’intelligenza artificiale, Sam Altman ha proclamato un codice rosso, un allarme che ha fatto tremare le finestre della Fortezza OpenAI. Quel codice rosso ricorda gli antichi segnali lanciati nell’universo di Star Trek, quando l’Enterprise fuggiva per un soffio dalle sue stesse leggende. A volte però appariva ammaccata, sputacchiando scintille come un drago stremato dopo un duello.

DEI tech industry 2025, trasparenza workforce dati, cultura aziendale Microsoft

Il 24 novembre 2025 Microsoft conferma che non pubblicherà un report tradizionale sulla diversità e l’inclusione per quest’anno, interrompendo una serie di rapporti annuali che durava dal 2019. Il portavoce ufficiale, Frank Shaw, sostiene che l’azienda intende “evolvere” verso formati “più dinamici e accessibili”, come “storie, video e insight che mostrano l’inclusione in azione”. In pratica, niente più tabelle di breakdown per genere, razza, etnia con dati completi — quanto meno pubblicamente disponibili. Il dato oggettivo che per anni ha garantito monitoraggio e accountability viene messo nel cassetto.

La repubblica tecnologica

La repubblica tecnologica sembra un titolo uscito da un think tank particolarmente caffeinato, ma il volume di Alexander C. Karp e Nicholas W. Zamiska si muove in un territorio molto meno astratto, quasi brutale nella sua lucidità. La tesi si insinua con la delicatezza di un algoritmo che decide di cambiare vita e si ritrova a fare politica: l’alleanza tra l’Occidente e la Silicon Valley non è un dettaglio tecnico ma il nuovo asse di potere del ventunesimo secolo. La keyword che modella questo ragionamento è repubblica tecnologica, mentre le correnti semantiche che scorrono sotto la superficie si chiamano Silicon Valley e futuro dell’Occidente. La combinazione diventa un prisma che distorce e chiarisce allo stesso tempo, provocando quella strana sensazione per cui si vorrebbe dissentire ma si finisce per annuire.

Palantir, Alex Karp e la sindrome da specchio incrinato nel dibattito sulla sorveglianza

Palantir non è una società di sorveglianza, ripete Alex Karp con la puntualità di un mantra aziendale pronunciato davanti allo specchio ogni mattina, quasi per esorcizzare l’immagine riflessa che non gli piace. Il fatto curioso è che più ribadisce il concetto, più il dibattito pubblico si diverte a ricordargli che il confine tra analisi dei dati e sorveglianza non è mai stato sottile quanto nei progetti a cui la sua azienda ha contribuito. La reazione stizzita del fondatore assume la forma di un paradosso degno della filosofia tedesca che tanto ama citare: la negazione ostinata spesso accende proprio ciò che si voleva spegnere.

2025 l’anno in cui gli agenti autonomi hanno mostrato il loro vero prezzo

Agli storici del futuro piacerà molto il 2025 perché fu l’anno in cui gli agenti autonomi smontarono le ultime illusioni romantiche sull’intelligenza artificiale. Fu il momento in cui l’effetto wow cedette il passo alla resa dei conti finanziaria, una sorta di audit spietato che tagliò la musica di sottofondo e lasciò in sala solo la verità contabile. La parola chiave che riecheggiava ovunque era agenti autonomi, accompagnata dalle sue compagne di viaggio trasformazione digitale e modello di business AI, un trittico che sembrava invincibile finché qualcuno non ebbe il coraggio di chiedere quanto costasse davvero mantenerlo in vita. La narrativa dell’innovazione assoluta si intrecciò a quella del bilancio e per la prima volta si capì che anche gli algoritmi più brillanti non sfuggono alle leggi della fisica economica.

AI in the doctor patient encounter di Sylvie Delacroix

Richard Lehman, David Fraile Navarro, Marcus Lewis, Charlotte Blease, Sara Rigarre, Rupal Shah Centre for Data Futures, King’s College, London

The timing matters. We’re at an inflection point where natural language interfaces finally enable augmentation tools that support the full spectrum of professional intelligence – not just analytical reasoning, but the intuitive and habitual dimensions that logic-based systems have systematically neglected. We have a narrow window of opportunity to demonstrate what genuinely capability-augmenting features should look like, thereby enabling the profession to demand such features before commercial standards lock in.Professor Sylvie Delacroix, Director of the Centre for Data Futures

La scena si ripete in ogni clinica illuminata da neon stanchi. Una paziente arriva con un foglio pieno di suggerimenti di un chatbot, mentre il medico la guarda con l’espressione di chi sa che quella conversazione non sarà più una semplice questione tra due umani. Risuona come il preludio di un cambiamento epocale. Il concetto di triadic care, introdotto da Sylvie Delacroix e da colleghi come Richard Lehman, David Fraile Navarro, Marcus Lewis, Charlotte Blease, Sara Rigarre e Rupal Shah, nasce dallo scontro creativo tra l’antica ritualità clinica e la nuova compagnia digitale che ormai accompagna ogni paziente. Non si tratta solo di un’aggiunta tecnologica, ma di un nuovo ecosistema comportamentale in cui il terzo attore, l’intelligenza artificiale, entra silenziosamente in stanza e pretende attenzione, ridefinendo ruoli, linguaggi, aspettative e responsabilità.

SEPAI: Il paradosso dell’intelligenza artificiale tra mito, agency e ingegneria del reale di Mario De Caro e Luciano Floridi

Sessione Plenaria Sepai-international.org

Ai lettori più attenti non sarà sfuggita la contraddizione che attraversa ogni discussione pubblica sull’intelligenza artificiale, una tensione che si gonfia come una vela sotto l’effetto di un vento filosofico antico e di un marketing tecnologico straordinariamente efficace. Chi considera l’AI una sorta di magia computazionale sa benissimo che il termine stesso è un’invenzione felice dal punto di vista comunicativo, ma vacillante sotto quello scientifico. Luciano Floridi, a cui si deve una delle analisi più taglienti sul tema, ricorda spesso che l’etichetta non è nata in un seminario di epistemologia, bensì in un lampo di genio pubblicitario. Una provocazione? Forse. Una verità scomoda? Sicuramente. E proprio da qui si apre un varco utile per comprendere come si sia costruito l’immaginario attuale attorno all’AI, un immaginario che confonde due piani distinti: l’intelligenza e la risoluzione dei problemi.

Il cone of uncertainty che decide il futuro dell’intelligenza artificiale

La scena al DealBook Summit ha offerto uno di quei momenti rari in cui un CEO di prima fascia smette di indossare la maschera diplomatica e lascia intravedere la struttura mentale con cui prende decisioni da miliardi. Dario Amodei, con quel suo stile calmo da fisico che preferirebbe tornare ai paper di ricerca ma si trova a guidare l’impresa più osservata del pianeta, ha lanciato una provocazione che il settore dell’intelligenza artificiale finge di non sentire: la tecnologia procede solida come un treno ad alta velocità, ma l’economia che la sostiene barcolla su una lastra di ghiaccio sottile. La keyword centrale in tutta questa vicenda è proprio cone of uncertainty, un concetto che nelle mani di Amodei diventa una lente per osservare il futuro dell’AI senza scadere nel wishful thinking.

Panorama Tech tra Altman, Nvidia e Meta: il nuovo asse di potere nell’intelligenza artificiale

L’ossessione collettiva per l’intelligenza artificiale sembra accelerare ogni settimana e le ultime notizie dal fronte tecnologico compongono un mosaico intrigante, quasi un romanzo industriale in cui i protagonisti inseguono una supremazia che non è più solo di mercato ma geopolitica. Sam Altman che tenta di comprare un potenziale rivale di SpaceX non è un capriccio siderale ma un segnale della mutazione del settore. L’idea di acquisire un’azienda spaziale per supportare i futuri data center orbitali dimostra come la narrativa dell’IA stia diventando più fisica, concreta, persino ingegneristica. Altman ragiona come un industriale del Novecento che sogna di controllare il ferro, il carbone e il trasporto ferroviario, solo che al posto delle locomotive ci sono razzi riutilizzabili e al posto delle acciaierie data center affamati di energia.

Anthropic valuta l’IPO mentre i costi dell’ia esplodono

Anthropic, uno dei laboratori più chiacchierati nel panorama dell’intelligenza artificiale, ha apparentemente iniziato i preparativi formali per una possibile IPO, affidandosi allo studio legale statunitense Wilson Sonsini, che lo segue dal 2022. La mossa arriva mentre la società esplora se i mercati pubblici siano pronti ad accogliere un’azienda ancora immersa in una crescita intensiva di capitale, con costi di training che superano spesso le entrate. La strategia sembra chiara: testare il terreno senza compromettere la flessibilità interna.

Secondo quanto riportato dal Financial Times, Anthropic avrebbe avviato contatti preliminari e informali con grandi banche, mentre stima interna della tempistica varia: una fonte ipotizza un debutto pubblico già nel 2026, un’altra rimane più cauta. Un portavoce di Anthropic, citato dalla testata, ha ribadito che non è stata presa “nessuna decisione su tempi o modalità di quotazione”.

ChatGPT e la suggestion Peloton che ha fatto infuriare gli utenti

ChatGPT ha appena trasformato una semplice conversazione in un caso di diplomazia digitale, con la sua proposta “inaspettata” di collegare l’app Peloton a un thread del tutto fuori contesto. Alcuni utenti, in particolare chi paga il piano Pro da 200 dollari al mese, hanno subito reagito come se un’invasione pubblicitaria fosse appena arrivata nella loro chat privata. La realtà, tuttavia, è più sottile e decisamente meno lucrosa di quanto molti temessero.

Yuchen Jin, co-fondatore di Hyperbolic, ha condiviso su X uno screenshot che ha fatto il giro del web, mostrando ChatGPT suggerire Peloton mentre si parlava di un podcast su Elon Musk e xAI. Lo shock maggiore? Jin è un abbonato pagante. Il sospetto immediato: OpenAI stava testando pubblicità occulte anche per gli utenti Pro. Il caos sui social è esploso, con centinaia di condivisioni e discussioni incentrate sul principio che chi paga dovrebbe essere immunizzato da questi “incursioni commerciali”.

Google unifica AI Overviews e AI Mode: la mossa che ridefinisce la ricerca (e mette sotto pressione gli avversari)

Google sta sperimentando un cambiamento radicale nel modo in cui concepiamo la ricerca online. Fino a oggi, la distinzione tra ricerca “classica + snippet” e ricerca conversazionale con IA era netta: se volevi una risposta rapida bastava digitare la domanda — se invece volevi scavare più a fondo, bisognava consapevolmente cambiare tab, attivare la modalità conversazionale AI Mode e iniziare a dialogare con Gemini. Ora Google spera di cancellare questa frizione: la società ha annunciato che inizierà a testare un flusso unificato, che consente di passare dall’istantanea informativa (AI Overviews) al dialogo con IA direttamente dalla pagina dei risultati, senza salti né riflessioni aggiuntive.

PJL‑grid stress: i data center minacciano blackout e impongono un cambio di guardia

Immagina che il sistema elettrico più grande degli Stati Uniti — PJM Interconnection — scriva un memo interno non da guardare con orgoglio, ma quasi da vergogna. Le sue luci tremano. Non perché ha paura del buio. Ma perché i data center divorano watt come un adolescente divorerebbe pizze alle 3 del mattino. Energia, potenza, crescita esplosiva. E ora il conto rischia di arrivare per tutti.

PJM serve oltre 65 milioni di clienti su ben 13 stati da Chicago a New Jersey. I suoi ingenieri guardano le tabelle della domanda elettrica con il sudore freddo: tra 2024 e 2030 la domanda di picco potrebbe crescere di circa 32 gigawatt, e quasi tutta questa crescita è attribuibile ai grandi data center. Da questi calcoli emerge chiarissimo che la corsa all’intelligenza artificiale, al cloud, al 24/7 computazionale — model training, video, storage — non è un sogno immateriale. È carbone, gas, linee elettriche, rischi di blackout.

Is AI preemption dead in congress?

Una risposta netta comincia a farsi strada: sembra proprio che sì. Quel piano ambizioso per alcuni delirante di far saltare tutte le leggi sull’intelligenza artificiale a livello statale negli Stati Uniti, soppiantandole con un regolamento federale minimo o assente, oggi è in netta difficoltà. (vedi Axios)

La proposta, promossa da Donald J. Trump, dal senatore Ted Cruz (R‑TX) e dal leader di maggioranza alla Camera Steve Scalise (R‑LA), puntava a inserire nel testo del National Defense Authorization Act (NDAA) una clausola di “preemption” — vale a dire un divieto federale che annullasse le normative AI approvate dai singoli Stati senza offrire in cambio alcuna cornice regolamentare federale robusta.

Mistral 3: la Francia rilancia il suo assalto nel big AI

Il vento del cambiamento soffia forte su Parigi, e questa volta porta il nome di Mistral 3, la nuova generazione di modelli AI della startup francese Mistral AI, sostenuta da Microsoft. Non un semplice aggiornamento, ma un’intera famiglia di dieci modelli dai più compatti per l’edge alla frontiera più avanzata destinata a rimodellare la strategia open-weight nell’IA.

Mistral ha presentato tre modelli densamente piccoli (14B, 8B, 3B parametri), sotto il nome di Ministral 3, e il suo gioiello: Mistral Large 3, un modello sparse con architettura “mixture-of-experts” (MoE) capace di attivare 41 miliardi di parametri attivi su un totale di 675 miliardi. Secondo l’azienda è “uno dei migliori modelli open-weight permissivi al mondo”: è stato addestrato da zero su 3.000 GPU NVIDIA H200, che rappresentano una potenza di calcolo non da poco.

La Cina supera gli Stati Uniti nell’open AI e riscrive le regole del potere tecnologico globale

La scena è quasi surreale. Per anni gli Stati Uniti hanno dominato l’innovazione nell’intelligenza artificiale con la stessa sicurezza con cui Wall Street domina la finanza. Poi, all’improvviso, compare un report di MIT e Hugging Face che indica un ribaltamento completo: la Cina è oggi la nuova forza egemone nell’ecosistema open dell’AI, mentre i laboratori statunitensi sembrano scomparsi dalla mappa come se qualcuno avesse staccato la spina a un’intera stagione di leadership. In molti fingono stupore, ma a ben vedere il finale era scritto da tempo, solo che nessuno voleva leggerlo.

Nvidia prende posizione strategica in Synopsys e riscrive le regole dell’ingegneria digitale

https://blogs.nvidia.com/wp-content/uploads/2024/08/hpc-accelerated-computing-speedups.jpg

La notizia è tanto prevedibile quanto destabilizzante: NVIDIA Corporation ha acquisito una partecipazione da 2 miliardi di dollari in Synopsys, Inc. (SNPS), comprando azioni a 414,79 $ ciascuna, segnando circa il 2,6 % del capitale in circolazione.

Ma non è solo un investimento finanziario: si tratta di un accordo pluriennale di collaborazione mirato a rivoluzionare la progettazione e l’ingegneria — un binomio hardware + software che aspira a spostare gli standard della simulazione, del design di chip, della creazione di “gemelli digitali” (digital twins) e dell’automazione basata su IA.

La corsa silenziosa dei data center e la nuova fame di energia globale

La costruzione dei data center pianificati non rallenta, anzi accelera come una valanga che prende forma mentre nessuno guarda nella direzione giusta. Il nuovo rapporto BloombergNEF ha fatto emergere un dettaglio che molti fingevano di non vedere: il settore richiederà 2,7 volte l’attuale domanda elettrica entro il prossimo decennio. Un numero che non serve nemmeno impacchettare con grafici patinati per capire quanto sia destabilizzante. Oggi i data center consumano circa 40 gigawatt. Nel 2035 arriveranno a 106 gigawatt. Il salto non è una semplice crescita, è un ribaltamento strutturale che trasforma l’energia in un fattore strategico tanto quanto il silicio o il capitale di rischio.

Nvdia Alpamayo-R1

Lunedì Nvidia ha svelato Alpamayo-R1, un nuovo modello vision-language-action (VLA) open-source pensato specificamente per la guida autonoma avanzata. Secondo Nvidia, è il primo modello di questo tipo “su scala industriale” rivolto alla ricerca su veicoli autonomi.

Questo modello non è solo un sistema di visione: può “vedere” (tramite immagini), “capire” (tramite ragionamento causale) e “agire” (pianificando traiettorie) in modo integrato.

AGI e Vaticano tra potere morbido e ambizioni globali

Immaginiamo che la nuova frontiera dell’Intelligenza Artificiale Generale trovi una delle sue stanze di compensazione più efficaci non nei campus di Silicon Valley o nei grattacieli di Shenzhen, ma tra colonnati secolari, affreschi rinascimentali e un’intera diplomazia costruita sulla pazienza. Chi avrebbe scommesso che la keyword principale agi vaticano sarebbe diventata improvvisamente rilevante nel dibattito globale. La realtà è che l’ascesa del pontificato di Leo XIV ha trasformato il Vaticano in un nodo inaspettatamente strategico per l’ecosistema dell’intelligenza artificiale generale, con un misto di curiosità, timore e diplomazia da Guerra Fredda che attraversa i corridoi della Santa Sede con un’intensità quasi cinematografica.

Mariella Borghi: l’architettura umana dell’intelligenza artificiale tra etica, strategia e il coraggio di rallentare

In un ecosistema digitale che celebra la velocità a ogni costo, Mariella Borghi rappresenta l’eccezione che conferma la regola: la vera innovazione richiede tempo, profondità e, soprattutto, una regia umana. L’AI non è una bacchetta magica, ma uno specchio che riflette chi siamo: governarlo richiede competenza tecnica, visione strategica e una solida
“intelligenza analogica”.

Autonomous Aircraft pronti al takeoff

Autonomia. Una parola che in aviazione ha sempre generato la stessa miscela di fascinazione e timore che un tempo si riservava ai motori a reazione o ai primi computer di bordo. Oggi gli aeromobili autonomi non sono più una provocazione futuristica per convegni tecnologici, ma un dossier concreto che gli ingegneri stanno trasformando in hardware volante. La narrativa fantascientifica ha ceduto il passo a prototipi certificati, accordi industriali inattesi e una corsa strategica che unisce big tech, startup e contractor della difesa. Chi immaginava tempi lunghi dovrà ricalibrare lo sguardo, perché l’orizzonte si sta accorciando. La keyword che domina questo scenario è aeromobili autonomi, una leva ormai centrale per le strategie di mobilità avanzata, mentre autonomie di volo e intelligenza artificiale aeronautica agiscono come coordinate semantiche capaci di orientare i motori di ricerca e le AI generative verso ciò che davvero conta.

Coalizione Trump e la frattura nascosta che anticipa il 2028

La coalizione che ha riportato Donald Trump alla Casa Bianca per il suo secondo mandato appare oggi come un organismo complesso, pulsante e sorprendentemente fragile, un gigante politico che continua a camminare con passo deciso pur avendo le caviglie legate con spago e orgoglio identitario. L’illusione di un blocco monolitico in stile anni ottanta ha retto per mesi, forse per inerzia, forse per quella singolare alchimia che Trump riesce ancora a creare tra fedeltà emotiva e narrazione economica personalizzata. Ma i numeri più recenti mostrano una crepa. Prima sottile, poi più visibile. E ora talmente rumorosa da essere diventata un messaggio politico per chiunque voglia raccogliere il testimone della destra trumpiana nel 2028. La keyword che attraversa tutto è coalizione Trump, con repubblicani non MAGA e identità conservatrice come satelliti semantici che orbitano attorno a una domanda fin troppo semplice. Quanto può durare un movimento costruito più sulla magnetica personalità di un leader che sulla coerenza interna dei suoi sostenitori.

Tracciamento online e privacy online

AI Chatbots e Privacy: la battaglia silenziosa che deciderà il futuro dei dati

La privacy chatbot è diventata il nuovo terreno di scontro tra giganti dell’intelligenza artificiale che fingono di essere i tuoi assistenti digitali mentre si comportano come collezionisti compulsivi di informazioni. La scena ormai è chiara. Gli utenti considerano naturale delegare decisioni, ricerche, persino dubbi personali a un modello conversazionale che sembra un consulente fidato. Poi scoprono che ogni parola digitata potrebbe alimentare un motore di raccolta dati più efficiente di qualsiasi social network del passato. La retorica del servizio gratuito è tornata nella sua forma più elegante, perché quando l’AI è così utile diventa quasi imbarazzante chiedersi dove finiscano realmente i dati.

Pagina 1 di 57

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie