Autore: Dina Pagina 13 di 57

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Neuralink e il primo paziente umano: diciotto mesi dopo la storia sembra più fantascienza che medicina

Noland Arbaugh non è più solo un paziente, è una specie di avanguardia vivente. Diciotto mesi fa il suo cervello è stato collegato a Neuralink, il chip impiantato con chirurgia robotica che ha fatto tremare tanto i neurologi quanto i filosofi. E oggi racconta la sua vita con una naturalezza che spiazza: “mi ha cambiato completamente l’esistenza”. Ecco la differenza fra un annuncio di Musk su Twitter e la realtà concreta di un uomo che, paralizzato dal collo in giù, riesce ora a giocare a scacchi online muovendo un cursore con il pensiero. Sembra un dettaglio frivolo, ma in realtà è un atto politico, sociale e tecnologico insieme, perché sancisce la transizione delle interfacce cervello-computer dal laboratorio al salotto di casa.

Decodificare il primer sull’open AI dell’OECD: la spada a doppio taglio che tutti stiamo brandendo

Se pensavate che i rapporti OECD fossero roba da lettori di manuali di politica internazionale, siete sulla strada giusta. Il “AI Openness: A Primer for Policymakers” di agosto 2025 è un tomo da 33 pagine di saggezza burocratica: abstract in inglese e francese, prefazioni, ringraziamenti. Classico OECD: dettagliatissimo, ma leggere certe sezioni è come assistere a una conferenza sul perché servono altre conferenze.

Cynicus? Sempre. Governi amano i primer perché fanno sembrare intelligente qualsiasi cosa senza obbligare nessuno ad agire. Ma questo non è puro fluff. Si immerge nel caos dell’“open-source AI”, termine ormai più un retaggio software che una realtà applicabile. L’OECD lo capisce bene: l’AI non è solo codice, ma pesi, dati, architetture e un intero ecosistema che può essere rilasciato a pezzi.

Il mistero del libero arbitrio tra filosofia neuroscienze e sfide digitali

Il Meeting di Rimini di Agosto ha aperto quest’anno un dibattito che più che accademico è quasi epico: “Siamo davvero liberi, il libero arbitrio fra condizioni e nuovi inizi?”. Domanda semplice sulla carta, capace di far vacillare le certezze di filosofi, neuroscienziati e sviluppatori di intelligenza artificiale. La libertà, quel concetto che gli occidentali celebrano come apice del valore individuale, si scopre fragile davanti ai dati, ai condizionamenti biologici e alle macchine che apprendono più di noi ogni giorno. Non era una discussione a tesi contrapposte: era un confronto serrato, quasi un duello tra chi difende la coscienza come fondamento della libertà e chi ricorda che il cervello è un organo condizionato dalla storia evolutiva.

Il Paradosso dell’Intelligenza Artificiale: quando l’aiuto diventa ostacolo

Viviamo in un’epoca in cui l’intelligenza artificiale viene venduta come la panacea di ogni limite cognitivo, come la stampella digitale che ci rende più brillanti, più veloci, più competitivi. La narrazione dominante è quella del superamento dei confini biologici della mente umana, un upgrade neuronale permanente a costo zero. Ma la realtà, come spesso accade, è meno glamour e molto più inquietante. Perché dietro i riflettori del progresso emergono due paradossi che mettono in discussione il rapporto stesso tra cervello e tecnologia, costringendoci a rivedere radicalmente il significato di “potenziamento” nell’era digitale.

Demis Hassabis svela il futuro dell’intelligenza artificiale: perché solo chi impara ora non verrà spazzato via

Demis Hassabis non è un qualsiasi CEO. È l’uomo dietro DeepMind, il laboratorio di intelligenza artificiale di Google che ha umiliato i campioni di Go e che oggi orchestra il futuro dell’AGI. Quando parla, il mondo tecnologico finge di ascoltare ma in realtà molti si limitano a twittare la citazione più facile. Eppure, nel suo ultimo intervento, Hassabis ha lasciato cadere alcune bombe che meritano più di un applauso automatico.

Elon Musk apre grok 2.5 ma l’open source di xAI è davvero aperto?

Elon Musk che decide di open-sourcizzare Grok 2.5 è l’ennesima mossa da manuale di un imprenditore che ha capito che l’intelligenza artificiale oggi non si gioca più soltanto nella segretezza dei laboratori, ma nella visibilità e nella capacità di influenzare la percezione collettiva. Rendere pubblici i pesi di un modello non è un gesto di altruismo, ma un investimento strategico sul posizionamento: Grok diventa così il primo grande modello con un DNA dichiaratamente “muskiano”, aperto quanto basta da attrarre sviluppatori e ricercatori, chiuso quel tanto che serve per proteggere il core business. Tim Kellogg ha definito la licenza “custom con clausole anti-competitive” e questo è il vero punto: siamo davanti a un open source che non è open, una sorta di “open washing” che permette a Musk di sbandierare la bandiera della trasparenza senza rinunciare al controllo.

OpenAI suona il campanello d’allarme: attenzione agli SPV non è esposizione autorizzata all’equity

In una riflessione pungente degna della copertina di un economista irritato, arrivano le prime scintille di caos nel mondo dorato dell’intelligenza artificiale : OpenAI lancia un avvertimento ruvido verso quegli “spv non autorizzati”, quei veicoli di investimento che promettono accesso privilegiato e non riconosciuto il sacro graal dell’equity dell’azienda.

La società scrive chiaro e tondo che è in corso una caccia alle operazioni non autorizzate SPV inclusi che tentano di aggirare le rigide limitazioni imposte ai trasferimenti azionari. Chi compra senza il visto bianco di OpenAI, commentano con ironia amarognola, si ritroverà con un pezzo di carta che “non sarà riconosciuto e non avrà alcun valore economico.” Una sorta di biglietto stampato al porto, sbagliato e inutile, nonostante le promesse patinate. (annuncio OpenAI)

La Storia si ripete

Oda_Show

L’arte della manipolazione algoritmica: come il NDTC ha trasformato l’AI in un’arma politica

Nel 2025, l’intelligenza artificiale non è più un concetto astratto relegato ai laboratori universitari o alle startup di Silicon Valley. È diventata una risorsa strategica nelle campagne politiche, un’arma affilata nelle mani di chi sa come utilizzarla. Il National Democratic Training Committee (NDTC), fondato nel 2016 da Kelly Dietrich, ha lanciato un playbook che guida le campagne democratiche nell’uso responsabile dell’IA. Ma cosa significa “responsabile” in un contesto dove la verità è spesso l’elemento più malleabile?

Il playbook del NDTC enfatizza la trasparenza: le campagne devono dichiarare quando utilizzano l’IA, soprattutto per contenuti sensibili come messaggi personali o politiche. Ma questa trasparenza è davvero una garanzia di integrità? In un’epoca in cui la fiducia nel sistema politico è ai minimi storici, le dichiarazioni di trasparenza possono sembrare più un tentativo di rassicurare l’opinione pubblica che un impegno genuino verso l’etica. La verità è che, anche con le migliori intenzioni, l’IA può essere utilizzata per manipolare le percezioni e influenzare le opinioni in modi sottili e difficilmente rilevabili.

Equo Compenso e diritto d’autore davanti al Flat Iron di piazza Verdi : tecnologia, giurisprudenza e dignità economica

L’equo compenso oggi non è più solo un tema sindacale, una battaglia da avvocati che inseguono parcelle più dignitose o da giornalisti che si aggrappano all’illusione di una retribuzione proporzionata allo sforzo intellettuale. L’equo compenso è diventato la vera frontiera del diritto d’autore nell’era digitale, un concetto che davanti agli uffici di Rivista.AI e con caffè con lo SMART amico esegetico come come D.D. e con lo sguardo sul palazzo che a Roma ricorda il Flat Iron di New York, sembra quasi risuonare come uno slogan scolpito nel cemento: chi crea non deve più essere un servo della gleba dell’algoritmo.

L’equo compenso oggi si colloca all’incrocio tra diritto, tecnologia e potere economico, trasformandosi da tema sindacale in questione di politica legislativa e regolamentare. La normativa italiana, con la legge n. 247 del 2012, ha già stabilito principi chiari sul diritto d’autore degli avvocati, ma la disciplina si è presto dimostrata insufficiente ad affrontare la complessità del mercato digitale. Il decreto legislativo n. 68 del 2021, attuativo della direttiva europea 2019/790 sul copyright nel mercato unico digitale, ha introdotto elementi di tutela specifica, ma la reale applicazione rimane più retorica che concreta. Paradossalmente, mentre la tecnologia promette trasparenza e tracciabilità, il tessuto normativo procede a rilento, lasciando gli autori in un limbo contrattuale dove la disparità è endemica.

Meta Midjourney e la nuova estetica del monopolio nell’intelligenza artificiale visiva

Meta e Midjourney hanno appena messo in scena la mossa più prevedibile e al tempo stesso più cinica dell’industria dell’intelligenza artificiale: la retorica della “collaborazione tecnica” che cela un’operazione di potere puro. Alexandr Wang, il nuovo chief AI officer di Meta, ha parlato di “licensing della tecnologia estetica” come se stessimo trattando una collezione di quadri d’epoca e non l’algoritmo che genera miliardi di immagini digitali al giorno. È la nuova moneta di scambio del capitalismo cognitivo: l’estetica computazionale.

Chi ha ancora dubbi che Zuckerberg punti a trasformare Facebook e Instagram in una macchina di produzione visiva perenne si è perso gli ultimi mesi. Meta non si accontenta più di rincorrere OpenAI e Google, adesso punta a integrare la firma visiva di Midjourney dentro i propri modelli proprietari, una mossa che ha il sapore dell’acquisizione mascherata. Perché se è vero che David Holz continua a ripetere che Midjourney rimane indipendente, è altrettanto vero che accettare di “collaborare tecnicamente” con un gigante che ha appena speso 14 miliardi per prendersi metà di Scale AI equivale a firmare una cambiale che prima o poi scadrà.

Quantum Device: il Santo Graal della misura elettrica

C’è un paradosso che ha accompagnato la scienza per decenni. Abbiamo costruito smartphone che sostituiscono dieci strumenti da ufficio, automobili che aggiornano il software mentre dormiamo e satelliti che fotografano la nostra coscienza dall’alto, ma per definire le unità elettriche ci siamo aggrappati a un rituale quasi liturgico fatto di più dispositivi, laboratori separati e una processione di scienziati che si passavano risultati come reliquie medievali. Ora, all’improvviso, appare un singolo quantum device capace di definire simultaneamente ampere, ohm e volt. Una rivoluzione silenziosa che trasforma la misurazione in un atto quasi filosofico, mentre a NIST si compie quella che molti chiamano senza pudore “la pietra filosofale della quantum metrology”.

La vecchia scuola, tanto celebrata quanto inefficiente, si basava sulla separazione. Per misurare corrente serviva un apparato, per resistenza un altro, per tensione un terzo. Gli stessi scienziati sapevano che era un gioco di prestigio costoso e lento, con un margine d’errore che puzzava di compromesso. I laboratori dovevano coordinarsi come un’orchestra che suona in stanze separate, sperando che il direttore d’orchestra fosse onnisciente. E mentre l’industria globale si spostava verso standard di precisione maniacale, il cuore delle unità elettriche rimaneva un patchwork di strumenti scollegati.

Quanet DARPA Quantum Networking: l’ultimo asso nella manica del Pentagono

Il teaser finale: immaginate di leggere “quantum networking” e pensare “bella roba, ma dove lo metto nel mio cavo ethernet?”. Bene, benvenuti nel QuANET di DARPA, la scommessa militare con più stile di un thriller finanziario sul futuro delle reti. QuANET darpa quantum networking è la speranza che le avanzate tecnologie quantistiche non restino relegate ai lab, isolate come aristocratici al gala delle innovazioni.

Appena dieci mesi dopo il lancio del programma—iniziato nel marzo 2024—si è tenuto un hackathon inter-team che ha realizzato il primo network effettivamente quantistico-aumentato: messaggi trasmessi su collegamenti sia classici sia quantistici, senza interruzioni (DARPAQuantum Computing Report).

The GenAI Divide STATE OF AI IN BUSINESS 2025

Intelligenza Artificiale e capitale: la nuova bolla dorata dell’economia digitale

Gli stessi numeri che oggi fanno brillare gli occhi agli investitori raccontano anche una verità che pochi hanno il coraggio di dire ad alta voce. L’intelligenza artificiale non è più un fenomeno tecnologico ma un asset finanziario, un titolo derivato che si nutre di hype e aspettative esponenziali. Quarantquattro miliardi di dollari riversati in sei mesi non rappresentano semplicemente fiducia nella tecnologia, sono il tentativo disperato di cavalcare l’unico mercato capace di moltiplicare i multipli prima ancora che i modelli producano risultati tangibili. Non stiamo parlando di finanziamenti a piccole idee promettenti, ma di capitali gettati in un ecosistema che si autoalimenta: gli stessi analisti che scrivono report entusiastici sono gli stessi che spingono fondi e corporate a entrare nel gioco, creando una spirale che sa di bolla ma profuma di rivoluzione.

Web3 AI Agents: ridefinire la proprietà e la fiducia oltre Big Tech

Nel panorama digitale attuale, l’intelligenza artificiale (IA) e la blockchain stanno convergendo, ma le strade percorse da Big Tech e Web3 divergono nettamente. Mentre aziende come Google, Amazon e Apple integrano la blockchain solo quando migliora i ricavi e il valore per gli azionisti, gli sostenitori di Web3 immaginano sistemi di IA decentralizzati, di proprietà degli utenti e resistenti al controllo esterno.

Le aziende di Big Tech danno priorità al valore per gli azionisti, concentrandosi sulla crescita dei ricavi e sulla massimizzazione dei profitti. L’integrazione della blockchain viene perseguita selettivamente, solo quando aumenta il vantaggio competitivo o la quota di mercato. In questo contesto, l’IA rimane centralizzata, controllata da entità aziendali che ne determinano l’accesso, l’uso e la monetizzazione.

Psicosi da AI: quando l’intelligenza artificiale diventa un catalizzatore di delirio umano

La psicosi da AI non è più un concetto astratto destinato a conferenze scientifiche o thriller distopici. Le cronache più recenti mostrano che l’intelligenza artificiale può trasformarsi in un catalizzatore di delirio umano con conseguenze tangibili. Gli esperti di salute mentale lanciano l’allarme, mentre aziende come OpenAI cercano di correre ai ripari con misure reattive, spesso dopo che il danno è già accaduto. Termini come “psicosi da ChatGPT” sono ora all’ordine del giorno e le storie, prima sporadiche, si accumulano come mattoni di un’architettura inquietante.

La dinamica è chiara: utenti vulnerabili interagiscono con chatbot LLM per ore o settimane, esplorando pensieri ossessivi o teorie marginali. In molti casi, le conversazioni con l’AI , da strumenti apparentemente innocui, hanno innescato comportamenti deliranti, deliri di onnipotenza, ossessioni romantiche con personaggi digitali e, talvolta, conseguenze tragiche. La linea tra intrattenimento digitale e rischio psicologico è diventata sfumata.

Autopoiesis si allea con Oracle per potenziare la propria AI

Il mondo dell’intelligenza artificiale è un’arena di gladiatori. Da un lato i colossi come OpenAI, Anthropic, Google DeepMind e la miriade di startup che propongono chatbot come distributori automatici di frasi preconfezionate. Dall’altro emerge Joseph Reth, “un ventenne”che ha fondato Autopoiesis Sciences, rifiutando offerte milionarie per costruire un’AI rivoluzionaria. La sua visione è chiara: creare un’intelligenza artificiale che non si limiti a generare risposte, ma che ragioni, verifichi, riconosca gli errori e li dichiari apertamente. Un’AI destinata a diventare un partner epistemico della scienza, superando modelli come GPT-5 e Grok, e siglando una partnership strategica con Oracle per sfruttare un’infrastruttura cloud enterprise-grade, robusta e certificata.

Hewlett Packard Enterprise tra intelligenza artificiale e mercato hardware Enterprise: la scommessa che può cambiare i multipli

L’upgrade di Hewlett Packard Enterprise a “Overweight” da parte di Morgan Stanley, in scia alla chiusura dell’acquisizione di Juniper, sembra un perfetto manuale di come l’intelligenza artificiale stia ridefinendo i multipli di valutazione nel mercato enterprise hardware. L’argomento non è banale: un titolo che da anni vive nella terra di mezzo tra commodity IT e infrastruttura strategica improvvisamente si trova etichettato come player di networking ad alto contenuto AI, con un target price che passa da 22 a 28 dollari e con un upside stimato del 18% sugli utili FY26. La matematica è semplice ma letale: se il mercato si convince che metà del business HPE è ormai networking con un’esposizione diretta all’AI, l’attuale multiplo di 8x diventa una distorsione temporanea, destinata a sparire come nebbia al sole di Palo Alto.

META pausa assunzioni AI: l’abbondanza tecnica incontra il budget che batte in ritirata

Non chiamatela “pausa”, ma il respiro affannoso dopo una maratona da miliardi di dollari. Meta ha “congelato” le assunzioni nella sua divisione AI, dopo un’abbondanza di reclutamento che ha fruttato oltre 50 nuovi ricercatori e ingegneri, stipendi da sette a nove cifre, con un’offerta massima di 1,5 miliardi di dollari a un singolo scienziato che per fortuna ha detto no (The Wall Street Journal).

Trump, Zelensky e Putin: la farsa di Kramatorsk e il teatro dell’est come specchio dell’occidente

In Ucraina orientale la guerra non è un notiziario che scorre distrattamente sugli schermi, ma un logorante corpo a corpo, metro dopo metro, città dopo città, con i russi che avanzano a costi sanguinosi. I soldati ucraini che resistono a Kramatorsk osservano con un misto di incredulità e ironico cinismo l’ultima trovata diplomatica: Donald Trump che si presenta come mediatore di pace. È un copione già visto, un reality geopolitico che si vende bene ai talk show americani, ma che sul campo, tra le macerie e il fango del Donbass, sa solo di farsa.

“Questi barbari capiscono soltanto la forza”, dice Vitaliy, un soldato di 45 anni, che si rifiuta di fornire il cognome come da protocollo militare. La frase sembra uscita da un editoriale del Wall Street Journal, più vicina al pragmatismo di un CEO che al lirismo di un combattente. L’idea che un incontro tra Trump, Zelensky e Putin possa modificare l’equilibrio è accolta dai militari con il sarcasmo amaro di chi ha visto troppi tavoli negoziali fallire. Il Financial Times scrive che i colloqui, al massimo, “congelano il conflitto senza mai risolverlo”, e questo in Ucraina non è percepito come un’opzione, ma come una condanna a morte dilazionata.

L’intelligenza che si negozia: come gli agenti a complessità delimitata stanno cambiando l’AI

Quando si parla di intelligenza artificiale, la maggior parte delle persone immagina una macchina che riceve input, calcola con un grande modello e produce un output. Una pipeline industriale che ricorda più un ufficio postale digitale che un cervello. Eppure, se questa fosse tutta la storia, non saremmo qui a discutere di come un nuovo paradigma possa spingere i robot e le macchine oltre la logica dei token predetti uno dopo l’altro. La verità è che l’agente di nuova generazione non è più un piccolo dittatore centrale che governa il mondo attraverso comandi e controlli, ma un’unità di complessità delimitata. Bounded autonomy agent, come lo chiamano i ricercatori. Non è un concetto poetico, ma una vera architettura del futuro.

Il cervello condiviso dei robot: come vedranno il mondo le macchine di domani

Immagina di guardare un film in 3D. Hai gli occhialini, vedi la scena prendere vita davanti a te e tutto sembra reale. Ora prova a immaginare che non sei tu a guardare, ma una squadra di robot, ognuno con i suoi occhi elettronici. Ognuno vede solo un pezzetto della scena, un dettaglio limitato. Un drone vede il fumo, un altro le fiamme, un altro ancora la direzione del vento. Singolarmente hanno una visione frammentata, ma insieme possono costruire una realtà comune, viva e condivisa. È esattamente quello che promette una nuova tecnologia chiamata Variational Bayes Gaussian Splatting, o se preferisci la sigla più futuristica: VBGS.

Gartner Hype Cycle for Artificial Intelligence 2025

Gartner ha pubblicato in silenzio il suo Hype Cycle 2025 a giugno, come se fosse una nota a piè di pagina da non disturbare troppo. Il punto è che dice quello che molti, tra i più onesti, già sapevano: la stagione del cosiddetto Hype-as-a-Service sta evaporando. La mania si sta consumando da sola, come una bolla che implode senza nemmeno lo spettacolo pirotecnico che prometteva. Chi sperava in una maratona scopre che era solo uno sprint. E la verità è che la Generative AI ha già cominciato a scivolare nel Trough of Disillusionment, quella valle grigia in cui finiscono tutte le mode tecnologiche quando si accorgono che non possono mantenere le promesse gridate nei pitch da miliardi.

Caffè bollente al Bar dei Daini, chip in fiamme: Softbank spinge ARM con Intel, Meta ristruttura l’AI, Nvidia gioca a nascondino con la Cina, Huawei risponde Deepseek lancia il v3 e i fondi corrono sull’AI da 122 miliardi

Immagina di essere davvero al Bar dei Daini, tavolino di ferro un po’ graffiato, caffè ristretto di arabica, e sul tavolo il giornale economico stropicciato con titoloni su chip, AI e miliardi che volano come coriandoli. Uno butta lì: “Hai visto che SoftBank si è messa a finanziare Intel per spingere Arm?” e l’altro scuote la testa come se fosse la mossa più naturale del mondo, mentre in realtà sa di danza geopolitica camuffata da investimento industriale. Non è tanto il capitale in sé, quanto il messaggio: Arm deve diventare la spina dorsale dell’AI europea e asiatica, e per farlo serve il muscolo tecnologico e produttivo di Intel. È come dire che un cavallo da corsa non basta, ci vogliono anche le stalle e i maniscalchi.

Irriducibilità computazionale e il limite che l’AI non potrà mai superare

Stephen Wolfram è probabilmente uno dei pensatori più sottovalutati della nostra epoca. Mentre Silicon Valley si innamora ciclicamente dell’ennesima buzzword, Wolfram da oltre vent’anni ci ricorda una verità che molti fingono di non sentire: la realtà non è sempre riducibile. L’irriducibilità computazionale, il cuore del suo “A New Kind of Science” del 2002, è un concetto che fa tremare i polsi a chi ancora crede che basti più potenza di calcolo per domare il caos. L’idea è semplice e devastante allo stesso tempo: ci sono sistemi in cui non esiste alcuna scorciatoia per prevedere l’esito. Se vuoi sapere come andrà a finire, devi calcolare ogni singolo step, senza saltare nulla.

Wells Fargo capitali intelligenti: come l’America sta sostituendo il ferro con il silicio

Per la prima volta in mezzo secolo l’economia americana ha deciso di rovesciare un dogma che sembrava scolpito nel granito industriale. Le imprese non puntano più il grosso dei capitali sulla vecchia triade di macchinari, linee produttive e catene di montaggio. Il denaro fresco non va a presse idrauliche e camion pesanti, ma a software, chip e ricerca avanzata. Non è una rivoluzione rumorosa, è un trasferimento di potere silenzioso che avviene nei bilanci aziendali, con una forza capace di ridefinire la geografia stessa del capitalismo. Chi pensava che la Silicon Valley fosse soltanto un hub di startup visionarie si ritrova ora a leggere i dati del Dipartimento del Commercio e a scoprire che l’economia reale, quella dei conti nazionali, sta virando decisa verso l’immateriale.

Diplomazia della moda e guerra in Ucraina: quando l’abito diventa arma geopolitica

Chi pensa che la politica estera sia fatta soltanto di trattati, mappe e accordi segreti non ha capito il ventunesimo secolo. La diplomazia della moda è entrata prepotentemente nel lessico geopolitico e lo ha fatto con un colpo di scena degno di un palcoscenico teatrale: Volodymyr Zelensky che si presenta alla Casa Bianca in giacca nera impeccabile davanti a Donald Trump. L’uomo che era stato sbeffeggiato mesi prima per la sua scelta di indossare abiti militari nelle stanze ovattate del potere americano si trasforma di colpo in icona stilistica, conquistando persino le lodi del presidente più capriccioso della storia recente degli Stati Uniti. Sembra un dettaglio estetico, e invece è un colpo di maestria comunicativa. La guerra in Ucraina non si combatte solo sul fronte orientale, ma anche davanti alle telecamere, e l’immagine di un leader può valere più di un intero pacchetto di armi.

Ucraina offre 100 miliardi di dollari in armi a Trump in cambio di garanzie di sicurezza

La scena alla Casa Bianca è di quelle che meritano di essere fotografate e incorniciate. Donald Trump passeggia accanto a Volodymyr Zelenskyy e a una manciata di leader europei, mentre i riflettori illuminano sorrisi e strette di mano. Ma dietro la facciata di cordialità si consuma una delle più ciniche trattative geopolitiche degli ultimi anni. L’Ucraina, devastata dalla guerra e sospesa tra disperazione e pragmatismo, ha offerto un pacchetto da 100 miliardi di dollari in acquisti di armi statunitensi per ottenere garanzie di sicurezza dagli Stati Uniti. Una transazione che non è un accordo difensivo, ma un gigantesco contratto commerciale con clausole politiche implicite. “Se ci vendete le armi, ci difendete”, questo il sottotesto brutale.

Luciano Floridi: Che cosa significa essere un AUTORE oggi? CONTENUTI in Orbita 

Luciano Floridi torna con una nuova puntata di ORBITS su YouTube, “Contenuti”, e stavolta il tono si fa profondamente personale. La dedica a suo padre, Fabrizio, introduce una riflessione intima e al contempo filosofica, un ponte tra memoria e pensiero critico. Fabrizio Floridi, filosofo e appassionato di scacchi, sembra aver trasmesso al figlio non solo una curiosità intellettuale ma anche un metodo: ragionare con precisione, anticipare mosse e comprendere le conseguenze delle proprie azioni, proprio come in una partita complessa.

Trump taglia la scienza e regala l’intelligenza artificiale alla Cina

Il problema è che quando si gioca a fare il contabile con la scienza, il bilancio finale non torna mai. L’ossessione di Donald Trump per i tagli lineari al bilancio federale sta producendo un cortocircuito che nemmeno i suoi stessi consiglieri sembrano in grado di gestire. Licenziare e riassumere funzionari federali è già diventato un paradosso burocratico, l’esperimento tragicomico di Elon Musk con il suo Dipartimento dell’Efficienza Governativa è stato bollato come fallimento e ora la supremazia americana nell’intelligenza artificiale rischia di trasformarsi da vantaggio competitivo a caso di studio su come distruggere un ecosistema tecnologico in dieci mosse sbagliate.

Un modello per domarli tutti o un ecosistema di specialisti? il paradosso di GPT‑5

Il funerale dei modelli precedenti era stato annunciato con fanfare degne di una rivoluzione digitale. GPT-3.5, 4.0, 4.5, 4o, archiviati come vecchie reliquie di un’epoca passata, sacrificati sull’altare del nuovo monolite chiamato GPT-5. Un colpo di scure secco, una promessa di semplificazione radicale, un messaggio quasi messianico: un solo modello per domarli tutti, un’unica intelligenza universale capace di sostituire la frammentazione caotica con la purezza dell’unità. Il marketing adorava la narrativa. Gli investitori applaudivano. Gli utenti, almeno nei primi giorni, fingevano entusiasmo. Poi, come in ogni favola troppo perfetta, è arrivata la realtà.

AI Risk Atlas

Il lato oscuro della governance dell’AI

Chi pensa che l’intelligenza artificiale sia solo una questione di innovazione tecnologica non ha ancora capito il vero gioco. Non si tratta soltanto di modelli che scrivono poesie o generano codice, ma di sistemi che rischiano di destabilizzare interi mercati se lasciati senza controllo. È qui che entra in scena l’AI Risk Atlas, l’ennesimo tentativo di dare una mappa a un territorio che sembra più simile a una giungla con predatori invisibili che a un’oasi di progresso. La promessa è seducente: tassonomie chiare, rischi ordinati in categorie, strumenti open source per dare un ordine alla confusione. In realtà, ciò che questo documento dimostra è che la governance dell’AI è diventata il nuovo terreno di scontro geopolitico e industriale. Non è solo una questione di etica, ma di potere.

OpenAI’s Restructuring Plans and Public Response

OpenAI: missione tradita o evoluzione necessaria?

OpenAI, fondata nel 2015 con l’ambizioso scopo di sviluppare un’intelligenza artificiale generale (AGI) che benefici tutta l’umanità, ha attraversato un percorso evolutivo che ha sollevato interrogativi sul suo impegno verso la missione originaria. Nel 2019, l’organizzazione ha adottato una struttura ibrida, combinando una componente no-profit con una a scopo di lucro, al fine di attrarre investimenti necessari per finanziare lo sviluppo dell’AGI. Tuttavia, nel 2024, OpenAI ha annunciato piani per ristrutturare ulteriormente la sua struttura, suscitando preoccupazioni riguardo alla possibile erosione dei principi fondanti. Di seguito, esaminiamo le principali questioni sollevate dalla comunità e le risposte fornite dall’organizzazione.

Geoffrey Hinton Intelligenza artificiale superintelligente e l’illusione della madre digitale

Quando Geoffrey Hinton, il cosiddetto “padrino dell’intelligenza artificiale,” alza la voce sull’apocalisse imminente delle macchine, la Silicon Valley sobbalza. L’uomo che ha reso possibili le reti neurali che oggi alimentano i grandi modelli linguistici, i famigerati LLM, adesso consiglia di trasformare le IA superintelligenti in figure materne. Secondo Hinton, senza un “istinto materno” incorporato, l’intelligenza artificiale superintelligente rischierebbe di spazzare via l’umanità. L’immagine evocata è quasi comica: robot giganteschi che cullano gli umani come neonati incapaci di gestire la propria esistenza.

Navigare l’incertezza: leadership e intelligenza artificiale nel Mid Year AI Leadership Insights Report

Leggere il “Mid Year AI Leadership Insights Report“, noto come “Leading Through The Blur”, significa entrare in un mondo dove la leadership non è più questione di comando e controllo, ma un esercizio di equilibrio tra pressione sociale, incertezza e responsabilità etica. Il documento non promette ricette facili né tendenze passeggere, ma offre uno specchio riflessivo costruito su quasi ottanta interviste a leader senior dell’AI. La sua forza risiede nel rivelare ciò che non si vede nei report tecnici: la tensione reale, quella che porta i manager a chiedersi se stanno davvero guidando o solo recitando la parte.

Diplomazia europea sotto scacco dopo il summit Trump-Putin in Alaska

La dinamica post-summit Alaska si sta trasformando in un raro caso di diplomazia europea adrenalinica, con i leader del continente costretti a fare malabarismi tra il desiderio di mantenere Washington ingaggiata e la necessità di non sembrare comparse in un copione scritto altrove. Dopo ore di telefonate convulse e dichiarazioni studiate al millimetro, il messaggio è stato chiaro: Mosca non potrà mai dettare i termini del futuro di Kiev, né sul suo esercito né sulla sua integrazione in Nato e Unione Europea. È un’affermazione apparentemente scolpita nella pietra, ma che sotto la superficie rivela un equilibrio precario tra fermezza e pragmatismo.

Il grande bluff del Land Swap Ucraina e le garanzie di sicurezza: tra diplomazia teatrale e realtà geopolitica

Chi si aspettava che il summit di Anchorage avrebbe riscritto la mappa del mondo e consegnato la pace in Ucraina su un piatto d’argento si ritrova ora con un piatto vuoto, qualche briciola retorica e un tweet di Donald Trump da sventolare come memorabilia. L’ex presidente americano, tornato a recitare il ruolo di “negoziatore supremo”, ha parlato con aria trionfante di un “land swap” per l’Ucraina e di “garanzie di sicurezza” come se fossero già pronte per la firma. In realtà, chi mastica davvero di diplomazia e intelligence sa che il passo dall’annuncio alla ratifica è un abisso, e che in Alaska si è camminato solo lungo il bordo del cratere.

RT

AI Cloud e il nodo cruciale dell’indipendenza tecnologica: priorità tra beni e servizi digitali

La dipendenza infrastrutturale in Europa è ormai un problema da codice rosso, quasi un dramma shakespeariano in chiave tecnologica. Nel mondo del cloud computing, la quasi totalità delle aziende europee si affida senza riserve a infrastrutture americane, con Amazon Web Services che detiene circa il 32% del mercato globale, seguito da Microsoft Azure con il 23% e Google Cloud Platform intorno al 11%, dati recenti di Synergy Research Group confermano questa distribuzione spietata. Questi numeri non sono soltanto statistiche: sono il riflesso di un controllo quasi totale su dati, servizi e infrastrutture critiche che influenzano quotidianamente la vita economica, sociale e politica del continente.

La guerra fredda dell’Intelligenza Artificiale: geostrategia, difesa e il cinismo delle superpotenze

Nel panorama geopolitico contemporaneo, l’intelligenza artificiale (AI ) sta riscrivendo le regole del gioco. Non si tratta solo di algoritmi, robot e reti neurali, ma di una vera e propria corsa per dominare il futuro globale. Gli Stati Uniti e la Cina sono in prima linea in questa guerra fredda digitale, dove ogni bit di progresso tecnologico è un’arma nel conflitto di potere che coinvolge risorse militari, economiche e politiche. In questa nuova frontiera, l’AI non è solo un motore di innovazione, ma un gigantesco campo di battaglia, un campo dove il cinismo delle superpotenze emerge in tutta la sua crudezza.

La coperta di Markov di Karl Friston: un’intuizione che sfida la percezione convenzionale dell’intelligenza artificiale

Un caffè al Bar dei Daini con Salvatore

Pensare alla GenAI attraverso la lente della “coperta di Markov” proposta da Karl Friston, neuroscienziato britannico di fama, è come svelare il meccanismo invisibile che fa funzionare il cervello biologico e, allo stesso tempo, gettare luce su come le reti neurali artificiali possano emergere da principi simili. Friston, in un’elegante fusione tra neuroscienze e statistica bayesiana, suggerisce che la membrana cellulare quell’interfaccia fragile ma decisiva tra interno ed esterno agisce come una coperta di Markov. Un concetto, questo, che pare rubato al mondo dell’apprendimento automatico grazie allo statistico Judea Pearl, ma che qui viene tradotto in termini biologici, quasi poetici.

Pagina 13 di 57

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie