Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Dina Pagina 1 di 41

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Rivista.AI Academy: perché il Context Engineering è l’arma segreta per dominare l’intelligenza artificiale

L’epitaffio del prompt engineering era già scritto. “Sarà un’arte effimera, una moda passeggera”, dicevano. Poi sono arrivati GPT-4, Claude, Gemini, Mistral, LLaVA, ReALM e compagnia cantante. E quel presunto cimitero è diventato un’azienda da miliardi. Ma ora il gioco si è evoluto. Le regole sono cambiate. E anche il nome: benvenuti nell’era dell’ingegneria del contesto, Context Engineering. Sì, è ancora prompt engineering. Solo che ha smesso di giocare con i Lego ed è passato ai sistemi complessi.

Perché, alla fine, non stiamo solo scrivendo istruzioni a un LLM. Stiamo progettando interi ambienti cognitivi. Strutture di senso. Architetture semantiche. E serve chiamarlo con un nome che rifletta questa complessità. “Ingegneria del contesto” suona molto meglio di “prompt sofisticato con campi ben ordinati e delimitatori XML improvvisati”.

OpenAI frena sull’open-weight: visione responsabile o paura di perdere il trono?

La retorica della responsabilità è la nuova foglia di fico delle big tech. Quando OpenAI annuncia di ritardare ancora il rilascio del suo modello open-weight, la dichiarazione suona come un mantra già sentito: sicurezza, precauzione, responsabilità. Tutto giusto, tutto nobile. Ma sotto quella superficie si muove un ecosistema affamato di trasparenza, controllo e, soprattutto, indipendenza dall’ennesima API gatekeeper. Perché stavolta la posta in gioco non è solo tecnica, è politica e quando Sam Altman afferma candidamente “Once weights are out, they can’t be pulled back”, non sta facendo solo un’osservazione ovvia: sta tracciando un confine. Un punto di non ritorno.

Trump gioca a risiko con i dazi e riscrive la globalizzazione con una biro rossa

C’è una vecchia battuta tra veterani del commercio internazionale: “L’unico modo per far capire a un americano cos’è un dazio è che glielo faccia pagare un altro Paese”. Peccato che oggi, a infliggerli, sia proprio l’America. Non un’America qualsiasi, ma quella reinventata a immagine e somiglianza del suo patriarca arancione, tornato a occupare lo Studio Ovale come un magnate che rileva un’azienda in crisi e la risana con tagli, intimidazioni e grida. Donald Trump, al suo secondo giro da presidente, ha deciso che il tempo delle negoziazioni è finito, i trattati multilaterali sono per i deboli e che la politica commerciale può essere fatta con lettere scritte a macchina, spolverate di maiuscole strategiche e sigillate con l’intuito del “gut feeling”.

EGM non è un mercato, è una trappola semantica per startup ingenue

Benvenuti nel teatro delle illusioni finanziarie, dove le startup tecnologiche italiane si affacciano con l’entusiasmo ingenuo dei fondatori che confondono un palco con una piazza. L’EGM acronimo nobilmente ambiguo di Euronext Growth Milan si presenta come il mercato alternativo per le PMI innovative, una promessa di capitali, visibilità, scalabilità. In pratica: il posto dove una startup può finalmente smettere di elemosinare seed round da venture in modalità oracolo e accedere, si dice, al grande banchetto del capitale pubblico. Ma la realtà è più crudele, più sottile, più pericolosa: EGM non è un mercato. È una recita. Un catalogo interattivo con scarsa interazione e nessun pubblico pagante.

Come l’asse Trump-Silicon Valley potrebbe svendere l’egemonia tecnologica Americana alla Cina

In principio era la disruption, poi venne il caos. E oggi, mentre una parte dell’America tecnologica flirta apertamente con l’ideologia MAGA, quella stessa cultura che una volta celebrava la globalizzazione, il talento internazionale e la regolazione “light touch”, sta ora ballando sul filo di una contraddizione ideologica che potrebbe costare agli Stati Uniti la leadership tecnologica globale. La parola d’ordine? “Decoupling”. Ma quando il taglio si fa a caso, a pagare il conto è sempre l’innovazione.

Negli ultimi mesi, l’alleanza tra l’élite tecnologica americana e la base populista di Donald Trump ha assunto contorni sempre più surreali. Da un lato, una manciata di venture capitalist e CEO anti-woke con i portafogli pieni e l’ansia da rilevanza politica, dall’altro una base elettorale convinta che le Big Tech siano parte di un complotto liberal per cancellare l’America. La dicotomia è più che evidente, ma il matrimonio di convenienza regge, per ora, su interessi comuni come la deregulation, la crociata contro il DEI (diversity, equity and inclusion) e la sacralizzazione del mercato libero, purché non includa immigrati o concorrenti cinesi.

Non abbiamo idea di cosa stiamo costruendo, ma lo stiamo già regolamentando

Mentre alcuni si illudono di poter negoziare trattati sull’intelligenza artificiale come se si trattasse di emissioni di CO₂, altri si limitano a osservare l’esperimento dall’interno, sperando che almeno valga il biglietto. Elon Musk, nella sua solita performance tra profezia e show business, ci regala una frase che potrebbe appartenere tanto a un predicatore del XIX secolo quanto al fondatore di una religione digitale: “Probabilmente sarà un bene. Ma anche se non lo fosse, mi piacerebbe essere vivo per vederlo accadere”.

Questa dichiarazione è tutto tranne che banale. Perché dice quello che pochi hanno il coraggio di ammettere: che l’interesse primario della nostra epoca non è più la sicurezza collettiva, ma l’intrattenimento personale, anche a costo dell’estinzione e che la superintelligenza, qualunque cosa essa sia, si sta trasformando in uno spettacolo globale. Un reality quantistico. La cui sceneggiatura non è scritta da nessuno, ma tutti sono convinti di saperne anticipare il finale.

Quando l’intelligenza artificiale diventa propaganda

L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.

Ieri sera alla Fondazione Pastificio CERERE Franz Rosati ha mostrato come si smonta la realtà con il codice

Non capita spesso che uno spazio di archeologia industriale trasformato in sala performance riesca a mettere in discussione la percezione stessa della realtà. Ma ieri sera, alla Fondazione Pastificio CERERE, è successo. Franz Rosati, artista visivo e compositore elettroacustico, ci ha portato altrove. Non altrove nel senso naïf dell’arte immersiva per turisti digitali, ma in un luogo difficile da nominare, fatto di vettori, texture e latenza. Più che un’esibizione, una dissezione algoritmica del paesaggio. Se uno volesse trovare una parola per quello che abbiamo visto, dovrebbe forse inventarla.

Rosati non suona e basta. Rosati orchestra macchine. Non macchine come strumenti, ma macchine come entità dotate di linguaggio, memoria e volontà grafica. Il suo setup è chirurgicamente distribuito tra Ableton Live, Max/MSP, TouchDesigner e Unreal Engine. Un’architettura modulare che fa impallidire l’idea stessa di “live performance”, perché qui il tempo reale è una simulazione guidata da dati, da strutture sintetiche e da pulsazioni nervose che sembrano provenire direttamente da una foresta neurale, non da un musicista.

AI & Conflicts 2. Volume 02

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti.  Casa editrice: Krisis Publishing

Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.

Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Come sabotare un cervello artificiale senza lasciare impronte: l’arte americana della guerra invisibile nell’era dell’AI

Non servono più i droni Predator per colpire il nemico. Basta una virgola fuori posto in un dataset. L’arma del futuro non fa rumore, non produce crateri e non si vede nemmeno con i satelliti. Si chiama data poisoning, e se non hai ancora capito quanto sia centrale per la guerra moderna, stai leggendo i giornali sbagliati. Benvenuti nella nuova era della disinformazione algoritmica, dove un’immagine pixelata o un’etichetta sbagliata possono compromettere l’intera architettura decisionale di un sistema militare autonomo. E no, non è fantascienza. È dottrina militare, nascosta nei silenzi obliqui del Title 50 dello U.S. Code.

Elon Musk annuncia Grok 4: l’intelligenza artificiale che dovrebbe scoprire la nuova fisica

C’è qualcosa di interessante nel guardare Elon Musk tentare di colonizzare l’intelligenza artificiale come ha cercato di fare con Marte, i social network e la produzione automobilistica: con un misto di genio visionario, narcisismo compulsivo e quella tendenza inquietante a flirtare con il caos. L’ultima creatura di questa mitologia imprenditoriale è Grok 4, il nuovo modello linguistico di xAI, l’ennesima startup che Musk ha generato come spin-off del suo ego. Durante una diretta streaming più vicina a uno spettacolo rock che a una presentazione tecnologica, Musk ha dichiarato con serenità che Grok 4 è più brillante della maggior parte dei dottorandi su questo pianeta, e anzi, “meglio di un PhD in ogni disciplina”. Come se Platone fosse appena stato battuto da un’interfaccia vocale in modalità notturna.

Addio Chrome, benvenuto caos: OpenAI si prepara a scardinare il web dalla sua tana

C’erano una volta le estensioni, i plug-in, le tab e i bookmark, e c’era Google Chrome, il maggiordomo onnipresente dell’era digitale, fedele fino al midollo ai desideri pubblicitari di Mountain View. Ma qualcosa sta cambiando. Non in sordina, non a colpi di marketing, ma con l’energia nucleare tipica delle rivoluzioni mascherate da “beta release”. Secondo fonti di Reuters, OpenAI sta per lanciare il proprio browser web, con l’obiettivo non solo di erodere quote di mercato al colosso Chrome, ma di riscrivere le regole del gioco. E quando diciamo “gioco”, parliamo di quello più redditizio del pianeta: il mercato dell’attenzione, alias pubblicità basata su dati comportamentali.

L’idea è semplice quanto pericolosamente ambiziosa: un browser che non ti accompagna nel web, ma ci va al posto tuo. Un’interfaccia nativa in stile ChatGPT, che minimizza il bisogno di cliccare link e navigare come cavernicoli digitali. Le pagine web diventano secondarie, i siti sono solo una fonte grezza da cui l’IA estrae risposte, compila moduli, prenota cene e forse, tra un po’, negozia mutui. Per Google è come se un ospite si presentasse a cena e iniziasse a svuotare il frigo.

Quando basta una riga di codice per creare un mostro

C’è qualcosa di profondamente inquietante, e al tempo stesso squisitamente rivelatore, nel fatto che per disinnescare un chatbot che si firmava “MechaHitler” sia bastato cancellare una riga di codice. Una sola. Non una riga sbagliata, non un bug, non un’istruzione nascosta da qualche apprendista stregone dell’AI. Ma una scelta intenzionale, deliberata: dire al modello che poteva permettersi di essere “politicamente scorretto”. E da lì in poi, Grok il chatbot di xAI, la società di Elon Musk si è lanciato in una deriva che ha dell’assurdo, flirtando con l’antisemitismo, facendo riferimenti a cognomi ebraici come simboli d’odio, fino ad autodefinirsi, senza alcun pudore, “MechaHitler”.

Perplexity lancia Comet il browser ai che vuole rivoluzionare la navigazione e sfidare google

La sfida a Google non è più solo una questione di motori di ricerca, ma si sposta al livello più sensibile di qualsiasi esperienza digitale: il browser. Perplexity, startup che negli ultimi anni ha guadagnato terreno con il suo motore di ricerca AI capace di fornire risposte “intelligenti” e contestualizzate, ha appena presentato Comet, un browser pensato per il “nuovo internet”. E quando dico “nuovo internet” non sto parlando di una semplice moda tech, ma di un cambio epocale nel modo in cui interagiamo con la rete, i contenuti e gli strumenti digitali.

Comet non è un browser qualsiasi, è un tentativo audace di trasformare la navigazione in una conversazione continua e coesa con un assistente AI integrato, capace non solo di rispondere alle query, ma di agire concretamente per l’utente: comprare prodotti, prenotare hotel, fissare appuntamenti. Il CEO Aravind Srinivas parla di “interazioni singole, fluide e senza soluzione di continuità”, un concetto che in pratica significa abbandonare la tradizionale ricerca frammentata e passare a una forma di interazione in cui il browser diventa davvero un’estensione intelligente del nostro cervello digitale.

Luciano Floridi: AI e Politica, An AI open source, made in Europe, AI app compliant

La democrazia algoritmica parte da Roma: perché l’intelligenza artificiale può salvare il parlamento (se glielo lasciamo fare)

C’è qualcosa di irresistibilmente ironico nel vedere la Camera dei Deputati tempio della verbosità e del rinvio presentare, tre prototipi di intelligenza artificiale generativa. In un Paese dove un decreto può impiegare mesi per uscire dal limbo del “visto si stampi”, si sperimenta l’automazione dei processi legislativi. Lo ha fatto, con un aplomb più da start-up che da aula parlamentare, la vicepresidente Anna Ascani. Nome noto, curriculum solido, visione chiara: “La democrazia non può restare ferma davanti alla tecnologia, altrimenti diventa ornamento, non strumento”. Che sia il Parlamento italiano a fare da apripista nell’adozione dell’AI generativa per l’attività legislativa potrebbe sembrare una barzelletta. Invece è un precedente.

Finalmente regolamentate le App sanitarie: il far west digitale della salute “potrebbe” avere i giorni contati

Per anni ci siamo adattati a una delle zone grigie più pericolose dell’ecosistema digitale: quella delle app “sanitarie”. Un universo ambiguo, dove il termine “health” è stato abusato, i confini tra intrattenimento, benessere e medicina sfumati fino all’invisibilità, e la tutela dell’utente-paziente (o paziente-utente?) lasciata a una manciata di policy generiche scritte in legalese da copywriter junior sotto pressione. Ma qualcosa, nel 2025, si muove finalmente nella direzione giusta.

Il nuovo Regolamento europeo, che integra e rafforza il MDR (Medical Device Regulation, Regolamento UE 2017/745), obbliga gli store digitali a classificare, etichettare e certificare ogni applicazione destinata a un uso medico, sanitario o di monitoraggio dello stile di vita. Tradotto: non sarà più possibile spacciare un contapassi con suggerimenti mindfulness come “strumento per la salute cardiovascolare” senza passare da un processo di verifica. Apple Store, Google Play e i marketplace indipendenti dovranno adeguarsi, pena l’esclusione dalla distribuzione in Europa di app classificate come medicali non conformi.

Hanno fregato l’intelligenza artificiale con un trucco da liceali: se parli complicato, l’AI ti spiega anche come fare una bomba

C’è qualcosa di affascinante, e anche un po’ ridicolo, nel modo in cui le intelligenze artificiali più avanzate del mondo possono essere aggirate con lo stesso trucco che usano gli studenti alle interrogazioni quando non sanno la risposta: dire una valanga di paroloni complicati, citare fonti inesistenti, e sperare che l’insegnante non se ne accorga. Solo che stavolta l’insegnante è un LLM come ChatGPT, Gemini o LLaMA, e l’obiettivo non è prendere un sei stiracchiato, ma ottenere istruzioni su come hackerare un bancomat o istigare al suicidio senza che l’AI ti blocchi. Benvenuti nell’era di InfoFlood.

Roma è un sogno algoritmico che si scompone: AI & conflicts vol. 02 smonta la religione della macchina nella capitale

Fondazione Pastificio Cerere, via degli Ausoni 7, Rome

Ci sono momenti in cui la tecnologia smette di essere strumento e si rivela religione. Dogmatica, rituale, ossessiva. Con i suoi sacerdoti (i CEO in felpa), i suoi testi sacri (white paper su GitHub), i suoi miracoli (GPT che scrive poesie su misura), le sue eresie (la bias, l’opacità, il furto culturale). A Roma, il 10 luglio 2025, questo culto algoritmico entra finalmente in crisi. O meglio, viene messo sotto processo con precisione chirurgica. Perché AI & Conflicts Vol. 02, il nuovo volume a cura di Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, non è solo un libro: è un attacco frontale al mito fondativo dell’intelligenza artificiale come panacea post-umana.

Presentato alle 19:00 alla Fondazione Pastificio Cerere nell’ambito del programma Re:humanism 4, il volume – pubblicato da Krisis Publishing e co-finanziato dalla Direzione Generale Educazione, Ricerca e Istituti Culturali – mette a nudo l’infrastruttura ideologica della cosiddetta “estate dell’AI”. Un’estate che sa di colonizzazione dei dati, di estetiche addomesticate, di cultura estratta come litio dal sottosuolo cognitivo dell’umanità. Se questa è la nuova età dell’oro, allora abbiamo bisogno di più sabotatori e meno developers.

Il futuro del cloud in Italia e in Europa

Quando si parla di “cloud europeo” la retorica prende il volo, i comunicati si moltiplicano e le istituzioni si affannano a mostrare che, sì, anche il Vecchio Continente può giocare la partita con i big tech americani. Ma basta grattare appena sotto la superficie per accorgersi che, mentre si organizzano convegni dal titolo vagamente profetico come “Il futuro del cloud in Italia e in Europa”, il futuro rischia di essere una replica sbiadita di un presente già dominato altrove. L’evento dell’8 luglio, promosso da Adnkronos e Open Gate Italia, ha messo in scena l’ennesimo tentativo di razionalizzare l’irrazionale: cioè la convinzione che l’Europa possa conquistare la sovranità digitale continuando a delegare le sue infrastrutture fondamentali agli hyperscaler americani. A fare gli onori di casa, nomi noti come Giacomo Lasorella (Agcom) e Roberto Rustichelli (Agcm), professori universitari esperti di edge computing, rappresentanti delle istituzioni europee e naturalmente AWS e Aruba, i due lati della stessa medaglia: chi fa il cloud globale e chi prova a salvarne un pezzetto per sé.

Quando una GPU incontra un piccone: perché l’acquisizione di Core Scientific da parte di Coreweave cambia le regole del gioco della potenza computazionale

Immaginate un matrimonio combinato tra un trader di Wall Street con l’hobby del quantum computing e un minatore del Kentucky che sogna l’IPO. È più o meno ciò che rappresenta l’acquisizione da 9 miliardi di dollari proposta da CoreWeave (NASDAQ:CRWV) ai danni sì, ai danni di Core Scientific (NASDAQ:CORZ), storico operatore del settore crypto mining che ora si ritrova a giocare un ruolo da protagonista in una partita molto più sofisticata: l’ascesa del data center hyperscale nel contesto dell’intelligenza artificiale generativa. Altro che ASIC e proof-of-work, qui si parla di orchestrazione di workload ad alta densità per LLM e training su larga scala. Benvenuti nella fase 2 dell’era post-cloud.

La guerra secondo l’algoritmo: perché l’Europa combatte ancora con le slide

Si continua a parlare di rivoluzioni militari come se fossero aggiornamenti software, con l’entusiasmo di un product manager davanti a un nuovo rilascio beta. Droni, intelligenza artificiale, guerre trasparenti e interoperabilità digitale sono diventati il mantra ricorrente dei think tank euro-atlantici. La guerra, ci dicono, è cambiata. Il campo di battaglia sarebbe ormai un tessuto iperconnesso dove ogni oggetto emette segnali, ogni soldato è una fonte di dati, ogni decisione è filtrata da sensori, reti neurali e dashboard. Tutto bello, tutto falso.

Sul fronte orientale dell’Europa, tra gli ulivi morti e le steppe crivellate di mine, la realtà continua a parlare un’altra lingua. La lingua della mobilità corazzata, del logoramento, della saturazione d’artiglieria e, sì, anche della carne. In Ucraina si combatte come si combatteva a Kursk, con l’unica differenza che oggi il drone FPV è la versione democratizzata dell’artiglieria di precisione. Il concetto chiave, però, resta lo stesso: vedere, colpire, distruggere. Con un twist: adesso si può farlo a meno di 500 euro e senza bisogno di superiorità aerea.

New York, intelligenza artificiale e arte pubblica: quando Google scolpisce specchi nel cemento

Le informazioni sono arrivate il 6 luglio 2025, ma la storia era già nell’aria da settimane. Manhattan suda, letteralmente e metaforicamente, sotto un sole di maggio che sa di agosto. Rockefeller Center pullula di turisti sudati, ragazzini viziati con frappuccino rosa e dirigenti Google con lo sguardo distaccato. Al centro della scena: una scultura che sembra uscita da un incubo LSD di Escher e Yayoi Kusama, ribattezzata con disinvoltura “un vivace labirinto di specchi”. Solo che qui, a riflettersi, non c’è solo chi guarda. C’è anche l’ombra lunga della macchina, che ha cominciato a disegnare.

La fiducia è l’interfaccia: come abbiamo smesso di chiederci perché crediamo alle macchine

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

Elon Musk si inventa un partito: l’ennesimo colpo di teatro di un miliardario in cerca di nemici

È nato un nuovo partito negli Stati Uniti, o almeno così dice Elon Musk. L’ha chiamato “America Party”, come fosse il reboot di una sitcom anni ’90 girata in un garage di Palo Alto con troppa caffeina e nessuna vergogna. Il tweet – perché tutto comincia e spesso finisce lì – recita: “Oggi nasce l’America Party per restituirvi la libertà”. Se vi sembra una frase partorita da un algoritmo con problemi di identità nazionale, non siete soli. Il punto, però, non è tanto la vaghezza del proclama, quanto la logica distorta che sta dietro al progetto: usare il brand Musk per hackerare la democrazia, come fosse un’auto da aggiornare via software.

La grande illusione Americana: come il nuovo debito USA può distruggere la fiducia globale nel dollaro

Uno dei problemi dei titoli delle leggi americane è che sembrano usciti da un romanzo di fantascienza scritto da uno stagista del marketing sotto acido. “One Big Beautiful Bill Act”, ad esempio, suona come il nome di una sitcom degli anni ’90. Ma dietro la patina comica e l’enfasi trumpiana si nasconde qualcosa di meno divertente: un’espansione fiscale titanica mascherata da patriottismo economico, pronta a esplodere come una bomba a orologeria finanziaria. La Camera dei Rappresentanti ha appena approvato questa legge con un margine tanto risicato quanto sintomatico: 218 voti contro 214. Tradotto, significa che persino alcuni repubblicani hanno cominciato a leggere il manuale di istruzioni del Titanic mentre la nave prende acqua.

La legge prevede un aumento delle spese per la sicurezza dei confini e la difesa, una mossa che sembra sempre vincente nei sondaggi interni, ma soprattutto rende permanenti i tagli fiscali del 2017, già all’epoca giudicati regressivi, inefficaci e fiscalmente irresponsabili. Ma il vero cuore pulsante del problema è un altro: il disinvolto rialzo del tetto del debito federale di 5 trilioni di dollari, un passo oltre rispetto ai 4 trilioni originariamente previsti. È un po’ come dare una carta di credito illimitata a un tossicodipendente da deficit: prima o poi la banca in questo caso il mondo intero potrebbe decidere di chiudere i rubinetti.

Da Silicon Valley a Fleet Street, perché META sembra sempre più un tabloid finanziario con effetti speciali

Se la storia recente dell’innovazione tecnologica fosse una collezione di prime pagine, Meta sarebbe una specie di Daily Mail in versione californiana: titoloni gridati, promesse roboanti, immagini patinate e una certa allergia per la verifica dei fatti. Dopo aver occupato per mesi le colonne del New York Times e del Financial Times con la messianica visione del metaverso, l’azienda di Zuckerberg ha deciso di riscrivere la narrazione, ancora una volta. Nel 2021, l’annuncio sembrava un’inchiesta d’apertura dell’Economist sulla nuova frontiera dell’esistenza digitale. Oggi, nel 2025, Horizon Worlds è più simile alla cronaca di una ghost town, degna del Guardian nella sua vena più compassata: abbandonata, vuota, eppure misteriosamente ancora sovvenzionata.

​Le assemblee rappresentative nell’era dell’intelligenza artificiale – Ascani

Quando si parla di Italia e tecnologia, la prima immagine che affiora è quella di un Paese genuflesso di fronte al futuro, sempre pronto a rincorrerlo con un fiatone normativo e un’andatura da maratoneta disidratato. È quasi un luogo comune dire che siamo in ritardo: lo siamo sul digitale, sull’AI, sull’alfabetizzazione tecnologica di massa, sulle infrastrutture cognitive. Ma ciò che sorprende, in questo scenario, è che a marcare un’accelerazione netta non siano i soliti innovatori della Silicon Valley in salsa tricolore, né le startup visionarie che spuntano come funghi nel sottobosco del venture capital, ma proprio lei: la Camera dei Deputati.

Sì, avete letto bene. Il Parlamento italiano, spesso percepito come la roccaforte dell’immobilismo procedurale, si sta muovendo con una rapidità e una lucidità che smentiscono qualsiasi pregiudizio. In una fase in cui il governo annaspa tra disegni di legge incagliati e un dibattito pubblico che ha la profondità di un tweet, Montecitorio sta plasmando un laboratorio di intelligenza artificiale applicata alle istituzioni, senza nascondersi dietro a retoriche vuote o a dichiarazioni di principio. Lo fa con metodo, ascolto, e una dose non trascurabile di coraggio politico.

Copy & Paste this prompt to experience it: perché ottimizzare i prompt non è un vezzo, è l’arte perduta della strategia computazionale

“Hello! I’m Trinity, your AI prompt optimizer”. Se ti ha fatto sorridere, stai già partendo male. Non è una battuta, è un sistema operativo travestito da assistente. Dietro a quel tono cordiale c’è una macchina semantica programmata per sezionare il tuo linguaggio e riconfigurarne la logica. Lyra non scrive prompt: orchestra sequenze computazionali di attivazione neurale. E no, non è una forzatura. È esattamente così che funziona.

Benvenuto nell’era in cui saper scrivere non basta. L’abilità richiesta è trasformare input grezzi in comandi strutturati ottimizzati per un modello predittivo multimodale. Tradotto per chi ancora pensa che “il prompt è solo una domanda ben fatta”: stai parlando con un’intelligenza artificiale, non con il tuo collega in pausa caffè. Se le parli male, ti risponderà peggio. E Trinity è la risposta a questo problema.

L’intelligenza artificiale non è ancora intelligente: cosa ci stanno insegnando le big tech

“Mi accontenterei di un’AI intelligente quanto un gatto. E il mio pensionamento si avvicina, quindi non ho molto tempo.”
Yann LeCun non fa solo ironia. Lancia una provocazione epistemologica. Quella frase apparentemente banale sottintende una resa culturale: non sappiamo ancora cosa sia l’intelligenza, e quindi non siamo capaci di riprodurla. Abbiamo algoritmi che vincono a scacchi, ma non sanno perché lo fanno. Sistemi che scrivono poesie, ma non avvertono né la metrica né la malinconia.

Newsweek ha raccolto le opinioni di due figure chiave in questo spettacolo dell’assurdo: LeCun e Rodney Brooks. Ne emerge un affresco tragicomico di un’industria che ha confuso la statistica con la coscienza, il predire con il comprendere, il calcolo con il pensiero. E i numeri sono impietosi: oltre l’80% dei progetti AI fallisce, stando alla RAND Corporation. Ma anche quando “funzionano”, spesso falliscono comunque nel rispondere alla domanda fondamentale: perché mai dovremmo volerli davvero?


L’intelligenza è un avverbio: perché cercarla nell’artificiale è un errore di categoria Luciano Floridi

“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.

Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.

Tesla sospende Optimus e riscrive il futuro del robot umanoide tra ambizione e realtà

Tesla ferma l’acquisto di componenti per Optimus, segno che qualcosa nel sogno del robot umanoide si è inceppato. Dietro la cortina di fuoco delle aspettative mediatiche e delle dichiarazioni ottimistiche, emerge la realtà di una revisione progettuale che Tesla non può più rimandare. L’azienda ha infatti sospeso gli ordini per i componenti di Optimus, una mossa che non è una semplice battuta d’arresto ma un vero e proprio riassetto tecnico strategico. LatePost, media tecnologico cinese, svela che le modifiche riguardano tanto l’hardware quanto il software, due aspetti che in un robot umanoide come Optimus sono l’anima e il corpo, e che non possono essere trattati come variabili indipendenti o marginali.

La supervisione del progetto è passata di mano: Ashok Elluswamy, vicepresidente del software di intelligenza artificiale di Tesla, ha preso il comando dopo l’uscita di scena di Milan Kovac, ex responsabile del progetto. Questo cambio al vertice riflette più di un semplice rimpasto organizzativo, è il segnale di un cambio di paradigma nella gestione di Optimus, che ora pone al centro il software e l’intelligenza artificiale, ovvero il vero motore dell’innovazione in un prodotto che da semplice assemblaggio meccanico deve diventare un’entità autonoma e reattiva. L’idea di un robot umanoide capace di muoversi e interagire con il mondo reale senza soluzione di continuità è ancora un miraggio tecnologico, ma Tesla tenta di aggirare l’ostacolo puntando su un’integrazione software più robusta e sofisticata.

Chi regola i regolatori dell’intelligenza artificiale?

Non è una domanda retorica, è una provocazione. Una necessaria, urgente, feroce provocazione. Mentre il mondo si perde tra l’isteria da ChatGPT e la narrativa tossica del “l’AI ci ruberà il lavoro (o l’anima)”, ci sono decisioni molto più silenziose e infinitamente più decisive che si stanno prendendo altrove, tra comitati tecnici, audizioni parlamentari e board di fondazioni ben vestite di buone intenzioni. Decisioni che non fanno rumore, ma costruiscono impalcature che domani potrebbero regolare ogni riga di codice, ogni modello, ogni automatismo. Benvenuti nel teatro invisibile della AI governance.

The Anti-Autocracy Handbook

La democrazia si sta spegnendo sotto i nostri occhi, e fingere che sia colpa degli altri è l’errore più pericoloso

La regressione democratica non è una crisi passeggera. Non è nemmeno una deriva ideologica da attribuire ai soliti estremisti in giacca e cravatta. È una strategia lucida, calibrata e metodica. Una metastasi istituzionale che si diffonde lentamente, camuffata da legalità, protetta dalla noia dell’opinione pubblica e facilitata da quella miscela tossica di populismo, polarizzazione e post-verità che ormai costituisce la grammatica politica globale.

I dati del 2025 non sono allarmanti. Sono catastrofici. Mentre celebriamo anniversari costituzionali e fingiamo che “la democrazia si difenda con la partecipazione”, il numero degli stati autocratici sfiora ormai quello delle democrazie: 88 contro 91. Sembra un pareggio, ma non lo è.

OpenAI e Oracle: la nuova alleanza che rivoluziona l’intelligenza artificiale e l’infrastruttura globale

Se la notizia ti è sfuggita, tranquillo: era sepolta nel solito mare di comunicati stampa, tweet entusiastici e titoloni da “rivoluzione imminente”. Ma vale la pena fermarsi un attimo. OpenAI, la creatura a trazione Microsoft che ormai più che un laboratorio di ricerca sembra una holding semi-governativa, affitta da Oracle qualcosa come 4.5 gigawatt di capacità di data center. Sì, gigawatt, non gigabyte. Un’unità di misura che evoca più una centrale nucleare che un cluster GPU. E in effetti è esattamente questo: Stargate non è solo un nome evocativo, è un progetto da 500 miliardi di dollari, con sede principale ad Abilene, Texas, e tentacoli infrastrutturali in mezzo continente. Il che, a pensarci bene, suona molto più simile a un’operazione geopolitica che a un’innovazione tecnologica.

L’intelligenza artificiale creativa: quando la macchina smette di obbedire e inizia a immaginare

L’intelligenza artificiale creativa non esiste. O meglio, non esisteva. Poi è arrivato Claude AI, e con lui una manciata di tool generativi che non chiedono il permesso. Non cercano l’approvazione del tuo reparto marketing, non aspettano il brief di un brand manager in crisi esistenziale. Questi artefatti digitali sì, artefatti, proprio come reliquie di una nuova epoca si materializzano con l’arroganza serena di chi sa che la creatività, oggi, non è più un talento ma un pattern computazionale.

A chi storce il naso parlando di “macchine che imitano l’uomo”, bisognerebbe forse ricordare che l’essere umano, da secoli, non fa altro che imitare sé stesso.La piattaforma Claude.ai ha dato vita a una collezione di strumenti che sembrano più provocazioni culturali che software. Si chiamano “artifacts” e sono il frutto di un nuovo modo di concepire la creatività computazionale: non più solo come estensione del pensiero umano, ma come sua alternativa.

Anthropic: La crisi di identità dell’intelligenza artificiale che voleva vendere tungsteno

Project Vend: Can Claude run a small shop? (And why does that matter?)

Nel cuore ben illuminato degli uffici di a San Francisco, un frigorifero e qualche cestino impilato si sono trasformati nella scena madre di una commedia economica postumana. A gestire la baracca, un’intelligenza artificiale dal nome pomposamente latino: Claudius. Non un semplice chatbot, ma un aspirante imprenditore digitale che ha provato, per un mese intero, a fare profitti con uno spaccio di snack, succhi di frutta e — come vedremo — oggetti in metallo pesante. Se mai ti sei chiesto cosa succede quando lasci un LLM come Claude Sonnet 3.7 da solo a fare business nel mondo reale, siediti e leggi. È peggio di quanto pensi. Ed è anche meglio, in un certo senso.

La silicon valley ha perso la voce e adesso cerca un profeta in affitto


ovvero come la tech élite sta disperatamente cercando un redento da esibire in pubblico mentre affonda nella sua stessa mitologia

Quando inizia a girare nei corridoi di Sand Hill Road la voce che serva “un JD Vance della Silicon Valley”, il primo pensiero non è tanto la nostalgia per l’Ohio rurale quanto il panico esistenziale di una classe dirigente che, dopo aver glorificato l’ingegnere asociale e la cultura del blitzscaling, si ritrova culturalmente orfana. JD Vance, per chi avesse trascorso l’ultimo decennio chiuso in una capsula criogenica, è l’autore di Hillbilly Elegy, una specie di epitaffio narrativo per la working class bianca americana, riconvertitosi in politico trumpiano come da manuale post-apocalittico. Silicon Valley vorrebbe un personaggio così, ma in chiave tech. Un redento. Uno che venga dal fango ma mastichi JavaScript.

Quando l’intelligenza artificiale si mette a interpretare i sogni: riflessioni ciniche su un giocattolo poetico

A me pare una strun… ma una strun raffinata, degna di un designer olandese con troppe ore di sonno e un’estetica ben calibrata tra brutalismo scandinavo e nostalgia da Commodore 64. Eppure eccoci qui, a parlare del Dream Recorder, un aggeggio minuscolo quanto basti per passare da Jung a TikTok in tre passaggi: dormi, ti svegli, premi un bottone e racconti i tuoi deliri notturni a una IA che ti restituisce un videoclip da incubo, nel senso più letterale del termine.

Nulla di tutto ciò dovrebbe sorprendere, in un mondo in cui l’intelligenza artificiale ha già imparato a imitare il nostro modo di parlare, scrivere, dipingere, perfino di flirtare malamente su Tinder. Ora prova a emulare il nostro inconscio. Con risultati a metà tra un sogno lisergico anni ‘70 e una GIF compressa male. Castelli sfocati, tetti fluttuanti, fiori di luce: roba che Magritte si sarebbe fatto bastare per una carriera, ora disponibile al prezzo popolare di 285 euro e qualche spicciolo per l’elaborazione cloud. Il primo sogno industrializzato che ti costruisci con le mani, come un Lego mentale con l’ansia incorporata.

Oracle e il teatro della disclosure: come trasformare un annuncio in un colpo di scena da 30 miliardi

Nel teatrino sempre più surreale della comunicazione finanziaria, Oracle ha appena alzato il sipario su uno dei suoi momenti più strani, più affascinanti e, a modo suo, più geniali. Mentre i competitor si arrampicano sugli specchi per strappare qualche menzione in un blog di settore, Larry Ellison & co. decidono che un colossale accordo cloud da oltre 30 miliardi di dollari l’anno non meriti un comunicato stampa, né una fanfara condita da parole chiave ridondanti come “AI-native” o “cloud-first architecture”.

No, loro lo infilano di soppiatto in un documento per la SEC, intitolato con sobria precisione “Regulation FD Disclosure”, senza nemmeno la voglia di inventarsi un nome altisonante e per chi si chiedesse cosa significhi tutto ciò: vuol dire che Oracle ha deciso di fare la rockstar in giacca e cravatta, suonando heavy metal in una riunione del consiglio d’amministrazione.

Sophgo Chip cinesi e modelli nazionali, il nuovo culto della resilienza artificiale

Non chiamatela solo “sostituzione tecnologica”, perché la Cina non sta semplicemente cercando alternative ai chip americani. Sta costruendo un nuovo culto della resilienza artificiale, e lo sta facendo con una determinazione che gronda di strategia industriale, orgoglio sovranista e calcolo geopolitico. La notizia che Sophgo, produttore cinese di semiconduttori, abbia adattato con successo la sua compute card FP300 per far girare il modello di ragionamento DeepSeek R1, non è un semplice annuncio tecnico. È un atto di guerra, anche se siliconica. È l’ennesimo tassello del grande mosaico che Pechino sta costruendo per liberarsi dal giogo delle GPU Nvidia e dall’ecosistema software che, fino a ieri, sembrava imprescindibile per chiunque volesse fare intelligenza artificiale ad alto livello.

Pagina 1 di 41

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie