Autore: Dina Pagina 16 di 57

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Context Rot, Chroma e la fine delle favole sul RAG è morto

Chroma ha appena piazzato una pietra tombale su una delle narrazioni più pigre dell’ultimo anno: “RAG è morto”. No, non è morto. È stato solo usato male, e i dati lo confermano con una brutalità che dovrebbe far arrossire chiunque continui a ripetere slogan per fare engagement su LinkedIn. Le loro ricerche mostrano un fenomeno tanto intuitivo quanto ignorato: all’aumentare della lunghezza del contesto, la performance dei modelli peggiora in modo misurabile. Lo chiamano “context rot”. Io lo chiamerei semplicemente logica, ma il marketing tecnologico ama i neologismi a effetto. Eppure questa volta il termine funziona, perché racchiude in due parole il problema reale della Retrieval-Augmented Generation: più non è meglio. Mai stato, mai lo sarà.

Odissey 3D generation world

Hai ragione a notare un salto nella qualità dei motori 3D generativi basati sull’intelligenza artificiale. Odyssey rappresenta proprio quel punto di rottura, dove la generazione di mondi virtuali interattivi, fotorealistici e almeno nel demo “live”, si avvicina alla fantascienza.

Immagina di premere W e vederti trasportato in una radura con una baita o un centro commerciale, senza necessità di asset precaricati o di un vero game engine come Unity o Unreal. Tutto è animato al volo, un nuovo frame ogni 40 millisecondi e l’intera esperienza è orchestrata da un world model AI.

La scommessa su AI Agents nel 2025

Token Cost Scaling in Conversational Agents

Nel cuore dell’argomentazione di Utkarsh Kanwat si legge una frase che fa sobbalzare chiunque viva di hype e speculazioni sull’intelligenza artificiale automatica: «Error rates compound exponentially in multi‑step workflows» . Tradotto dal bureaucratese tech: se ogni passaggio di un agent ha il 95 % di successo, alla ventesima iterazione sei ridotto al 36 % di affidabilità complessiva. Roba da crittografia, ma al contrario: la probabilità di fallimento sale vertiginosamente. E in produzione non puoi permettertelo, servono livelli attorno a 99,9 %.

Perplexity e lo Spot AI più audace: come l’Intelligenza Artificiale sta riscrivendo le regole del Marketing nel 2025

Un annuncio pubblicitario basato sull’intelligenza artificiale diventa davvero dirompente quando riesce a fare tre cose insieme: creare un impatto emotivo profondo, mostrare in modo concreto e narrativo le potenzialità dell’AI e cambiare la percezione dell’intelligenza artificiale da semplice strumento a forza culturale. La campagna di Perplexity ispirata a Squid Game con Lee Jung-jae colpisce proprio per questo. La scelta dell’attore non è solo marketing da celebrity, è un simbolo: l’AI viene associata alla strategia ad alto rischio, alla competizione e all’istinto di sopravvivenza. Un messaggio subliminale che non parla di tecnologia, ma di potere: l’AI ci aiuterà o ci batterà al nostro stesso gioco? Questo tipo di tensione resta impressa molto più di uno spot aziendale generico o di un demo tecnico.

Taiwan sfida Silicon Valley: 510 Miliardi $ per dominare l’Intelligenza Artificiale entro il 2040

Taiwan non sta più giocando a fare il fornitore per conto terzi dei giganti americani e cinesi. Ha appena lanciato una mossa da 510 miliardi di dollari che somiglia più a una dichiarazione di guerra industriale che a un piano economico. La chiamano “Ten Major AI Infrastructure Projects”, ma sarebbe più corretto ribattezzarla “Operazione Sovranità Digitale”. L’obiettivo? Trasformare l’isola nella prima “smart technology island” del mondo e, incidentalmente, scalzare chiunque altro osi anche solo pronunciare la parola “AI” senza pagare dazio a Taipei.

Microsoft e la tentazione di guardare ovunque: perché Copilot Vision è il vero Grande Fratello mascherato da assistente

Chi ancora pensa che l’intelligenza artificiale sui sistemi operativi serva solo a “fare riassunti” non ha capito nulla. Microsoft lo sa benissimo e gioca la sua partita più audace con Copilot Vision, il nuovo strumento che, in modo molto elegante e apparentemente innocuo, scansiona tutto ciò che appare sul tuo schermo. Sì, hai letto bene: tutto. Documenti di lavoro, chat private, fogli Excel, grafici sensibili. Ti basta chiedere qualcosa e l’AI di Windows 11, con un candore quasi offensivo, ti risponde come se fosse il tuo analista personale. A prima vista, sembra geniale. Ma se guardi meglio, ti accorgi che questo è l’inizio di un cambiamento radicale nella percezione stessa del sistema operativo. Windows non è più un semplice strumento. È diventato un osservatore costante, un’entità che interpreta, suggerisce, e forse memorizza molto più di quello che vorresti ammettere.

Come dominare l’AI Mode di Google e trasformare la SEO generativa in un’arma letale

“Il futuro del web non è più una pagina di link blu, ma un cervello che decide per te cosa è utile”. Non è marketing, è la nuova regola del gioco scritta da Google con il suo AI Mode e con gli AI Overviews che stanno divorando la vecchia Seo come un algoritmo affamato. Il motore di ricerca non si limita più a restituire risultati, interpreta, sintetizza, connette i puntini e ti offre una risposta già confezionata. Il problema? Gli utenti sembrano apprezzarlo. O, per essere più precisi, sembrano smettere di cliccare.

Silicon Valley raddoppia sulla difesa mentre Rune Technologies punta a rivoluzionare la logistica militare con l’intelligenza artificiale

Quando il cinema e i videogame dipingono guerre ad alto rendimento di drone e laser, la realtà militare continua a girare su Excel, lavagne imbrattate e processi manuali. Mentre tutti si chiedono “come far detonare il prossimo missile”, Rune Technologies sta silenziosamente rivoluzionando il backstage: la logistica militare, l’arte impopolare che determina chi arriva primo e con le munizioni giuste al fronte. Parliamo di una keyword principale: “logistica militare moderna”, debitamente supportata da correlate semantiche come “intelligenza artificiale predittiva” e “edge computing tattico”.

OpenAI ha appena cambiato le regole del gioco con un reasoning LLM che fa oro all’IMO

Il cervello artificiale che ha preso oro sembra un titolo da romanzo cyberpunk, ma è realtà. OpenAI ha portato a casa una medaglia d’oro all’International Mathematical Olympiad 2025 con un suo modello sperimentale, un reasoning llm general purpose capace di risolvere problemi di livello olimpionico come un campione umano. E non parliamo di un modello matematico dedicato, non è un GPT‑5 segreto, non è uno di quei progetti iperspecializzati come AlphaGeometry. È un’intelligenza pensata per ragionare in modo generale, e lo ha fatto senza scorciatoie, senza database di trucchi preconfezionati, senza imitare pattern di soluzioni. Ha pensato, ha ragionato, ha vinto. E questo cambia tutto.

Papa Leone XIV e la Luna: fede, scienza e la diplomazia celeste del Vaticano

Pochi eventi riescono a intrecciare con tanto garbo l’ambizione umana, la spiritualità e la narrazione di potere come il gesto di Papa Leone XIV nella sua recente visita all’osservatorio astronomico vaticano a Castel Gandolfo. Il pretesto? Il 56° anniversario dell’allunaggio. Il simbolismo? Assoluto. Il messaggio? Che il cielo, dopotutto, non è mai stato solo una questione di scienza, ma un terreno negoziabile tra Dio e l’uomo, con il Vaticano come mediatore silenzioso ma strategico.

Mentre il mondo si perde nelle tensioni geopolitiche terrestri, il papa sceglie di elevare lo sguardo e lo fa non da San Pietro, ma dalla quieta e apparentemente anacronistica cornice delle Ville Pontificie, un luogo che custodisce da oltre un secolo il punto d’intersezione tra il cosmo e la fede cattolica. L’osservatorio, fondato nel 1891 da Leone XIII, non è una bizzarria esoterica della Curia, ma uno dei laboratori astronomici più rispettati del pianeta, al punto da vantare una delle più importanti collezioni di meteoriti, inclusi frammenti provenienti da Marte. E questo, si badi, in un contesto religioso che fino a poco tempo fa veniva stereotipato come nemico giurato del pensiero scientifico.

Minerva contro i giganti. perché Roberto Navigli è l’orgoglio che l’Italia non può permettersi di ignorare

In un Paese che considera ancora l’intelligenza artificiale un tema da talk show, l’idea che un professore romano possa guidare la conferenza più importante al mondo sul Natural Language Processing sembra quasi un cortocircuito culturale. Roberto Navigli, docente alla Sapienza e “papà” del Large Language Model italiano Minerva, sarà il Chair di ACL 2025, il summit globale che detta le regole del futuro digitale. Chiunque abbia compreso il significato profondo di questa notizia sa che non si tratta solo di un onore accademico. È un momento di rottura per il nostro Sistema Paese, l’ennesima dimostrazione che, quando si osa e si investe in cervelli veri, anche l’Italia può sedersi al tavolo dei giganti.

La responsabilità nell’era digitale by Luciano Floridi via La Lettura del Corriere della Sera

Digitale oggi non è più un’opzione ma una condanna. Siamo seduti sull’orlo di un abisso che chiamiamo rivoluzione tecnologica, ma qui non si tratta più solo di innovare, bensì di sopravvivere alle conseguenze di un cambiamento accelerato che nessuna precedente epoca storica ha conosciuto con tale rapidità e intensità. La trasformazione digitale ha da tempo smesso di essere un fenomeno emergente: è una realtà consolidata, inscindibile, che ci trascina dentro nuove architetture sociali, economiche e politiche. Ignorare questa realtà non è soltanto ingenuo, è un suicidio collettivo di intelligenza.

MCP Model Context Protocol HandBook

Lavorare con MCP (Model Context Protocol) è uno di quei momenti rari in cui si alza il sipario su una rivoluzione nascosta sotto la polvere dell’ordinario. “Oh cavolo, questo cambia tutto” non è solo un mantra da startup ma una verità con cui fare i conti, soprattutto per chi ha visto passare l’evoluzione dell’intelligenza artificiale dai laboratori universitari fino alle scrivanie dei CTO. MCP, per chi ancora non fosse caduto nella sua orbita, non è un semplice framework o un altro giocattolo per smanettoni: è quel ponte invisibile che finalmente connette i grandi modelli linguistici (LLM) al mondo reale, ai sistemi, ai dati concreti.

La neuro symbolic che non c’è nella GenAI da vetrina

Chi oggi parla di neuro symbolic nell’ecosistema GenAI lo fa con la stessa leggerezza con cui una startup promette di “reinventare la finanza” usando un foglio Excel colorato. Il termine è usato come una parola magica, un talismano lessicale per rassicurare board e investitori: “è neuro symbolic, quindi è sicuro”. No, non lo è. E chiunque conosca i fondamenti dell’integrazione neuro simbolica sa che quello che viene venduto oggi come tale è solo una caricatura goffa.

Insights into DeepSeek‑V3: Scaling Challenges and Reflections on Hardware for AI Architectures

Uno sguardo freddo su documento presenato a ISCA 2025 (52nd Annual International Symposium on Computer Architecture, Tokyo Japan, June 21 – 25, 2025) di DeepSeek‑V3 rivela un mix esplosivo di ingegneria hardcore e visioni che rasentano la fantascienza. Il modello da 671 miliardi di parametri gira su “solo” 2 048 GPU NVIDIA H800, sfruttando Multi‑Head Latent Attention per ridurre l’occupazione dei KV cache a 70 KB per token, Mixture‑of‑Experts che attiva solo 37B parametri per token (circa 5 % del totale) e precisione FP8 che dimezza tempi e costi. La topologia “Multi‑Plane Network” ottimizza congestione e latenza nel training, placcando forti colpi al muro hardware‑model co‑design arXiv.

Sole il cane che inseguiva i robot e che ci insegna a pensare meglio dell’energia solare

Un Jack Russell come il nostro Sole non si ferma mai. È un concentrato di energia che ignora la fisica newtoniana e sembra governato da una logica propria, un’oscillazione caotica di pura intenzione. Perché parlo di un cane iperattivocome Sole quando dovrei parlare di Physical AI? Perché nessuna batteria al litio, nessun pannello solare, nessuna turbina eolica riesce a replicare quella combinazione di istinto, apprendimento e reazione istantanea che un semplice mammifero di pochi chili manifesta in modo naturale. È la metafora perfetta per capire quanto sia riduttivo parlare di energia solo in termini di watt e joule, quando il vero tema è la trasformazione intelligente dell’energia in azione. Physical AI, oggi, non è altro che il tentativo imperfetto di creare macchine che si comportino più come un Jack Russell e meno come un’automobile ben programmata.

Umanità vs. AI: La Nuova Guerra per il Lavoro

In un’epoca in cui tutto sembra cambiare a velocità vertiginosa, la relazione tra intelligenza artificiale (AI) e lavoro umano si impone come uno degli argomenti più cruciali, se non il più essenziale. Siamo di fronte a un cambiamento epocale che tocca non solo gli aspetti economici e sociali, ma anche la nostra stessa identità, profondamente intrecciata con la nostra professione. Se i lavori svaniscono, con essi rischia di scomparire anche il nostro senso di autostima.

Nobel Peace Prize e Trump la nomination più improbabile che fa discutere il mondo

Donald Trump, l’uomo che ha trasformato la politica americana in uno show senza pause, torna a far parlare di sé con una nuova impresa destinata a infiammare dibattiti globali: la sua candidatura al Nobel per la pace. Mentre il mondo fatica a tenere il passo con i suoi tweet incendiari e le politiche “America first”, ecco che il tycoon si lancia in una corsa per il premio più prestigioso al mondo, trasformando un’istituzione storica in un campo di battaglia politico. Il risultato? Un mix di ironia, scetticismo e propaganda da manuale.

Il paradosso dell’intelligenza artificiale tra occupazione e inflazione nella nuova economia

In un mondo dove le tecnologie emergenti non sono più semplici supporti ma veri e propri protagonisti, l’intelligenza artificiale si affaccia con prepotenza al centro del dibattito economico globale, in particolare riguardo alla doppia missione della Federal Reserve: massima occupazione e stabilità dei prezzi. Lisa Cook, governatore della Fed, ha riassunto con una chiarezza chirurgica la sfida che ci attende. Da una parte, l’AI promette di rivoluzionare il mercato del lavoro, potenziando la produttività dei lavoratori ma allo stesso tempo alterando radicalmente la composizione stessa delle mansioni. Dall’altra, l’effetto sui prezzi non è affatto scontato, oscillando tra una possibile riduzione delle pressioni inflazionistiche grazie alla maggiore efficienza e l’aumento dei costi derivante dall’investimento massiccio in nuove tecnologie.

Prompting: come gli Hedge Fund usano l’analisi finanziaria avanzata di Perplexity per batterti sul tempo e perché non lo ammetteranno mai

L’analisi finanziaria avanzata su Perplexity integra l’intelligenza artificiale, dati aggiornati in tempo reale e capacità interattive per supportare professionisti, analisti e investitori nelle valutazioni aziendali, nelle ricerche di mercato e nella gestione strategica di portafoglio.

La verità è che se ti ostini a credere che l’analisi finanziaria avanzata sia solo questione di leggere bilanci trimestrali, sei già fuori dal gioco prima ancora di entrare. Gli hedge fund hanno capito da anni che i numeri ufficiali sono la parte più inutile di questa recita. Li usano solo per convincere i piccoli investitori che il “fondamentale” conta davvero, mentre il vero denaro si muove su segnali che non troverai mai nel comunicato stampa di un earnings report. C’è una frase che gira tra i desk buy-side di Manhattan, e no, non è una battuta per fare networking: “il valore non è nei dati, è nelle discrepanze”. Un’ovvietà che nessuno ti spiega perché funziona finché il 90% del mercato continua a inseguire guidance ufficiali come se fossero oro colato.

Un caffe al Bar dei Daini: roundup tech con un occhio al futuro incerto e alle manovre strategiche che contano

La promessa di crescita nel 2026 di ASML, gigante olandese dei chip, si tinge di foschia. il CEO Christophe Fouquet, pur riconoscendo la solidità delle fondamenta dei clienti AI, mette un freno all’entusiasmo: “non possiamo confermare la crescita” in un contesto geopolitico e macroeconomico sempre più incerto. La dichiarazione arriva a caldo dopo il report del secondo trimestre, ricordandoci che nel mondo dei semiconduttori la volatilità è la nuova normalità. I chip restano il cuore pulsante dell’innovazione, ma il battito potrebbe rallentare o accelerare a sorpresa, dettato da forze fuori dal controllo aziendale.

Super Waifu diventa Broody Husbando

Ci siamo davvero spinti fin qui? Qualche giorno fa Musk ha lanciato Ani, la “waifu” digitale di Grok, un concentrato di kawaii erotico con un NSFW mode che sfiora il borderline tra aneddoto adolescenziale e flirt da adulti. Nessuna sorpresa che ora stia mettendo le mani su un “husbando”: un compagno maschile, scuro, misterioso, e broody, ispirato esplicitamente a Edward Cullen e Christian Grey. Sì, proprio quelli. È una decisione che fa venire in mente l’espressione perfetta: “ottima idea… forse”.

Maria Chiara Carrozza: Umanità in equilibrio fra robot intelligenza artificiale e natura

Ore 18, Siamo stati initati all’evento Sala della Lupa. IA e Parlamento, “Umanità in equilibrio tra robot, Intelligenza artificiale e natura” Lectio magistralis di Maria Chiara Carrozza con l’introduzione della Vicepresidente, Anna Ascani.

La Professoressa Maria Chiara Carrozza, voce autorevole di una saga robotica Asimoviana che sfida la banalità e reclama spazi di profondità in un mondo dominato da feed superficiali, ci ha coinvolto con “passione” e i suoi ricordi d’infanzia, in un circuito di innovazione dove intelligenza artificiale e robotica si fondono in un unico ritmo.

Nel dialogo tra AI, robotica e diritti umani emergono proposte chiare: Carrozza proclama un equilibrio storico, con la sua nascita del mondo dell’automotive Ford in America, e FIAT in Italia e poi della applicazione dei Robots, dove la macchina non fagocita il lavoro umano, ma lo amplia. È un paradigma che sposta l’automatizzazione su ciò che è ripetitivo e usurante, restituendo dignità al lavoro umano .

Dal prompting al SocratAI – Socrating la rivoluzione del dialogo cognitivo con l’AI che ci obbliga a pensare

Il concetto di “SocratAI o Socrating” emerge principalmente tra il 2021 e il 2023, periodo in cui la diffusione massiccia dei Large Language Models (LLM) ha spinto molti studiosi a ripensare l’interazione uomo-AI oltre il semplice prompting.

Il primo utilizzo documentato del termine, o comunque della sua forma concettuale, compare in workshop accademici e conferenze sull’intelligenza artificiale conversazionale. Per esempio, attorno al 2022, alcuni ricercatori del MIT Media Lab e del Center for Human-Compatible AI (UC Berkeley) iniziano a proporre modelli di dialogo IA basati su domande socratiche, con l’obiettivo di migliorare il pensiero critico e l’apprendimento riflessivo. Nei loro articoli si parla di “Socratic AI” o “Socratic prompting”, che poi si evolve nel più snello “socrating”.

Parallelamente, Luciano Floridi, uno dei filosofi della tecnologia più influenti degli ultimi anni, discute esplicitamente in pubblicazioni e interventi pubblici tra il 2022 e il 2023 il valore della “maieutica digitale” e di come l’intelligenza artificiale debba diventare uno stimolatore di pensiero critico, non un mero esecutore. Il suo lavoro sul “philosophy of computing and information” contribuisce a dare sostanza filosofica all’idea che il dialogo con l’AI possa essere un processo socratico.

Sono le vulnerabilità umane la vera arma di distruzione di massa digitale e sarà davvero l’intelligenza artificiale a salvarci dall’errore umano o ci sta solo osservando mentre ci autodistruggiamo

“Non esistono sistemi sicuri, esistono solo sistemi ancora non compromessi. E il fattore umano è l’unico exploit che nessun aggiornamento potrà mai patchare definitivamente.” Massimiliano Graziani di Cybera entra nell’intervista con questa frase, senza preamboli, come se volesse azzerare la retorica prima ancora che la domanda venga formulata. Il riferimento è all’incidente che ha scosso il già delicato equilibrio della sicurezza informatica globale, quando un dipendente del Dipartimento per l’Efficienza Governativa ha caricato su GitHub uno script chiamato “agent.py” con la chiave API privata di xAI, spalancando una finestra sui modelli Grok e su decine di altre intelligenze linguistiche avanzate. Una svista, dicono. Una minaccia nazionale, ribatte Graziani.

Come LangChain trasforma le basi in agenti AI da produzione

Immagina un assistente digitale che non solo capisce, ma agisce. Non sono descrizioni vaghe di “AGI”. Parliamo di produzione, di valore e di flussi operativi reali. LangChain ha appena rilasciato una guida step‑by‑step su come costruire un AI agent pratico e pronto per la produzione. Quindi smettiamo di sognare: questa è la road map per chi vuole risultati, non pipponi filosofici.

Il segreto? Divisione netta tra macro‑futuro tech e micro‑azioni effettive. Ogni step – da job definition a deploy – rispecchia la struttura SOP industriale, cosa che garantisce precisione e scalabilità.

LLM, bias e l’illusione della conoscenza: il grande inganno della soglia abbassata

Sarà interessante, più avanti, tra una coda in autostrada e l’ennesima newsletter su quanto l’IA cambierà tutto, tornare davvero alle basi. Non quelle da manuale Harvard Business Review, ma le fondamenta epistemologiche dell’interazione uomo-macchina. Perché ogni tanto bisogna fare il backup del pensiero critico, soprattutto ora che i large language model (LLM) stanno colonizzando silenziosamente il nostro modo di ragionare. E lo fanno con un’astuzia algoritmica che nemmeno gli autori del nudge avrebbero saputo scrivere così bene.

Non c’è bisogno di leggere Daniel Kahneman in lingua originale per capire cosa stia succedendo. Bastano un paio di prompt su ChatGPT o Claude per accorgersi che qualcosa non torna. L’apparente abbattimento delle barriere all’ingresso, quella sensazione di accesso diretto a competenze linguistiche, tecniche, persino filosofiche, è una messinscena raffinata. L’interfaccia parla semplice, ma dietro c’è un teatro epistemico in cui gli attori sono solo marionette addestrate a confermare ciò che già pensiamo.

Google NotebookLM reinventa il bloc-notes: la SGE entra in modalità editoriale

NotebookLM non è più soltanto l’ennesimo assistente AI che promette di aiutarti a prendere appunti meglio. Da oggi si comporta come un media. Un aggregatore autorevole. Un portale culturale travestito da app. Google ha appena annunciato l’introduzione dei cosiddetti “notebook in vetrina”, una selezione di contenuti editoriali curati da testate come The Economist e The Atlantic, accademici di varie discipline, autori, ricercatori e perfino Shakespeare, che evidentemente non aveva firmato alcun NDA. È il momento in cui l’AI da strumento diventa contenuto. O, per dirla come piace a Mountain View, da modello linguistico si trasforma in destinazione esperienziale.

Maria Chiara Carrozza, l’ingegnera che programmava il futuro IA e Parlamento

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.

Digital Networks Act: il fallimento annunciato della deregulation digitale europea

Immaginate di vivere in una città dove solo chi possiede l’unica autostrada può decidere chi può usarla, quando, e a che prezzo. Se sei un piccolo trasportatore o un nuovo imprenditore, sei costretto a pagare quel pedaggio, oppure rinunci del tutto a far viaggiare le tue merci. Ora applicate questa logica alle reti digitali europee: fibra, 5G, cloud, intelligenza artificiale. È qui che entra in gioco la proposta di legge chiamata Digital Networks Act, che rischia di trasformare le infrastrutture digitali europee in un feudo privato, togliendo al regolatore pubblico la possibilità di intervenire quando un operatore è troppo dominante e chiude l’accesso agli altri.

The digital as an ontological environment: deep reflections on the age of artificial intelligence – Luciano Floridi

Let’s drop the comforting illusion that artificial intelligence is just another shiny tool in humanity’s long romance with technology. The truth is cruder, and perhaps more dangerous: we are not using the digital we are living inside it. The shift is not evolutionary but ontological. The difference is all the difference. To call this era a transformation is an understatement. It is a colonisation, silent and irreversible, of our very existence by invisible architectures and algorithmic ecosystems. What we mistake for platforms are sovereign environments. And no, this is not metaphor it’s reality with a new texture.

Philosopher Luciano Floridi was among the first to shout from the ivory towers: we don’t surf the digital anymore, we inhabit it. Unlike a hammer or a smartphone, an environment doesn’t extend our reach it defines our being. It is not something we use but something that uses us to define itself. And yet, through most of the 1990s, policymakers still treated the internet as infrastructure a glorified mailman, not the habitat it was already becoming. That failure to grasp the ontological stakes is now coming home to roost.

Rivista.AI Academy: perché il Context Engineering è l’arma segreta per dominare l’intelligenza artificiale

L’epitaffio del prompt engineering era già scritto. “Sarà un’arte effimera, una moda passeggera”, dicevano. Poi sono arrivati GPT-4, Claude, Gemini, Mistral, LLaVA, ReALM e compagnia cantante. E quel presunto cimitero è diventato un’azienda da miliardi. Ma ora il gioco si è evoluto. Le regole sono cambiate. E anche il nome: benvenuti nell’era dell’ingegneria del contesto, Context Engineering. Sì, è ancora prompt engineering. Solo che ha smesso di giocare con i Lego ed è passato ai sistemi complessi.

Perché, alla fine, non stiamo solo scrivendo istruzioni a un LLM. Stiamo progettando interi ambienti cognitivi. Strutture di senso. Architetture semantiche. E serve chiamarlo con un nome che rifletta questa complessità. “Ingegneria del contesto” suona molto meglio di “prompt sofisticato con campi ben ordinati e delimitatori XML improvvisati”.

OpenAI frena sull’open-weight: visione responsabile o paura di perdere il trono?

La retorica della responsabilità è la nuova foglia di fico delle big tech. Quando OpenAI annuncia di ritardare ancora il rilascio del suo modello open-weight, la dichiarazione suona come un mantra già sentito: sicurezza, precauzione, responsabilità. Tutto giusto, tutto nobile. Ma sotto quella superficie si muove un ecosistema affamato di trasparenza, controllo e, soprattutto, indipendenza dall’ennesima API gatekeeper. Perché stavolta la posta in gioco non è solo tecnica, è politica e quando Sam Altman afferma candidamente “Once weights are out, they can’t be pulled back”, non sta facendo solo un’osservazione ovvia: sta tracciando un confine. Un punto di non ritorno.

Trump gioca a risiko con i dazi e riscrive la globalizzazione con una biro rossa

C’è una vecchia battuta tra veterani del commercio internazionale: “L’unico modo per far capire a un americano cos’è un dazio è che glielo faccia pagare un altro Paese”. Peccato che oggi, a infliggerli, sia proprio l’America. Non un’America qualsiasi, ma quella reinventata a immagine e somiglianza del suo patriarca arancione, tornato a occupare lo Studio Ovale come un magnate che rileva un’azienda in crisi e la risana con tagli, intimidazioni e grida. Donald Trump, al suo secondo giro da presidente, ha deciso che il tempo delle negoziazioni è finito, i trattati multilaterali sono per i deboli e che la politica commerciale può essere fatta con lettere scritte a macchina, spolverate di maiuscole strategiche e sigillate con l’intuito del “gut feeling”.

EGM non è un mercato, è una trappola semantica per startup ingenue

Benvenuti nel teatro delle illusioni finanziarie, dove le startup tecnologiche italiane si affacciano con l’entusiasmo ingenuo dei fondatori che confondono un palco con una piazza. L’EGM acronimo nobilmente ambiguo di Euronext Growth Milan si presenta come il mercato alternativo per le PMI innovative, una promessa di capitali, visibilità, scalabilità. In pratica: il posto dove una startup può finalmente smettere di elemosinare seed round da venture in modalità oracolo e accedere, si dice, al grande banchetto del capitale pubblico. Ma la realtà è più crudele, più sottile, più pericolosa: EGM non è un mercato. È una recita. Un catalogo interattivo con scarsa interazione e nessun pubblico pagante.

Come l’asse Trump-Silicon Valley potrebbe svendere l’egemonia tecnologica Americana alla Cina

In principio era la disruption, poi venne il caos. E oggi, mentre una parte dell’America tecnologica flirta apertamente con l’ideologia MAGA, quella stessa cultura che una volta celebrava la globalizzazione, il talento internazionale e la regolazione “light touch”, sta ora ballando sul filo di una contraddizione ideologica che potrebbe costare agli Stati Uniti la leadership tecnologica globale. La parola d’ordine? “Decoupling”. Ma quando il taglio si fa a caso, a pagare il conto è sempre l’innovazione.

Negli ultimi mesi, l’alleanza tra l’élite tecnologica americana e la base populista di Donald Trump ha assunto contorni sempre più surreali. Da un lato, una manciata di venture capitalist e CEO anti-woke con i portafogli pieni e l’ansia da rilevanza politica, dall’altro una base elettorale convinta che le Big Tech siano parte di un complotto liberal per cancellare l’America. La dicotomia è più che evidente, ma il matrimonio di convenienza regge, per ora, su interessi comuni come la deregulation, la crociata contro il DEI (diversity, equity and inclusion) e la sacralizzazione del mercato libero, purché non includa immigrati o concorrenti cinesi.

Non abbiamo idea di cosa stiamo costruendo, ma lo stiamo già regolamentando

Mentre alcuni si illudono di poter negoziare trattati sull’intelligenza artificiale come se si trattasse di emissioni di CO₂, altri si limitano a osservare l’esperimento dall’interno, sperando che almeno valga il biglietto. Elon Musk, nella sua solita performance tra profezia e show business, ci regala una frase che potrebbe appartenere tanto a un predicatore del XIX secolo quanto al fondatore di una religione digitale: “Probabilmente sarà un bene. Ma anche se non lo fosse, mi piacerebbe essere vivo per vederlo accadere”.

Questa dichiarazione è tutto tranne che banale. Perché dice quello che pochi hanno il coraggio di ammettere: che l’interesse primario della nostra epoca non è più la sicurezza collettiva, ma l’intrattenimento personale, anche a costo dell’estinzione e che la superintelligenza, qualunque cosa essa sia, si sta trasformando in uno spettacolo globale. Un reality quantistico. La cui sceneggiatura non è scritta da nessuno, ma tutti sono convinti di saperne anticipare il finale.

Quando l’intelligenza artificiale diventa propaganda

L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.

Ieri sera alla Fondazione Pastificio CERERE Franz Rosati ha mostrato come si smonta la realtà con il codice

Non capita spesso che uno spazio di archeologia industriale trasformato in sala performance riesca a mettere in discussione la percezione stessa della realtà. Ma ieri sera, alla Fondazione Pastificio CERERE, è successo. Franz Rosati, artista visivo e compositore elettroacustico, ci ha portato altrove. Non altrove nel senso naïf dell’arte immersiva per turisti digitali, ma in un luogo difficile da nominare, fatto di vettori, texture e latenza. Più che un’esibizione, una dissezione algoritmica del paesaggio. Se uno volesse trovare una parola per quello che abbiamo visto, dovrebbe forse inventarla.

Rosati non suona e basta. Rosati orchestra macchine. Non macchine come strumenti, ma macchine come entità dotate di linguaggio, memoria e volontà grafica. Il suo setup è chirurgicamente distribuito tra Ableton Live, Max/MSP, TouchDesigner e Unreal Engine. Un’architettura modulare che fa impallidire l’idea stessa di “live performance”, perché qui il tempo reale è una simulazione guidata da dati, da strutture sintetiche e da pulsazioni nervose che sembrano provenire direttamente da una foresta neurale, non da un musicista.

AI & Conflicts 2. Volume 02

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti.  Casa editrice: Krisis Publishing

Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.

Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Pagina 16 di 57

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie