Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

TSMC A14 1.4nm: il colosso taiwanese mostra i muscoli e gioca d’anticipo sul futuro dell’AI

TSMC ha appena svelato un pezzo del futuro, ma non aspettarti che arrivi domani. Durante il North American Technology Symposium tenutosi a Santa Clara, il gigante taiwanese dei semiconduttori ha fatto brillare i riflettori sulla sua ultima meraviglia ingegneristica: il processo logico A14, dove “14” non è un numero magico ma l’unità di misura in angstrom. Tradotto per i non iniziati: 1,4 nanometri, la dimensione atomica in cui TSMC vuole costruire il futuro della computazione.

Chiariamolo subito: A14 non lo vedremo prima del 2028, ma questo non è un problema, è parte della coreografia. Perché? Perché mentre i competitor stanno ancora cercando di capire come rendere affidabile la produzione a 2 nanometri (il famigerato processo N2, che TSMC prevede di mettere in produzione quest’anno), loro si spingono oltre, ben oltre. È come se in Formula 1 uno ti dicesse che sta già testando il bolide del 2030 mentre tu ancora stai cercando di far funzionare le gomme di oggi.

La voce che urla: Dia-1.6B e la corsa all’intelligenza artificiale emozionale

In un’epoca dove l’AI scrive romanzi, codifica algoritmi quantistici e sforna analisi finanziarie meglio di un junior analyst dopato di caffè, ci mancava solo un’intelligenza artificiale capace di sbraitare. Nari Labs, in un mix tra follia e genialità, ha appena rilasciato Dia-1.6B, un modello text-to-speech open source da 1.6 miliardi di parametri che, a detta loro, “urla meglio di te sotto la doccia”. Letteralmente.

E no, non è una battuta: questo modellino tascabile (si fa per dire) riesce a sintetizzare risate, colpi di tosse, sospiri e urla di terrore. Non “urla” perché glielo chiedi, ma capisce quando è il momento giusto per farlo. Un passo avanti rispetto ai soliti bot che ti rispondono “Mi dispiace, non posso urlare ma posso alzare il tono” come se fossero Alexa con la tosse.

L’abilità di Dia-1.6B di generare parlato emozionale in tempo reale su una singola GPU con 10GB di VRAM lo rende una piccola bomba democratica nella guerra dei TTS. Funziona su una Nvidia A4000 a circa 40 token al secondo. Tradotto: non serve un supercomputer della NASA per farlo girare, basta una workstation decente. E soprattutto: è libero, gratuito, open source e distribuito sotto licenza Apache 2.0. Mica male, considerando che competitor come ElevenLabs e OpenAI fanno pagare anche l’aria emozionata che respiri.

ServiceNow e la sua crescita travolgente nel primo trimestre 2025: intelligenza artificiale e automazione al centro della trasformazione aziendale

Nel primo trimestre del 2025, ServiceNow ha stupito gli investitori e gli analisti con risultati finanziari sorprendenti, mostrando una crescita robusta nonostante le incertezze economiche globali. L’azienda ha visto un’impennata del 15% delle sue azioni durante le prime negoziazioni di giovedì, segnalando una forte fiducia da parte degli investitori.

William McDermott, CEO di ServiceNow, ha commentato con determinazione durante la call sugli utili:

Intel si gioca tutto a Shanghai: LLM in auto, chip cinesi e l’intelligenza artificiale che vuole guidare

Mentre Nvidia sfodera il suo arsenale grafico e AMD prepara la riscossa sul mercato dei semiconduttori automobilistici, Intel il vecchio colosso americano spesso dato per morto nel mondo dell’AI rinasce sotto nuove forme nel posto più strategico di tutti: la Cina. E non lo fa con timidi annunci. Alla Shanghai Auto Show, davanti al palcoscenico dell’automotive elettrico globale, ha svelato il cuore del suo nuovo piano: la seconda generazione del suo System-on-a-Chip (SoC) per software-defined vehicle (SDV), alimentato da AI e pronto a entrare direttamente nel cruscotto delle auto intelligenti.

Ma la vera mossa di potere non è la presentazione del chip. È il tipo di alleanze che Intel ha siglato. Due nomi, apparentemente minori ma carichi di peso strategico: ModelBest, start-up AI fondata nel 2022 da ex cervelli di Tsinghua, e Black Sesame Technologies, designer di chip per veicoli, recentemente quotata a Hong Kong. Intel non sta semplicemente “entrando” nel mercato delle auto smart cinesi, ci si sta trasferendo con armi e bagagli. Non è un caso se ha persino spostato l’headquarter della divisione Automotive direttamente in Cina, e il suo vicepresidente Jack Weast a Pechino. Un “trasloco geopolitico” più che tecnologico.

AD Detection Scrittura, cervello e IA: come un tratto di penna può svelare l’Alzheimer prima dei sintomi

Scrivere sembra l’atto più banale del mondo. Prendi una penna, appoggi la punta su un foglio e lasci che la mano faccia il resto. Eppure, dietro quel gesto così quotidiano, si cela un balletto neuronale di impressionante complessità. La scrittura attiva simultaneamente lobi frontali, aree motorie, centri del linguaggio e processi cognitivi ad alta intensità. Se qualcosa si inceppa in quel sistema, la scrittura si deforma. E da lì, ecco che il cervello inizia a raccontare una storia che nemmeno sa di star scrivendo.

È proprio questa intuizione che ha dato vita a AD Detection, un progetto con l’ambizione (seria) di intercettare l’Alzheimer prima che si manifesti. A muovere i fili sono l’Università di Cassino e del Lazio Meridionale e Seeweb, provider infrastrutturale che con GPU serverless e Kubernetes ha deciso di prestare muscoli digitali al cervello umano.

Un po’ Black Mirror, un po’ medicina del futuro.

Microsoft Work Trend Index 2025, l’ufficio del futuro ha già la scrivania pronta: benvenuti nell’era delle “frontier firm”

C’è un nuovo animale da ufficio che si aggira tra le torri di vetro a Honk Kong e nei coworking patinati di New York: non suda, non si prende pause caffè al Bar dei Daini, e non ha bisogno di un badge. È l’agente AI, il collega digitale che non ti chiede mai “hai cinque minuti?”. E Microsoft, col fiuto da monopolista rinato, ha già annusato la preda. Il suo ultimo Work Trend Index, pompato da una survey planetaria da 31.000 anime e un oceano di tracce digitali raccolte dai suoi sistemi, dipinge un paesaggio lavorativo dove il confine tra umano e digitale non è solo sfocato: è strategicamente superato.

Il caso di Hong Kong fa scuola. In quella giungla verticale, metà della forza lavoro sta già automatizzando i propri flussi con agenti AI. Non stiamo parlando di chat bot da customer service o schedine Excel animate. Si tratta di veri e propri compagni di scrivania sintetici, capaci di gestire progetti, filtrare mail tossiche, suggerire soluzioni e, udite udite, lasciarti finalmente il tempo per pensare. Il 76% dei dirigenti locali è pronto a espandere questa forza lavoro invisibile nei prossimi 12-18 mesi. Non perché siano dei futurologi illuminati, ma perché non hanno alternative.

Adobe vuole riscrivere le regole dell’attribuzione digitale, ma senza dimenticare di farsi notare con Firefly 4 & Co

Se c’è una cosa che Adobe sa fare — oltre a spremere gli abbonamenti mensili come se fossero limoni — è trasformare una necessità tecnica in una dichiarazione di intenti. Oggi tocca all’autenticità dei contenuti, una di quelle parole che suonano bene nelle conference call con gli investitori e che, nella pratica, potrebbero davvero cambiare qualcosa per i creatori di contenuti digitali. Parliamo della nuova web app Content Authenticity in beta pubblica, una piattaforma che promette di ridare identità — e controllo alle immagini che galleggiano nel mare magnum del web.

Adobe ha preso il suo sistema di Content Credentials e gli ha dato un’interfaccia accessibile, funzionale, e soprattutto indipendente dagli altri software della suite Creative Cloud. Questo vuol dire che non serve essere utenti di Photoshop o Illustrator per marchiare digitalmente le proprie creazioni: basta un account Adobe e un po’ di JPEG o PNG. E se ti stai chiedendo “e i RAW?”, ti toccherà aspettare. Adobe dice che supporto a video, audio e file di grandi dimensioni è “in arrivo”. Tradotto: ci stiamo lavorando, magari tra qualche aggiornamento.

La tecnologia alla base? Una sorta di metadato invisibile ma resistente, che si incolla all’immagine come un sigillo notarile del XXI secolo. Ci puoi infilare di tutto: social, portfolio, siti personali, e persino lo storico delle modifiche. Perfetto per capire non solo chi ha creato l’opera, ma anche se è passata sotto le grinfie di qualche IA generativa. Una nota interessante è la possibilità di applicare tag di opt-out per evitare che le immagini vengano fagocitate dagli algoritmi affamati di contenuti. Non che questo fermerà OpenAI o Google, ma è un primo “NO” detto con stile.

La ciliegina su questa torta di buona volontà? L’integrazione con LinkedIn per verificare l’identità. Un tocco quasi vendicativo, visto che X è stato uno dei fondatori dell’iniziativa Content Authenticity nel 2019, prima di saltare giù dal carro e trasformare la verifica utenti in un badge a pagamento. Adobe, nel suo screenshot promozionale, ci tiene a indicare X ancora come “Twitter”. Una frecciatina sottile ma ben assestata.

E se pensi che tutto questo sia riservato ai professionisti, ti sbagli. Anche l’utente medio può usare l’estensione per Chrome e controllare se una foto online è autentica, o se è stata ritoccata, magari da un’intelligenza artificiale. Utile in un’epoca dove una bambina in giardino potrebbe essere una creazione di Firefly Ultra, piuttosto che tua nipote in posa per il primo giorno di scuola.

Parlando di Firefly 4, Adobe non si è fermata all’autenticità. Ha aggiornato la sua piattaforma generativa con la quarta generazione di modelli text-to-image, dividendoli tra versioni rapide e leggere e modelli più potenti, capaci di gestire dettagli complessi. A colpo d’occhio, i risultati sono ottimi, anche se qualche ombra sbagliata tradisce ancora il tocco siliconico. Ma l’ulteriore passo è l’apertura verso i modelli concorrenti: OpenAI, Google, Runway, e altri saranno accessibili dalla stessa interfaccia Firefly. Ovviamente, Adobe precisa che i suoi modelli sono “commercialmente sicuri”, gli altri… beh, usateli “solo per sperimentare”. Una strategia a metà tra inclusività e controllo del brand.

Intanto, Photoshop e Illustrator si aggiornano con nuove funzioni generative, miglioramenti AI-driven e un piano ambizioso: trasformare l’agente creativo di Adobe in un assistente personale che impara il tuo stile. Una sorta di intern creativo digitale, ma senza pause caffè o pretese salariali.

Insomma, Adobe si posiziona come paladino dei creatori, vendendo al contempo gli strumenti che servono a dominare (e proteggere) l’universo visivo del futuro. Un equilibrio cinico ma efficace, in puro stile Silicon Valley: ti do gli strumenti per non farti rubare il lavoro… ma te li faccio pagare caro, prima o poi.

Cluely Cheat-on-everything: l’illusione tossica della genialità artificiale a portata di Zoom – Recensione

Nel mondo tech, da anni ci sciroppiamo il mantra evangelico del “lavorare in modo più intelligente, non più duro”. Poi arrivano due dropout di Columbia University, giovanissimi e con in tasca 5,3 milioni di dollari, che decidono di fare un piccolo upgrade al concetto: “imbrogliamo su tutto”. Non è una provocazione, è il claim letterale del manifesto online di Cluely. Una startup che promette un assistente AI “individuabile quanto un ninja in una notte senza luna”, capace di leggerti lo schermo, ascoltare l’audio e suggerirti in tempo reale le risposte più intelligenti da sparare in un meeting, una call di vendita o anche in un’intervista di lavoro.

Sì, esatto. Il futuro è qui: ed è un Cyrano de Bergerac digitale pronto a suggerirti cosa dire mentre cerchi di vendere fuffa a un cliente, ottenere un lavoro per cui non sei preparato o sedurre una persona che non conosci neanche. È la Silicon Valley distillata in forma pura: se non riesci a essere brillante, fingi di esserlo. Ma fallo in modo smart, con l’intelligenza artificiale a coprirti le spalle.

Dedagroup acquisisce 100% Ors e lancia Deda AI

In un momento storico in cui l’intelligenza artificiale sta rapidamente passando da tecnologia emergente a motore centrale dei processi aziendali, Dedagroup completa l’acquisizione del 100% di ORS (realtà già parte del Gruppo dal 2021), segnando la nascita ufficiale di Deda AI, nuova identità e centro nevralgico dell’innovazione data-driven del gruppo trentino.

Tsukuyomi in silicio: TSMC prepara il banchetto AI su piatti di silicio da portata

TSMC ha appena calato un asso grosso quanto un wafer da cena natalizia. Altro che chip, qui parliamo di porzioni formato famiglia di potenza computazionale, cucinate a puntino per l’intelligenza artificiale affamata di elettroni e silicio. Il colosso taiwanese, padrone incontrastato del foundry globale, ha annunciato l’arrivo della sua tecnologia A14 prevista per il 2028, promettendo un miglioramento delle prestazioni del 15% a parità di consumo rispetto all’attuale generazione N2, oppure un risparmio energetico del 30% mantenendo la stessa velocità. Roba da far sbiancare i condensatori.

Ma il vero piatto forte, quello che fa gola a chi lavora con l’IA generativa e i modelli multimiliardari di parametri, è il cosiddetto “System on Wafer-X”. Qui non parliamo di chip, ma di interi sistemi serviti su un unico wafer. TSMC ha intenzione di intrecciare insieme almeno 16 chip di calcolo massicci, aggiungendo memoria, interconnessioni ottiche e tecnologie di alimentazione capaci di sparare migliaia di watt come fossero prosecco in discoteca.

Perplexity sfida Siri con la sua AI vocale su iOS, anche senza Apple Intelligence

Nel silenzio rumoroso dell’attesa per l’ennesimo aggiornamento futuribile di Siri, arriva Perplexity a scompaginare le carte: la sua app iOS ora include un assistente vocale AI che funziona davvero, oggi, su dispositivi vecchi quanto un iPhone 13 mini. Mentre Apple continua a promettere la rivoluzione della sua Apple Intelligence, ancora lontana più di un anno, qualcuno ha già deciso di giocare la partita. Spoiler: non è Cupertino.

Data Center e Intelligenza Artificiale: come l’Italia può diventare un Hub Strategico entro il 2030

L’esplosione dell’intelligenza artificiale sta ridisegnando le mappe dell’infrastruttura digitale globale. Al centro di questa trasformazione ci sono i data center, veri e propri motori della rivoluzione AI. A guidare il mercato sono gli Stati Uniti, ma anche l’Europa si muove rapidamente — e l’Italia, in particolare, potrebbe ritagliarsi un ruolo da protagonista.

Il robotaxi che sussurra ai regolatori: Tesla testa il futuro in Texas, ma la burocrazia non dorme mai

Mentre Elon Musk twitta con la leggerezza di un ventenne in pieno trip da caffeina, Tesla si gioca il futuro sull’azzardo più grande mai fatto dal mondo automotive: i robotaxi, ovvero veicoli a guida autonoma supervisionati da remoto, in fase di test in Texas e California. Il programma, se tutto andrà come previsto (sì, come no), dovrebbe vedere la luce pubblicamente entro l’estate. Ma questa non è una semplice evoluzione dell’app per richiedere una corsa. È un tentativo disperato di ribaltare un trimestre disastroso, con vendite a picco e una concorrenza cinese che macina terreno come un rullo compressore.

La scena è già surreale: impiegati Tesla che si prenotano un passaggio su un’app etichettata Robotaxi, salgono su Model Y guidate da software FSD (Full Self Driving), mentre un povero cristo sul sedile anteriore è lì, pronto a intervenire quando l’algoritmo decide di improvvisare. La supervisione umana è ancora obbligatoria, ma Musk promette che la prossima release sarà veramente senza conducente, anche se sorvegliata da remoto. Il che, tradotto, significa che invece di un autista sul sedile anteriore, ci sarà un tecnico in pigiama davanti a uno schermo a chilometri di distanza.

Sicurezza. Il nemico dentro: cresce in EMEA il rischio interno, tra phishing, errori umani e AI fuori controllo

Il nuovo Data Breach Investigations Report di Verizon lancia l’allarme: in Europa, Medio Oriente e Africa, quasi un terzo delle violazioni informatiche nasce all’interno delle aziende. E ora anche l’uso incontrollato dell’intelligenza artificiale accende una nuova spia di pericolo.

Trump lancia un’America AI-first mentre la Cina inizia a 6 anni: propaganda, tagli e contraddizioni

Mentre Pechino inserisce l’intelligenza artificiale nei programmi scolastici obbligatori per i bambini di sei anni, Washington cerca di rincorrere la corsa globale all’AI con un’operazione di facciata mascherata da piano educativo. Con una firma rapida e teatrale, Donald Trump ha appena approvato un ordine esecutivo per espandere l’educazione all’intelligenza artificiale, proclamando una nuova iniziativa nazionale e istituendo una task force dedicata. Tutto molto patriottico, tutto molto 2025. Ma sotto la patina di slogan altisonanti, emergono i soliti difetti strutturali di una politica scollegata dalla realtà del sistema educativo americano.

L’ordine esecutivo, firmato a gennaio durante il suo secondo mandato (sì, Trump è tornato), ribalta le restrizioni in materia di AI introdotte durante l’era Biden. Al centro del progetto troviamo la “White House Task Force on AI Education”, presieduta dal direttore dell’Ufficio per la Politica Scientifica e Tecnologica. Tra i membri figurano alti funzionari dei dipartimenti dell’Energia, dell’Agricoltura, dell’Istruzione e del Lavoro, oltre a David Sacks, consigliere speciale della Casa Bianca per l’AI e le criptovalute. Una cabina di regia composta da figure politiche e tecnocrati, con il compito di rendere gli studenti americani “partecipanti fiduciosi nella forza lavoro assistita dall’AI”.

Il tempo lungo degli algoritmi: quando i video AI open source battono le major SkyReels-V2

Non era mai successo prima, almeno non così. Per anni la generazione video tramite intelligenza artificiale si è inchiodata su limiti duri come il granito: qualche secondo, qualità discutibile, coerenza visiva traballante, e un hardware necessario che faceva impallidire anche le workstation dei creativi più esigenti. Ma da oggi il panorama si spacca, e la frattura arriva da dove meno te lo aspetti: dal mondo open source. E non con giocattolini per nerd smanettoni, ma con modelli che numeri alla mano iniziano a surclassare i colossi closed-source per coerenza, durata, qualità, accessibilità. Benvenuti nella nuova era del video generato da AI. E no, non serve una GPU della NASA.

Scudo digitale e intelligenza militare: la Spagna scommette su AI e cyber difesa per la sicurezza del futuro

Con un investimento record da 10,4 miliardi di euro, il nuovo piano di sicurezza e difesa spagnolo accelera su intelligenza artificiale, cybersicurezza e tecnologie dual use, segnando una svolta strategica per l’Europa della Difesa.

Anthropic Come costruire agenti AI davvero utili e non solo demo da pitch

Nel panorama odierno, dove ogni slide da venture capitalist grida all’arrivo dell’agente AI “autonomo”, “proattivo” e “rivoluzionario”, la verità tecnica resta un po’ meno scintillante: la maggior parte degli agenti oggi sono poco più che sequenze di prompt orchestrate goffamente. Finalmente però, Anthropic mette a disposizione un vademecum ingegneristico degno di nota per chi vuole davvero costruire agenti AI operativi nel mondo reale. E no, non stiamo parlando dell’ennesima toy app con GPT-4 che prenota un tavolo.

Quando il bar exam lo scrive ChatGPT: la realtà legale made in California

In una mossa che sembra uscita da una distopia legale firmata Black Mirror, la California State Bar ha ammesso candidamente che alcune delle domande a scelta multipla dell’ultimo

sono state redatte con l’aiuto dell’intelligenza artificiale. Non da un gruppo di esperti giuristi, non da professori emeriti, ma da una macchina. Già questo basterebbe a far tremare la toga a qualunque aspirante avvocato con un minimo di coscienza professionale. Ma la cosa più interessante è che il tutto è venuto alla luce non per trasparenza istituzionale, bensì perché gli studenti se ne sono accorti.

Le domande, a quanto pare, “puzzavano” di AI. Sintassi troppo pulita, logica troppo fredda, pattern prevedibili. In altre parole, non sembravano scritte da un essere umano sotto stress, caffeina e deadline editoriali, ma da un algoritmo perfettamente funzionante e senza ansia da prestazione. Mary Basick, assistente decano alla UC Irvine Law School, si è detta speechless. Non per il fatto in sé, ma per il fatto che l’aveva difeso, quel maledetto esame. Quando alcuni studenti avevano sollevato dubbi, la sua risposta era stata netta: “Ma no, dai! Non lo farebbero mai!”. E invece. (L.A. Times)

La barzelletta, se non fosse amara, si scrive da sola: un’intelligenza artificiale che valuta se un essere umano è abbastanza intelligente da diventare avvocato. In un Paese dove il sistema legale è già una giungla di cavilli, commi, loop burocratici e cause infinite, ora ci si mette pure l’AI a dettare le regole del gioco. Anzi, a scrivere le domande dell’esame d’ingresso alla giungla.

La rivoluzione grafica che non sapevi di volere: il modello “gpt-image-1” invade Adobe, Figma e il resto del mondo

Nel teatrino siliconvalleyano delle meraviglie, ogni tanto compare qualcosa che non è solo l’ennesimo tool “AI-powered” di cui ci dimenticheremo in un quarto d’ora. Questa volta, OpenAI ha sganciato un carico pesante sul tavolo della creatività digitale: il modello “gpt-image-1”, una belva nativamente multimodale, già conosciuta dai più nerd tra noi per la sua capacità di creare immagini in stile Studio Ghibli o bambole digitali più spente di una riunione Zoom di lunedì mattina. Ora però non resta più solo nel suo recinto di ChatGPT: è pronto a colonizzare anche le app che davvero contano.

Il modello è ufficialmente accessibile tramite API, e la notizia ha già fatto scalpore in ambienti dove l’AI non è più una curiosità, ma una leva competitiva. Adobe, Figma, Canva, GoDaddy, Instacart: se il tuo brand non è in questa lista, probabilmente stai già perdendo terreno. Secondo il blog ufficiale di OpenAI, “gpt-image-1” non è solo un generatore di immagini, è una piattaforma per “esplorare idee visivamente”, creare contenuti coerenti con il brief e persino generare testi visivi leggibili. Parliamo di coerenza semantica, direzione artistica programmabile e personalizzazione scalabile: roba da far tremare le ginocchia a chi ancora crede che “Photoshop + stock images” sia uno stack moderno.

ByteDance UI-TARS-1.5 rappresenta un passo significativo verso agenti AI più intelligenti e adattabili, capaci di interagire con ambienti complessi in modo più umano e intuitivo

ByteDance ha recentemente svelato UI-TARS-1.5, un agente multimodale open source che promette di rivoluzionare l’interazione uomo-macchina. Progettato per operare con interfacce grafiche complesse, questo modello combina visione artificiale e linguaggio naturale per eseguire compiti su desktop, browser, dispositivi mobili e ambienti di gioco.​

UI-TARS-1.5 si distingue per la sua capacità di “vedere” e comprendere l’interfaccia utente come farebbe un essere umano, interpretando elementi visivi e rispondendo a comandi in linguaggio naturale. Questo approccio consente una navigazione più intuitiva e una maggiore efficienza nell’esecuzione di compiti complessi.​

OpenAI punta a dominare il futuro: 1.000% di crescita entro il 2029 grazie agli agenti AI e abbonamenti da $50 miliardi

OpenAI, che molti vedono ancora come la startup ribelle dell’intelligenza artificiale generativa, sembra invece pronta a diventare una delle aziende più redditizie del decennio. I numeri che emergono dai documenti riservati ottenuti da The Information parlano chiaro: si prevede che i ricavi annui dell’azienda passeranno da 13 miliardi di dollari nel 2025 a 125 miliardi nel 2029. Sì, hai letto bene, quasi un +1.000% in quattro anni. Con margini lordi che dovrebbero schizzare al 70%, non stiamo più parlando di una startup, ma di una macchina da guerra che ha trovato il modo di monetizzare l’intelligenza artificiale come nessun altro.

E la chiave di questa crescita? Il solito cocktail di visione futuristica e cinismo imprenditoriale. OpenAI non si accontenta più di vendere API o abbonamenti basic al proprio ChatGPT. Sta costruendo un vero e proprio ecosistema in cui l’utente non paga solo per accedere a un modello linguistico, ma per un intero arsenale di agenti intelligenti, software autonomi capaci di svolgere compiti in autonomia, come programmare, rispondere a domande da dottorato o gestire flussi di lavoro complessi. E non sono economici: si parte da 2.000 dollari al mese e si arriva a 20.000. Un SaaS? No, questo è più simile a un consulente McKinsey alimentato da GPU.

La morte di Papa Francesco, il cattolicesimo bianco di Trump e il conclave kantiano: la fine dell’algoretica

Il 21 aprile 2025, alle 07:35 CEST, Jorge Mario Bergoglio ha cessato di vivere nella Domus Sanctae Marthae, vittima di un ictus seguito da un collasso cardiocircolatorio irreversibile; alle complicazioni si aggiungevano pregressi episodi di polmonite bilaterale, ipertensione e diabete di tipo II, come attestato dal certificato medico ufficiale rilasciato dal dottor Andrea Arcangeli.

Poche ore dopo, il cardinale camerlengo Kevin Farrell ha dato lettura dell’annuncio al mondo intero, sigillando l’inizio di una veglia pubblica senza precedenti.

Già il 23 aprile la Basilica di San Pietro ha aperto le porte alla camera ardente: una semplice cassa di legno, modello “rinuncia ai fasti”, ha accolto lunghissime file di fedeli, non meno di 20.000 persone tra pellegrini, curiosi e cronisti, disposti in coda sotto il solleone primaverile per rendere omaggio all’ultimo interprete di un papato sempre in bilico tra spirito di servizio e tattiche mediatiche.

L’eco politica non si è fatta attendere: mentre il pontefice giaceva in stato, Donald Trump autorizzava bandiere a mezz’asta negli uffici federali statunitensi e pregustava la passerella romana del 26 aprile.

Foto Financial Times

Nvidia espande il suo assistente G-Assist con supporto plugin: un passo verso l’integrazione totale

Nvidia sta per trasformare il suo assistente AI G-Assist, lanciato solo un mese fa, espandendolo ben oltre l’ottimizzazione dei giochi e delle impostazioni di sistema. Inizialmente progettato per migliorare l’esperienza di gioco su PC, G-Assist ora si arricchisce con un supporto per i plugin, che consente agli utenti di interagire con una varietà di applicazioni esterne come Spotify, Twitch, e persino ottenere aggiornamenti su azioni e meteo.

Questa mossa è tanto interessante quanto strategica. Nvidia, da sempre punto di riferimento nell’ambito delle tecnologie grafiche, ha ampliato il raggio d’azione del suo assistente AI introducendo una nuova funzionalità che potrebbe diventare il punto di riferimento per chi desidera integrare l’intelligenza artificiale in molteplici aspetti quotidiani, dal controllo musicale alla gestione delle risorse hardware. Il tutto, senza sacrificare le performance tipiche delle schede grafiche RTX.

Google Gemini: l’IA che conquista il mondo 350 milioni di utenti attivi, ma con un obiettivo ancora più ambizioso

Nel panorama tecnologico in continua evoluzione, Google Gemini emerge come un protagonista sorprendente. Secondo dati interni rivelati durante un’udienza legale, Gemini ha raggiunto i 350 milioni di utenti attivi mensili a livello globale entro marzo 2025. Questo rappresenta un aumento significativo rispetto ai 9 milioni di utenti attivi giornalieri registrati nell’ottobre 2024, con un’impennata a 35 milioni nel mese precedente.

Tuttavia, nonostante questo successo, Gemini è ancora lontano dai numeri di ChatGPT, che conta circa 600 milioni di utenti mensili attivi . Questa disparità evidenzia le sfide che Google deve affrontare per consolidare la sua posizione nel mercato dell’intelligenza artificiale.

Per raggiungere questo obiettivo, Google ha integrato Gemini in una vasta gamma di prodotti, tra cui i dispositivi Samsung, Google Workspace e Chrome. Questa strategia mira a rendere Gemini accessibile a milioni di utenti senza la necessità di download o registrazioni aggiuntive, sfruttando la penetrazione dei dispositivi Android e la popolarità dei servizi Google.

L’intelligenza Artificiale e la sfida di prevedere il prossimo Papa: un’analisi inconcludente

L’intelligenza artificiale, nonostante il suo crescente potere nel fare previsioni su una vasta gamma di eventi, si è trovata in difficoltà mercoledì nel cercare di prevedere il risultato di un processo che, per sua natura, è notoriamente segreto e imprevedibile: l’elezione di un nuovo Papa da parte dei cardinali cattolici. La morte del Papa Francesco, avvenuta il 21 aprile, ha dato il via al periodo di lutto per la Chiesa cattolica e, al contempo, all’inizio della corsa per la sua successione. Un gioco di indovinelli in cui si sono cimentati non solo gli insider del Vaticano, ma anche bookmaker e analisti di tutto il mondo, cercando di svelare il mistero di chi potrebbe essere il prossimo Pontefice.

Il giornale francese Agence France-Presse ha deciso di coinvolgere quattro chatbot di intelligenza artificiale, tra cui il celebre ChatGPT di OpenAI e Grok, il sistema sviluppato da Elon Musk, per chiedere loro un parere su chi fossero i papabili più probabili. I risultati sono stati contrastanti, con alcune somiglianze che hanno però fatto emergere una curiosa verità: prevedere l’elezione di un Papa tramite AI è, nella maggior parte dei casi, un esercizio tanto ambizioso quanto fallimentare.

La solitudine di Constantin Graf un faro nel deserto del cloud europeo: European Alternatives

In un panorama digitale europeo dove il denaro pubblico sembra scorrere senza criterio verso iniziative futili e progetti che spesso non vanno oltre il semplice rumore di fondo, un singolo sviluppatore freelance è riuscito a fare quello che istituzioni e governi non sono riusciti a realizzare: creare una piattaforma di alternative digitali europee, completamente autofinanziata e sostenuta dalla sola passione di un individuo. Parliamo di Constantin Graf, il fondatore di European Alternatives, un progetto che raccoglie e analizza soluzioni digitali europee, come servizi cloud e prodotti SaaS, per offrire finalmente un’alternativa valida alle gigantesche multinazionali americane che dominano il mercato globale del cloud.

AvatarFX: La Rivoluzione delle Immagini Animate da Character.AI

Nel mondo dell’intelligenza artificiale, ogni tanto emerge una novità che non solo stupisce, ma cambia le regole del gioco. È proprio questo il caso di AvatarFX, l’innovativo strumento di Character.AI che promette di portare l’animazione fotografica a un livello mai visto prima. Grazie alla tecnologia della Multimodal Team, AvatarFX permette di trasformare una semplice immagine statica in un video fotorealistico, che non solo simula il movimento, ma integra anche espressioni facciali e voce. E il tutto, con il semplice clic di un pulsante. Un’operazione che potrebbe sembrare magia, ma che si fonda su una potenza tecnologica sofisticata.

Microsoft 365 Copilot: La nuova frontiera dell’AI nelle aziende, il concetto di “Frontier Firm” e l’ascesa degli agenti AI

Microsoft sta per lanciare una versione rinnovata della sua app Microsoft 365 Copilot, che segna un altro passo significativo verso l’integrazione dell’intelligenza artificiale nelle aziende. La nuova versione dell’app, che funge da hub per i documenti di Office e ora include anche gli strumenti AI di Microsoft, si avvicina sempre di più alle funzionalità consumer di Copilot, con un’interfaccia più intuitiva e strumenti potenti per generare contenuti e ottimizzare il flusso di lavoro. Leggi il Blog Microsoft

L’approccio di Microsoft con la nuova versione di Copilot si concentra sull’ottimizzazione dell’esperienza utente e sulla personalizzazione, cercando di rendere l’app ancora più utile e “intelligente”. Un cambiamento fondamentale è l’adozione di un’interfaccia basata sulla chat, che ora include la memoria e la capacità di personalizzazione, simile a quella presente nella versione consumer di Copilot. Questo significa che Copilot inizierà a comprendere meglio il tuo modo di lavorare e a rispondere in modo sempre più adeguato alle tue preferenze. Microsoft punta a creare un ambiente dove l’IA non è solo uno strumento, ma diventa un assistente che evolve insieme a te.

La nuova visione di Grok: l’AI di Musk fa un passo verso il futuro

Grok, sta evolvendo rapidamente gli ultimi aggiornamenti portano una funzionalità che cambia le regole del gioco, rendendo Grok uno strumento significativamente più avanzato. Con l’aggiunta della percezione visiva, Grok ora è in grado di “vedere” ciò che appare sullo schermo o nella fotocamera. Sebbene questa funzionalità sia attualmente limitata a iOS, rappresenta un passo importante verso il futuro dell’intelligenza artificiale conversazionale. Questa capacità colloca Grok in diretta competizione con altri attori principali nel campo dell’AI, come Gemini Live di Google.

Google sotto assedio: OpenAI vuole il suo motore, ma Big G tiene stretto il monopolio e i cookie

Nel silenzioso fermento delle aule federali, si sta giocando una partita che potrebbe riscrivere le fondamenta della ricerca online. A luglio scorso, OpenAI ha bussato alla porta di Google con una richiesta non proprio modesta: accedere al suo motore di ricerca per alimentare un progetto chiamato SearchGPT, ovvero un ibrido tra motore AI e indicizzazione in tempo reale. Una mossa tanto audace quanto rivelatrice delle ambizioni di OpenAI nel diventare la piattaforma da cui passa la conoscenza digitale del futuro.

La risposta di Google? Un secco “no”, datato 13 agosto. Una data che non cade a caso: pochi giorni prima, un giudice federale aveva ufficialmente sancito che Google detiene un monopolio illegale nel mercato delle ricerche online. Curioso tempismo, verrebbe da dire. Ma la storia, come sempre, si complica.

Tesla tra AI, Trump e tagli: il declino temporaneo del profeta elettrico

Tesla ha appena messo a verbale una delle sue peggiori trimestrali degli ultimi anni, con un crollo del reddito operativo del 66% e un calo complessivo del fatturato del 9% rispetto allo stesso periodo dell’anno scorso. Un bagno di realtà per chi ancora pensava che Elon Musk potesse surfare indefinitamente sull’onda dell’innovazione green. La discesa è principalmente dovuta a un calo del 20% nelle entrate del comparto automotive, il core business che ha reso Tesla ciò che è. E tutto mentre l’azienda spende a piene mani nell’intelligenza artificiale, un settore tanto promettente quanto ancora lontano dal monetizzare in modo solido.

Non bastava la frenata della produzione: Tesla ha anche consegnato meno veicoli rispetto a qualsiasi trimestre dell’ultimo anno. Un dato che puzza di crisi, ma che secondo la narrazione ufficiale è stato causato da una “pausa tecnica” per aggiornare le linee del Model Y. Una pausa che ricorda quelle dichiarazioni da conferenza stampa in cui si tenta di camuffare un naufragio come un atterraggio controllato.

Europa 1, Big Tech 0: la commissione UE umilia Apple e Meta con multe miliardarie

La Commissione Europea ha finalmente deciso di abbandonare la diplomazia e prendere il bastone. Mercoledì ha multato Apple per 500 milioni di euro e Meta per altri 200 milioni, invocando il Digital Markets Act (DMA) come arma di regolamentazione. Per chi non lo sapesse, il DMA è la nuova stella polare dell’Europa nella lotta per arginare lo strapotere delle Big Tech. E questo è il primo schiaffo ufficiale.

Apple è finita nel mirino per le sue famigerate regole sull’App Store, quelle che da anni impongono vincoli draconiani agli sviluppatori, impedendo loro di promuovere canali alternativi per acquisti o abbonamenti. In altre parole, un sistema chiuso stile Las Vegas: quello che succede nell’App Store resta nell’App Store… e ovviamente paga la decima ad Apple. Il DMA, invece, pretende apertura, trasparenza e una concorrenza reale. L’Unione Europea, stanca di essere l’idiota del villaggio globale mentre Cupertino incassa, ha detto basta.

AI al volante, capitalismo al volante: la vera rivoluzione dell’automotive è un modello di business, non un motore elettrico e se è IBM a dirlo

Parlare oggi di paradigm shift come fa IBM nel suo studioAutomotive
in the AI era How AI is turbocharging business opportunities, nel settore auto è un po’ come usare il termine “disruption” negli anni dieci: logoro, inflazionato, eppure (purtroppo per i cinici) ancora centrato. Ma attenzione: qui non si tratta di una semplice evoluzione tecnologica, un’ennesima release da aggiungere al catalogo. Qui si gioca il futuro strategico dell’intero settore automotive, e l’IA non è un accessorio in plancia, ma il motore centrale del cambiamento. Altro che guida autonoma: stiamo parlando di sopravvivenza aziendale.

L’ultima indagine IBM ha acceso un faro sulla reale percezione dell’intelligenza artificiale nel settore automotive. I top executive di USA, UK, Germania e India parlano chiaro: l’adozione dell’IA non è più una scelta di efficientamento, ma un’urgenza esistenziale. Il futuro dell’automobile non è più nella meccanica, ma nel codice. Le auto non saranno più “macchine”, ma dispositivi digitali su ruote, aggiornabili via OTA, pensate come piattaforme e vendute come servizi. Benvenuti nell’epoca delle software-defined vehicles.

Viviamo nell’epoca degli ossimori: quando tutto è possibile ma niente è reale

Viviamo immersi in un teatro dell’assurdo iperconnesso, dove ogni progresso promette liberazione e invece ci stringe in nuove catene invisibili. È il secolo in cui ogni risorsa abbonda ma ogni speranza si sgretola, dove l’efficienza si misura in millisecondi e la fragilità si manifesta in interi sistemi sociali, ambientali e umani che crollano sotto il peso delle loro stesse ambizioni.

Mai come oggi abbiamo eliminato così tanta frizione a livello individuale. Clicchi, scorri, parli, e tutto ti arriva — cibo, intrattenimento, compagnia sintetica eppure, a livello sistemico, tutto è diventato più complesso, più burocratico, più instabile. Un paradosso ben confezionato nella user experience, che ti fa sentire il re del tuo mondo personale, mentre il mondo stesso brucia tra disuguaglianze crescenti e infrastrutture obsolete.

Andrej Karpathy Stiamo passando dai transistor ai token: benvenuti nell’era del LMOS Language Model Operating System

La frase di Karpathy suona come una delle solite provocazioni della Silicon Valley: “Stiamo entrando in un nuovo paradigma del calcolo, con i modelli linguistici che agiscono come CPU, usando token invece di byte, e una finestra di contesto invece della RAM.” Il tutto condito da una nuova buzzword, ovviamente, LMOS Language Model Operating System. Ma sotto la scorza da keynote, c’è qualcosa che merita di essere considerato seriamente. Karpathy, come spesso accade, non gioca per il clickbait, ma per la preveggenza.

Nel suo modello mentale, CPU diventa LLM, Byte diventa Token, RAM diventa Context Window, Sistema Operativo diventa LMOS. È una traslazione quasi poetica, se non fosse che sta già accadendo. Non parliamo più solo di software che gira su hardware, ma di linguaggio che gira su contesto, un flusso continuo di simboli che sostituiscono lo spazio fisico e binario del passato. E se all’inizio può sembrare solo un gioco di metafore, è nel dettaglio computazionale che questa rivoluzione diventa concreta.

Oscar al miglior algoritmo: l’accademia benedice l’AI, e Hollywood si prende gli ansiolitici

Sarà un giorno di festa nei corridoi di Netflix e Amazon Studios, ma nei sindacati di Hollywood probabilmente oggi volano i bicchieri. L’Academy of Motion Picture Arts and Sciences, con la delicatezza di chi finge di non vedere l’elefante nella stanza ma poi lo invita al gala, ha ufficialmente riconosciuto l’esistenza dell’intelligenza artificiale generativa nelle sue linee guida per l’Oscar. Tradotto: non vieta nulla, non obbliga a dichiarare nulla, ma avverte che il “fattore umano” rimane ancora centrale nel decidere chi stringerà la statuetta dorata.

Sì, hai letto bene. L’AI può essere usata nella produzione di un film, e non sarà un peccato mortale agli occhi dei membri votanti dell’Academy. Ma attenzione: la valutazione finale dipenderà da quanto, nel prodotto finale, si percepisce ancora una mano umana. L’autorialità non deve sparire del tutto. L’algoritmo può scrivere, colorare, animare, ma la scintilla creativa deve avere ancora una faccia, possibilmente sindacalizzata, possibilmente umana.

Sam Altman lascia Oklo: scacchi nucleari per alimentare l’intelligenza artificiale

Il solito gioco a incastri tra potere, energia e tecnologia si arricchisce di una nuova mossa: Sam Altman, il CEO visionario (e sempre più ubiquo) di OpenAI, ha appena lasciato la presidenza del consiglio di amministrazione di Oklo, una startup nel settore dell’energia nucleare avanzata. La notizia, riportata dal Wall Street Journal, ha il profumo di quelle mosse silenziose che anticipano un’espansione strategica più ampia, potenzialmente più pericolosa, sicuramente più redditizia.

Oklo non è l’ennesima creatura del tech che gioca con l’atomo per hobby. Sta sviluppando reattori nucleari di nuova generazione, quelli “modulari”, che sulla carta promettono miracoli: più piccoli, meno costosi, trasportabili, in teoria anche più sicuri. Insomma, la versione compatta e siliconata della centrale nucleare classica. L’obiettivo? Alimentare le prossime cattedrali digitali del XXI secolo: i data center. Non quelli dei social, ma quelli della fame di calcolo dell’intelligenza artificiale.

Intel taglia il 20% dei dipendenti: il nuovo CEO dichiara guerra alla burocrazia interna

Ecco il colpo di scena che mancava nella soap opera della Silicon Valley: Intel, un tempo il re indiscusso dei semiconduttori, è pronto a falciare oltre il 20% della sua forza lavoro, con una manovra che puzza di panico e disperazione strategica, ma che viene venduta come “snellimento” e “ritorno alla cultura ingegneristica”. Un taglio che segue i 15.000 licenziamenti dell’anno scorso e che porterà il colosso di Santa Clara a ridursi come una maglietta dopo un lavaggio sbagliato.

L’uomo dietro la scure è Tan Lip-Bu, fresco CEO da meno di un mese, già in modalità bulldozer. L’ex boss di Cadence Design Systems non ha perso tempo: prima ha venduto il 51% di Altera a Silver Lake, e ora affila la lama contro una burocrazia che, a suo dire, ha trasformato un gigante tecnologico in un pachiderma paralizzato. L’obiettivo? Semplificare la catena di comando, eliminare il middle management zavorra e rimettere gli ingegneri al centro del motore.

Huawei e iFlytek riscrivono l’IA cinese con chip domestici, sfidando OpenAI e aggirando l’embargo Usa

Nel cuore della tempesta geopolitica tra Stati Uniti e Cina, una nuova narrativa tecnologica si sta scrivendo con toni orgogliosi e una spruzzata di vendetta industriale. iFlytek, colosso cinese del riconoscimento vocale, ha annunciato che i suoi modelli linguistici di grandi dimensioni (LLM) ora poggiano interamente su infrastruttura computazionale cinese, grazie alla collaborazione con Huawei. Un’alleanza non solo tecnologica, ma politica, che mira a scrollarsi di dosso la dipendenza da chip americani come quelli della Nvidia, sempre più difficili da importare a causa delle restrizioni di Washington.

Dietro le quinte di questa rivoluzione sovranista dell’intelligenza artificiale c’è Xinghuo X1, un modello di ragionamento definito “autosufficiente e controllabile”. Parole scelte con cura chirurgica per rassicurare Pechino e tutti quei settori industriali strategici che vedono in questa svolta l’unica via per non rimanere ostaggio dell’Occidente tecnologico. La narrazione ufficiale vuole che, dopo un’intensa co-ingegnerizzazione con Huawei, Xinghuo X1 sia ora in grado di competere con giganti come OpenAI o1 e DeepSeek R1, secondo un post trionfalistico pubblicato su WeChat da iFlytek.

Pagina 1 di 114

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie