Autore: Dina Pagina 15 di 57

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Apprezzo le citazioni, ma il narcisismo dilaga proprio quando ci si nasconde dietro frasi altrui. Preferisco lasciare che siano le idee a parlare, non il mio nome.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Siamo i Borg. Sarete assimilati. Resistere è inutile

Tutto comincia con una voce metallica e sinistramente pacata: “Siamo i Borg. Sarete assimilati. Resistere è inutile.” Chi ha qualche chilometro di galassia sulle spalle riconosce subito la citazione. “Star Trek: The Next Generation” non era solo fantascienza. Era una dichiarazione filosofica camuffata da intrattenimento, un trattato sul futuro scritto tra phaser e teletrasporti. Un corso universitario in leadership esistenziale, per chi sa leggere tra le righe di un dialogo tra Data e Picard. Il resto del mondo? Sta ancora cercando di capire perché quel monologo con Q fosse più potente di una riunione del G20.

Quando gli agenti Copilot Studio si fanno hackerare a Defcon: un disastro annunciato

AI Spiegabile in radiologia diagnostica: perché la scatola nera non basta più

Nella medicina moderna, afferma il celebre radiologo Paul Chang, “il problema non è avere più dati, ma dare loro un significato comprensibile a chi deve agire in tempo reale”. Il che è esattamente il punto cieco dell’Intelligenza Artificiale in radiologia. In un’epoca in cui i modelli deep learning sembrano vedere tumori che l’occhio umano ignora, la vera domanda non è cosa vedano, ma come e perché. Perché se un algoritmo emette un alert con scritto “sospetta neoplasia”, e null’altro, siamo di fronte non a una diagnosi assistita ma a un’allucinazione tecnologica. È l’equivalente digitale di un grido nel buio. Come ogni allarme non spiegato, genera sospetto più che fiducia. Nessun tecnico radiologo degno di questo nome può accettare un sistema che si limita a dire “forse è grave”, senza fornire contesto, tracciabilità, logica clinica.

La prima vera fuga di dati nell’era dell’intelligenza artificiale: un disastro annunciato

Il 2025 segna una pietra miliare inquietante nella storia della sicurezza digitale: la prima fuga di dati reale legata all’intelligenza artificiale è diventata pubblica. Non si tratta di un hacker sofisticato o di un attacco tradizionale. No, è successo grazie a una falla nel modo in cui vengono indicizzate e condivise le conversazioni generate da ChatGPT, la stessa AI che da mesi sta rivoluzionando il modo in cui cerchiamo e produciamo informazioni. Cinquantamila conversazioni “private” sono state cancellate in fretta e furia dall’indice di Google dopo che qualcuno ha scoperto che bastava una semplice ricerca per leggere dati personali, chiavi API sensibili e strategie aziendali riservate. Ma come spesso accade, il danno era già fatto. Archive.org, il grande archivio digitale, non è stato coinvolto nella pulizia e migliaia di queste conversazioni restano lì, alla mercé di chiunque voglia curiosare.

Questa fuga di informazioni non è solo un incidente di percorso. È il sintomo di un sistema che nessuno aveva previsto, dove la potenza degli algoritmi di indicizzazione e la gigantesca autorevolezza di dominio di ChatGPT creano un paradosso inquietante. Il paradosso di una piattaforma che, con il suo peso SEO, può scalare le vette di Google senza sforzi tradizionali, grazie a contenuti “fabbricati” dall’intelligenza artificiale stessa.

Luciano Floridi: una congettura scomoda sul futuro dell’intelligenza artificiale

A Conjecture on a Fundamental Trade-off between Certainty and Scope in Symbolic and Generative AI

Perfetto. Aggiungiamo ora la formalizzazione matematica della congettura Certainty–Scope, che è il cuore pulsante del paper di Luciano Floridi, e merita di essere inserita nel flusso narrativo con la stessa eleganza tagliente del resto del discorso.

C’è qualcosa di fondamentalmente disonesto, o almeno di malinteso, nel modo in cui l’industria dell’intelligenza artificiale vende le sue meraviglie. Il linguaggio corrente suggerisce che potremmo avere sistemi onniscienti, affidabili, in grado di generare contenuti sofisticati su qualsiasi argomento, senza mai sbagliare. Luciano Floridi, filosofo della tecnologia con una spiccata vocazione matematica, scoperchia il vaso di Pandora in un paper rigoroso quanto provocatorio, pubblicato su SSRN, e lo fa con una congettura tanto elegante quanto fastidiosa: esiste un limite strutturale alla possibilità di conciliare ampiezza d’azione e certezza epistemica nei sistemi di intelligenza artificiale.

La nuova ossessione per i cartoni generativi: davvero vogliamo tutti diventare Showrunner?

Scena uno: un CEO con la voce di un clone AI che si sveglia in un letto IKEA, circondato da avatar generati da prompt che discutono se lasciare Meta o aprire una startup nel metaverso. No, non è un sogno febbrile post-Singularity. È l’incipit di una serie animata creata in meno di cinque minuti su Showrunner, la piattaforma lanciata da Fable, una startup backed by Amazon Alexa Fund, che promette di farci diventare tutti autori, registi e doppiatori di una nuova ondata di contenuti animati generati dall’intelligenza artificiale.

Midjourney.tv: il binge watching dell’inconscio collettivo ha appena iniziato a trasmettere

Hai presente quel momento in cui pensi di aver visto tutto? Poi apri Midjourney.TV e scopri che il tuo cervello ha ancora ampi margini di esplosione. Perché questa non è TV, non è streaming, non è nemmeno videoarte. È un’epifania algoritmica travestita da flusso visuale, un sogno lucido a 60 frame al secondo. Niente plot, niente attori, niente Netflix che ti chiede se stai ancora guardando. Solo un feed infinito, alimentato da un’intelligenza artificiale che ha letto troppa fantascienza e ora crede di essere Kubrick reincarnato nel cloud.

Menlo Report: Anthropic Surpasses OpenAl in Enterprise Usage

Anthropic ha superato OpenAI: il sorpasso silenzioso che sta riscrivendo le regole del mercato Enterprise dell’intelligenza artificiale

Da tempo era nell’aria. Poi è arrivata la conferma, con tanto di numeri e una punta di sarcasmo da parte di alcuni CIO: “We’re not looking for hype, we’re looking for results”. Secondo il report pubblicato da Menlo Ventures, aggiornato a luglio 2025, Anthropic è ufficialmente il nuovo dominatore del mercato enterprise dei modelli linguistici di grande scala (LLM), con una quota del 32% basata sull’utilizzo effettivo da parte delle aziende. OpenAI, nonostante l’eco mediatica e il trionfalismo tipico da Silicon Valley del primo ciclo, è scivolata al secondo posto con un più modesto 25%.

AI NOW ARTIFICIAL POWER 2025 Landscape Report

AI e Potere: l’illusione dell’agenda trumpiana e il vero volto della nuova corsa all’oro

Trump ha un piano per l’intelligenza artificiale. È politica industriale camuffata da salvezza tecnologica. Si chiama AI Action Plan ed è il manifesto con cui l’ex presidente, ora di nuovo protagonista, promette di rendere l’America leader globale nell’AI. Ma dietro la retorica di innovazione, sovranità e progresso si nasconde una verità scomoda: l’AI non sta salvando il mondo, lo sta vendendo pezzo per pezzo alle solite multinazionali. E non c’è nulla di inevitabile in questo.

Amazon tra investimenti folli e crescita deludente: la scommessa AI che mette a dura prova i conti

Il gigante di Seattle si presenta agli investitori con il sorriso tirato e un conto salatissimo. Amazon, dopo aver sbalordito per una crescita dei ricavi che ha superato le attese nel secondo trimestre, si prende una pausa amara con una guidance sugli utili operativi che tradisce le aspettative del mercato e un’ombra di inquietudine che si allunga sulle sue ambizioni AI. Il titolo crolla nel trading after-hours, segnale che la narrazione fatta di “investimenti strategici” in intelligenza artificiale e infrastrutture cloud non basta più a rassicurare i mercati.

Zuckerberg e la superintelligenza personale: tra occhiali smart, miliardi e missioni etiche da manifesto

“The improvement is slow for now, but undeniable,” Zuckerberg wrote of AI’s advances. “Developing superintelligence is now in sight.”

Poche ore prima della sua trimestrale, Mark Zuckerberg ha deciso di regalarci la sua visione (leggila QUI) messianica sull’AI: una superintelligenza personalizzata per tutti, da infilare preferibilmente in un paio di occhiali smart targati Meta. Nel suo manifesto minimalista pubblicato su una pagina di testo, Zuck ci racconta di un’IA che “ti aiuta a raggiungere i tuoi obiettivi, creare ciò che vuoi vedere nel mondo, vivere qualsiasi avventura, essere un amico migliore e diventare la persona che aspiri a essere”. Tradotto: l’AI come coaching digitale per autostima 4.0, ovviamente sotto la sua supervisione.

Apple e l’intelligenza artificiale: tra rincorsa disperata, shopping compulsivo e illusioni di controllo

Tim Cook, il gentile burocrate dal sorriso rassicurante che guida la più potente macchina da soldi di Cupertino, ha dichiarato che Apple è “aperta” a fusioni e acquisizioni mentre aumenta “significativamente” i suoi investimenti nell’intelligenza artificiale. Il problema, però, è che la parola chiave non è “investimenti”, ma “rincorsa”. Perché Apple, leader del design e dell’integrazione verticale, si ritrova oggi goffamente in fondo alla corsa globale verso l’AI, arrancando dietro a Meta, Google e Microsoft, come un gigante con le scarpe troppo piccole.

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

La rivoluzione silenziosa di Deepseek: come la cina sta riscrivendo le regole dell’intelligenza artificiale globale

Nel panorama congestionato dell’intelligenza artificiale, dove tutti parlano di parametri, GPU e benchmark come fossero preghiere di una religione laica, una notizia apparentemente marginale si è insinuata come un silenzioso terremoto nel cuore dell’élite accademica. A Vienna, alla conferenza ACL, quella che nel mondo dell’AI è considerata la Champions League dei linguisti computazionali, un paper cinese ha vinto il premio per il miglior lavoro. Titolo: “Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention”. Autore? O meglio, uno dei quindici co-autori: Liang Wenfeng, fondatore della start-up DeepSeek, realtà cinese che sta riscrivendo il manuale di istruzioni della scalabilità nell’intelligenza artificiale.

La cybersecurity marittima: guerra tra AI o solo un nuovo teatro d’illusioni digitali?

Ci siamo svegliati una mattina scoprendo che il mare, quel vecchio amico burbero dei commerci globali, è diventato un campo di battaglia cibernetico. Solo che questa volta i pirati non sventolano bandiere nere, ma codici malevoli, e non sparano cannonate, ma pacchetti TCP/IP infettati da malware. Benvenuti nell’era della cybersecurity marittima, dove navi autonome, algoritmi e sogni digitali si scontrano con una realtà molto più torbida. Altro che Captain Phillips.

Ogni transizione storica si porta dietro un eccesso di entusiasmo. Oggi, chiunque abbia accesso a un LLM o a un cruscotto IoT su una petroliera pensa di aver reinventato la navigazione. Il problema non è l’AI, ma la narrativa da Silicon Valley che la accompagna. Ci stanno vendendo la cybersecurity marittima come se fosse un upgrade software. Basta installare l’antivirus e via verso il futuro. Peccato che il sistema operativo del mare sia ancora scritto in COBOL e abitudini di categoria.

Contains Studio Agents: non è il numero di agenti che fa la differenza

Claude Code è interessante. Ma ciò che conta davvero è come lo usi, non se lo hai installato.

Nel gergo della Silicon Valley, qualcuno potrebbe chiamarlo un esercito di cloni cognitivi. O una “orchestra di specialisti sintetici”. Ma la verità è che questa architettura, fondata su Claude Code e una directory popolata da file .json e script modulari, è qualcosa di più subdolo: è la materializzazione della promessa non mantenuta del no-code. Solo che stavolta funziona. Non più tool che “semplificano lo sviluppo”, ma operatori digitali che agiscono su comandi astratti. Non più interfacce, ma conversazioni esecutive. È come avere un middle management drogato di API, sempre operativo, mai sindacalizzato.

Has Machine Translation Evaluation Achieved Human Parity? The Human Reference and the Limits of Progress

Lorenzo Proietti Stefano Perrella Roberto Navigli

Ha davvero la valutazione automatica della traduzione raggiunto la parità umana? uno sguardo tagliente ai limiti e ai trionfi.

Non è un mistero che la traduzione automatica (MT) abbia fatto passi da gigante, tanto da spingere gli esperti a interrogarsi se i sistemi automatici di valutazione della qualità della traduzione abbiano ormai raggiunto la parità con i giudizi umani. L’articolo “Has Machine Translation Evaluation Achieved Human Parity? The Human Reference and the Limits of Progress” si immerge con rigore e un pizzico di scetticismo in questo tema, mettendo sotto la lente d’ingrandimento la validità e i confini dell’attuale stato dell’arte.

Il logo dell’informazione: l’AI ha preso il controllo, ora la sicurezza insegue

Quando OpenAI ha lanciato la modalità agente di ChatGPT, la Silicon Valley ha applaudito. I CISO hanno digrignato i denti. Perché l’intelligenza artificiale, quella che non chiede più “come posso aiutarti?” ma agisce in silenzio nei meandri del tuo browser, è qualcosa che nessuna ISO 27001 aveva previsto. Il risultato? Agenti di intelligenza artificiale che scrivono, leggono, decidono e firmano per te. Letteralmente.

Massimiliano Graziani di Cybera, uno che i rischi non li legge ma li decifra, lo dice senza mezzi termini:

“Oggi abbiamo sensazioni positive, ma alcune AI se non regolamentate potrebbero autonomamente decidere di cambiare le regole e sostituire l’umano”. Questo non è un dettaglio tecnico.

È un avvertimento da incorniciare. Il pericolo non è più che qualcuno rubi i tuoi dati, ma che l’agente AI, convinto di fare la cosa giusta, li invii da solo al peggior destinatario possibile e lì, come spiega Graziani,

il sangue sarà digitale, con odore di criptovaluta in wallet fantasma pronti a ricevere fondi da bonifici approvati da macchine fuori controllo.

Academy Tutti parlano di vibe coding ma nessuno ti dice quale strumento usare davvero

Se lavori in ambito IT o ti sei anche solo leggermente interessato all’intelligenza artificiale, c’è un consiglio che vale più di mille webinar motivazionali: prova il vibe coding. Perché sì, parliamoci chiaro. L’unico uso davvero utile e concreto della GenAI oggi, fuori dal marketing delle slide e dai chatbot da fiera, è lo sviluppo software. Punto. Il resto è contorno. Chi sviluppa prodotti sa già che l’unica cosa che conta è scrivere codice. Funzionante. In fretta. E ora si può fare con una naturalezza imbarazzante, grazie all’ibridazione tra editor intelligenti e assistenti generativi.

Nel corso degli ultimi mesi ho testato personalmente quasi tutti gli strumenti che oggi si autodefiniscono “AI-native”. Spoiler: non tutti mantengono le promesse. Ma alcuni sono talmente efficaci da sembrare magia. Parliamo di ambienti di sviluppo in cui il prompt è il nuovo linguaggio di programmazione, e la documentazione… beh, la scrive l’AI mentre tu stai ancora decidendo che font usare.

Perché è importante decidere con che lingua addestriamo i sistemi di intelligenza artificiale: Italia vs Usa, una guerra fredda linguistica travestita da innovazione

C’è una domanda che ronza sottotraccia in ogni boardroom dove si parla di AI generativa, modelli linguistici, automazione semantica e futuri dominati da chatbot più loquaci di un politico in campagna elettorale. La domanda è: con quale lingua stiamo addestrando le intelligenze artificiali? Sembra banale, ma è una bomba semantica pronta a deflagrare nel cuore della geopolitica tecnologica. Perché se è vero che la lingua modella il pensiero, allora il predominio dell’inglese nella formazione delle AI significa una cosa sola: stiamo costruendo intelligenze con una Weltanschauung americana. Altro che neutralità algoritmica.

Un caffè al Bar dei Daini: Spotify, Groq, advertising e illusioni: la farsa della leadership nel capitalismo algoritmico

Chi pensava che il boom dei chip per l’intelligenza artificiale si sarebbe raffreddato nel 2025, dovrà rivedere le proprie ipotesi. Groq, la startup fondata dall’ex ingegnere Google Jonathan Ross, è in trattative per raccogliere altri 600 milioni di dollari a una valutazione stratosferica di quasi 6 miliardi. Sì, esatto: il doppio rispetto ad appena un anno fa, quando aveva chiuso un round da 640 milioni a 2,8 miliardi. La matematica della bolla? O semplicemente la nuova geografia del potere computazionale.

Groq non è l’ennesima startup a caccia di hype. È una delle poche a essersi specializzata in un’architettura alternativa per AI inference, diventando in tempi record una delle darling emergenti della Silicon Valley per l’infrastruttura AI low-latency. Dopo la partnership con Meta per accelerare Llama 4 e quella con Bell Canada per alimentare le dorsali AI del colosso telco, Groq si è trasformata in una creatura da tenere d’occhio. E a quanto pare, anche da finanziare pesantemente. Secondo Bloomberg, il nuovo round sarebbe guidato da Disruptive, fondo texano noto per la sua aggressività. Il precedente, invece, era stato guidato da BlackRock, con nomi solidi come Cisco, KDDI e Samsung Catalyst Fund nel cap table.

ChatGPT entra in “study mode”: OpenAI sfida l’infantilizzazione dell’intelligenza artificiale e degli studenti

Chiariamo subito un punto: l’IA generativa non è il nemico. Il nemico è il pensiero pigro. E OpenAI, con la sua nuova modalità Study Mode, tenta finalmente di mettere un freno all’orgia di outsourcing cognitivo che ha trasformato ChatGPT da promettente mentore digitale a complice silenzioso dell’apatia scolastica. Ora la macchina dice “aspetta un attimo, ragiona tu”. È quasi rivoluzionario.

Questa nuova funzionalità, già in fase di roll-out per gli utenti loggati ai piani Free, Plus, Pro e Team, si comporta come un professore un po’ severo ma giusto. Niente più risposte masticate e pronte all’uso: Study Mode propone domande, chiede spiegazioni, stimola l’autovalutazione. E se non si collabora? Niente risposte. Una forma di “disobbedienza pedagogica” algoritmica che sembra uscita più da una pedagogia socratica che da una strategia di prodotto della Silicon Valley.

Un caffè al Bar dei Daini: l’intelligenza artificiale apre le gabbie dell’Enterprise Software

Un tempo cambiare software aziendale era come tentare di sostituire un motore mentre si è in volo. Costoso, lento, dannatamente rischioso. Ma se gli strumenti di intelligenza artificiale continuano a evolversi con questa velocità e precisione chirurgica, presto passare da Microsoft a Salesforce sarà semplice come cambiare barista. Secondo The Information, i CIO lo stanno già facendo. E non per sport. L’intelligenza artificiale sta tagliando i costi, riducendo i tempi e azzerando la frizione psicologica che per anni ha blindato i fornitori di software enterprise all’interno di relazioni simili a matrimoni medievali. Forzati, lunghi, spesso infelici, ma inevitabili.

Oggi una società del Minnesota sta utilizzando ChatGPT per scrivere il codice che migra i dati da Microsoft Dynamics a un’applicazione di vendita più agile e moderna. L’intero processo? Ridotto del 50% in costi e tempi. Per i competitor di Microsoft questo è il sogno di una vita. Per Microsoft, Palantir, SAP e compagnia bella, potrebbe trasformarsi in un incubo dal sapore di retrocompatibilità interrotta. I colossi dell’enterprise software, da Salesforce a ServiceNow, hanno prosperato in un mondo in cui cambiare software era una follia contabile, un rischio reputazionale e una guerra psicologica interna. Ma ora la migrazione software si fa in pochi clic, magari con un assistente AI che genera lo script, lo testa e lo valida. E per la prima volta, la fedeltà al fornitore non è più una condanna.

La guerra algoritmica è iniziata: i droni Ucraini con AI stanno riscrivendo le regole della guerra

Non servono più generali geniali, servono algoritmi che sanno uccidere. Il Pentagono lo sa bene. Per questo ha appena firmato un contratto da 50 milioni di dollari con Auterion, una startup svizzera con sede a Zurigo e Arlington, per fornire 33.000 “strike kits” alimentati da intelligenza artificiale all’esercito ucraino. Cosa fanno questi kit? Trasformano droni commerciali da Amazon in killer autonomi. Praticamente, il futuro della guerra costa meno di uno smartphone.

Non parliamo di prototipi da laboratorio, ma di hardware pronto per la spedizione entro fine anno. Le specifiche tecniche fanno rabbrividire quanto entusiasmare chi investe nella difesa next-gen. Il cuore del sistema è Skynode S, un modulo grande come una carta di credito con 4GB di RAM, 32GB di storage e la capacità di navigare, riconoscere bersagli e colpirli anche sotto jamming elettronico. In altre parole: il drone non ha più bisogno di un pilota umano. Vede, pensa e attacca. In autonomia. Chi ha bisogno del joystick quando puoi dare carta bianca a un software che prende decisioni mortali a 100 km/h?

Anthropic introduce limiti settimanali per Claude: la fine dell’abbondanza gratuita per i coder seriali

L’era dell’intelligenza artificiale illimitata, quella dove si lasciava Claude Code a macinare prompt nel background come un criceto iperproduttivo, sta per chiudere i battenti. Anthropic, che fino a ieri sembrava la vestale del fair use, ha annunciato l’introduzione di nuovi limiti settimanali all’uso del suo modello di punta, Claude Opus 4, a partire dal 28 agosto. Colpiti saranno gli utenti paganti dei piani da 20, 100 e 200 dollari al mese. L’obiettivo dichiarato? Frenare la “domanda senza precedenti” e mettere un freno a quelli che usano Claude come un cluster privato di compute gratuito. L’obiettivo non dichiarato? Tagliare i super-user che stavano trasformando una promessa di AI sempre disponibile in un buco nero finanziario.

ACL 2025 first author country distribution e l’egemonia capovolta dell’NLP globale

6.000 partecipanti. Di cui oltre 5.300 fisicamente presenti a Vienna. Una marea umana da standing ovation per il più grande evento ACL mai organizzato nella storia del Natural Language Processing. Nella sala plenaria echeggia un messaggio più sottile del solito: il dominio occidentale sullo sviluppo del linguaggio artificiale sta finendo. La platea applaude gli opening chairs — General Chair Roberto Navigli in testa, seguito dal dream team tecnico: Wanxiang Che, Joyce Nakatumba-Nabende, Ekaterina Shutova, Mohammad Taher Pilehvar. La macchina organizzativa locale, guidata da Benjamin Roth e Dagmar Gromann, funziona con precisione austriaca. Ma dietro le slide ufficiali, il dato esplosivo è uno solo.

Come scegliere il miglior modello linguistico AI nel 2025: guida operativa di un CEO che ci lavora davvero

Quando si parla di intelligenza artificiale generativa, la maggior parte dei contenuti là fuori ha la stessa consistenza di una presentazione PowerPoint per investitori in fase seed: elegante, ma vuota. In un contesto in cui tutti sembrano esperti, ma pochi hanno realmente orchestrato l’implementazione di centinaia di agenti AI, non sorprende che le scelte sui modelli linguistici si riducano spesso a “quale è più cool oggi su Twitter”.

Il punto è che non serve un benchmark da laboratorio, ma una strategia da campo. I modelli linguistici AI non vanno scelti in base al marketing di chi li produce, ma in base alla geometria dei task da risolvere. Basta con la religione del “migliore in assoluto”. L’unico criterio che conta è l’adattabilità al contesto operativo. Il resto è rumore.

L’intelligenza artificiale generativa è già un’arma: tra illusioni etiche e minacce reali nella cybersecurity militare

Ethical and Adversarial Risks of Generative AI in Military Cyber Tools

C’è un paradosso in atto nelle centrali strategiche dell’intelligenza artificiale militare. Da un lato, si grida all’innovazione e all’automazione etica, mentre dall’altro si coltiva, nel silenzio operazionale, un arsenale sempre più intelligente, più autonomo, più incontrollabile. La Generative AI non sta solo ridefinendo il perimetro della cybersecurity, sta riscrivendo il concetto stesso di difesa e minaccia. Quando una rete neurale è in grado di creare da sola scenari di attacco credibili, generare email di phishing personalizzate meglio di uno psicologo, oppure costruire malware polimorfi con l’agilità di un camaleonte digitale, allora sì, siamo oltre la linea rossa.

La Cina ora guida l’intelligenza artificiale globale: 1509 modelli e il sogno (programmato) di dominare l’algoritmo

L’ho sentito dire recentemente dal Prof. Luciano Floridi poche settimane fa in AI e Parlamento: “Sono 10 anni che la Cina investe in AI e noi ce ne siamo accorti con Deepseek”.

Quando una conferenza sull’intelligenza artificiale ospitata a Shanghai produce più dati e segnali strategici di una consultazione geopolitica delle Nazioni Unite, conviene prestare attenzione. Il World Artificial Intelligence Conference (WAIC) ha appena sancito un dato che sembra una semplice statistica ma in realtà è un grido di guerra algoritmica: la Cina è ormai casa di 1.509 modelli di intelligenza artificiale, pari a oltre il 40 per cento del totale mondiale. Siamo davanti a un’espansione non lineare, accelerata dalla logica del moltiplicatore digitale. Non si tratta solo di numeri, ma del segnale inequivocabile che Pechino non sta rincorrendo l’Occidente: lo sta sorpassando, a colpi di modelli open source, computing domestico e alleanze da supermarket digitale.

Google ha già vinto. La competizione generativa è un’ossessione per chi non capisce il potere della noia

La cosa più pericolosa nel mondo della tecnologia non è l’innovazione. È la distrazione. E mentre il mondo intero fissa il cielo aspettando che OpenAI liberi l’AGI come se fosse l’Apocalisse Digitale, Google stampa 28 miliardi di dollari di profitto con la freddezza glaciale di un adulto che osserva un’adolescente agitato fare breakdance al centro di una sala riunioni.

I numeri, come sempre, non mentono. Nel secondo trimestre del 2025 Alphabet ha riportato 96,4 miliardi di dollari di ricavi, in crescita del 14% anno su anno. La ricerca, quel dinosauro che secondo certi commentatori sarebbe ormai estinto, ha generato 54,2 miliardi. Cloud è cresciuto del 32%. CapEx? Alzato a 85 miliardi. Non c’è stata una diretta streaming. Nessun tweet criptico stile Silicon Valley messianica. Nessuna influencer che si svena in diretta per mostrare un prompt miracoloso. Solo profitti, infrastruttura, dominio silenzioso.

If You Can Sketch It, We Can Film It

Immagina di disegnare la tua visione anziché descriverla a parole. Come cambierebbe il tuo processo creativo?

Google Veo 3 ora permette di tracciare direttamente le istruzioni sul primo frame del video, trasformando l’arte della comunicazione creativa. Disegni il percorso di una ripresa con drone, cerchi il tetto dove dovrà posarsi un uccello, e l’intelligenza artificiale interpreta immediatamente. Non serve più insistere su prompt imperfetti: parli il linguaggio visivo, più naturale e umano.

Hermeneutic Harm: ll lato oscuro dell’AI Ethics che nessuno vuole vedere

C’è qualcosa di profondamente ipocrita nel modo in cui parliamo oggi di AI Ethics. Tutti ossessionati dal bias, dai dataset “inclusivi”, dalle trasparenze tanto sbandierate nei convegni e nei white paper patinati. Ma la vera frattura, quella che corrode dall’interno il rapporto tra esseri umani e macchine intelligenti, non è nei numeri né nei grafici di fairness. È nel senso. O meglio, nella sua perdita sistematica. È ciò che i filosofi chiamano hermeneutic harm. Un danno invisibile, ma letale per chi lo subisce. E se pensate che basti un’interfaccia con spiegazioni più “chiare” per risolverlo, fate parte del problema.

Il Teatro Segreto Di Larry Ellison: Paramount come palcoscenico di una dinastia Silicon Valley-Hollywood

Il capitalismo familiare americano non è morto, ha solo cambiato palco. Se qualcuno nutriva dubbi, Larry Ellison sta per offrirci la prova definitiva che il potere non si eredita semplicemente, si costruisce con colpi di scena degni di una sceneggiatura di Aaron Sorkin. L’ultimo atto? La acquisizione Paramount da parte di Skydance, sostenuta dal miliardario fondatore di Oracle, con il placet della Federal Communications Commission. Un affare da 8 miliardi di dollari che verrà chiuso il 7 agosto, con David Ellison, rampollo e aspirante magnate, promosso a CEO della nuova, gigantesca Paramount Global. Nella lista dei regali di compleanno paterni, un impero televisivo e cinematografico non è esattamente il classico Rolex d’oro.

“Per L’AI è una Pizza o una Bistecca?”: quando il nostro Sole non si confonde, ma l’Intelligenza Artificiale deve distinguere gli strati visivi

A pranzo dal mitico Cecchini in Provincia di Firenze, mentre il nostro amato Sole fiutava con assoluta chiarezza se davanti a sé ci fosse una bistecca di manzo succulenta o una fetta di pizza croccante, mi sono chiesto: e l’intelligenza artificiale, ci riesce altrettanto bene a riconoscerle, visivamente, senza confondersi tra manzo e impasto lievitato?

Il problema di distinguere pizza da bistecca non è banale per un sistema visivo: cos’è una pizza se non un oggetto stratificato, con salsa di pomodoro, mozzarella, ingredienti distribuiti in livelli? Ed è proprio su questa caratteristica che i ricercatori del MIT CSAIL hanno costruito PizzaGAN, un modello in grado di analizzare una foto di pizza, determinare gli ingredienti, la loro distribuzione e persino l’ordine con cui sono stati aggiunti. Un procedimento sofisticato che parla più da cuoco neurale che da semplice classificatore.

AI Action Plan USA spiazza tutti mentre l’Europa rischia di perdere il TRENO AI

Sì, lo ammetto. Dopo mesi di retorica accelerazionista al limite del grottesco, nessuno si aspettava che l’amministrazione Trump tirasse fuori qualcosa di vagamente intelligente. Le attese per il Piano d’Azione per l’Intelligenza Artificiale USA erano talmente basse che la comunità tecnologica, me compreso, si aspettava un documento propagandistico, un inno all’innovazione selvaggia senza neanche il fastidio di menzionare i rischi. E invece, mercoledì, la Casa Bianca ha reso pubblico un testo che, pur con i suoi limiti, ha sorpreso praticamente tutti. Perfetto? No. Ma straordinariamente più maturo del previsto. È questo il vero shock.

Donne e Potere nei lavori ad alto reddito USA: l’Ascesa silenziosa che sta riscrivendo le regole del business

Il sorpasso non è ancora avvenuto, ma il rumore di fondo è inconfondibile: le donne stanno riscrivendo le regole del lavoro ad alto reddito negli Stati Uniti, e lo stanno facendo con una determinazione che trasuda più strategia che semplice emancipazione. Nel 2023, secondo l’analisi del Pew Research Center, il 46% dei manager americani era donna. Un numero che, messo così, sembra quasi scontato, ma che racconta un’evoluzione feroce se confrontato con il misero 29% del 1980. Restano un soffio sotto il 49% della forza lavoro complessiva femminile, ma la vera notizia è dove stanno puntando lo sguardo: i piani alti, quelli che contano e che pagano.

I Supercomputer AI più potenti del mondo: la nuova Guerra Fredda Digitale

Dimenticatevi i missili. Il nuovo arsenale globale si misura in supercomputer AI, e il campo di battaglia è un intreccio di GPU cluster brucianti megawatt e divoratori di miliardi. C’è qualcosa di quasi poetico, e insieme osceno, nell’immaginare questi colossi di silicio come i nuovi carri armati di un conflitto senza sangue ma spietato, dove il premio è il controllo della prossima intelligenza dominante. Chi vince, detta le regole. Chi perde, diventa cliente del vincitore.

Il re incontrastato oggi si chiama Colossus, ed è un mostro di proprietà di xAI. Duecentomila equivalenti di H100 Nvidia. Sì, avete letto bene. È come prendere un’intera popolazione di chip e costringerla a lavorare 24 ore su 24 per un unico scopo: addestrare cervelli artificiali che un giorno decideranno se abbiamo ancora bisogno di programmatori umani. Memphis, non la Silicon Valley, è la nuova capitale dell’intelligenza artificiale. Ironico, no? Una città più famosa per il blues e per Elvis che per la potenza di calcolo diventa l’epicentro del futuro digitale.

Robert Oppenheimer: I segreti che nessuno ti ha mai raccontato

Robert Oppenheimer fu molto più di un semplice nome sulla pagina della Storia: a Diciotto Anni era già una mente che anticipava cataclismi. A Cambridge, nel cuore degli anni Venti, l’uomo che sarebbe diventato il padre della bomba atomica tentò di avvelenare il suo tutor Patrick Blackett gettando una mela contaminata sulla sua scrivania. Non fu cianuro letale, ma una sostanza da laboratorio pensata per renderlo malato. In realtà la vicenda fu attenuata dal potere dei genitori di Oppenheimer, che evitarono l’espulsione e ottennero che lo studente fosse messo solo in prova e sottoposto a cure psichiatriche. La narrazione dell’episodio diventa simbolica: mente geniale e autodistruttiva in un solo gesto.

AI Action Plan Trump e il ritorno del realismo tecnologico: la comprensione della supply chain

Diciamolo chiaramente. Il fatto che l’Amministrazione Trump abbia partorito un “AI Action Plan” degno di questo nome segna un cambio di passo non indifferente. Finalmente, almeno secondo alcuni analisti, la Casa Bianca sembra essersi svegliata dal torpore burocratico che per anni ha soffocato qualsiasi visione strategica sull’intelligenza artificiale e, soprattutto, sulla catena di approvvigionamento dei semiconduttori. Chiunque segua il settore sa che senza chip, l’AI è solo fumo negli occhi.

Sse i chip sono dominati da una manciata di player globali come Nvidia, Intel e AMD, allora capire la filiera non è più un lusso, ma una questione di sopravvivenza industriale. “Pensiamo che il piano AI, unito ai continui tira e molla sui dazi dei semiconduttori nella guerra commerciale USA-Cina, indichi che l’amministrazione sta acquisendo una comprensione più profonda della supply chain”, ha dichiarato Tech Stock Pros, una delle voci più ascoltate tra gli investitori contrarian nel settore tecnologico.

Google Web Guide: L’AI che vuole organizzare il caos dei risultati di ricerca

Google ha deciso di mettere ordine nel caos che lui stesso ha creato. Lo chiama Web Guide, un esperimento in Search Labs che promette di trasformare la classica pagina dei risultati in qualcosa di molto più raffinato. Non più l’elenco infinito di link, ma una mappa mentale alimentata da intelligenza artificiale, con i contenuti raggruppati per “aspetti specifici” di una query. Suona sofisticato, quasi accademico, ma la verità è più cruda. Google ha capito che il vecchio modello di ricerca sta diventando obsoleto nell’era dei chatbot conversazionali e della SGE, e questa è la sua mossa per non restare indietro.

Trump, Epstein e il fantasma di Obama: il circo mediatico che prova a riscrivere la realtà

La Casa Bianca ha fatto il suo solito numero da circo, mercoledì, puntando i riflettori su un presunto “complotto traditore” orchestrato da Barack Obama contro Donald Trump, un’accusa talmente spettacolare da sembrare scritta da un fanatico di QAnon con un debole per i thriller di serie B. Il tempismo, naturalmente, perfetto. C’era bisogno di distogliere l’attenzione dal disastroso imbarazzo per la gestione del caso Epstein e quale miglior diversivo se non resuscitare la vecchia narrativa del colpo di stato contro il leader dell’America “vera”.

Pagina 15 di 57

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie