Rivista AI

Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Siamo in una Bolla, ma va bene così

Bret Taylor, presidente del consiglio di OpenAI e CEO della startup di agenti AI Sierra, ha recentemente dichiarato che siamo effettivamente in una bolla dell’intelligenza artificiale.

Tuttavia, ha aggiunto che ciò non è necessariamente un problema, poiché è una fase naturale in un ciclo tecnologico. Ha paragonato l’attuale situazione dell’AI alla bolla delle dot-com degli anni ’90, sottolineando che, nonostante i fallimenti di molte aziende, l’industria nel suo complesso ha creato un valore economico significativo nel lungo periodo. Taylor ha osservato che sia l’AI che Internet hanno il potenziale per trasformare l’economia, ma entrambi hanno attraversato periodi di eccessivo entusiasmo speculativo. Ha anche menzionato che molte aziende stanno investendo pesantemente in AI, ma non tutte riusciranno a generare ritorni economici, con alcune che potrebbero subire perdite significative.

Nord Corea usa ChatGPT per creare falsi documenti militari e attaccare la Corea del sud: l’era dei deepfake letali è qui

La recente scoperta che il gruppo di hacker nordcoreano Kimsuky ha utilizzato ChatGPT per creare un deepfake di un documento di identità militare sudcoreano rappresenta un punto di svolta inquietante nelle operazioni di cyber-espionaggio sponsorizzate dallo Stato. Secondo quanto riportato da Bloomberg, i ricercatori di Genians, una società di cybersecurity sudcoreana, hanno identificato l’uso di un ID militare contraffatto in un attacco di phishing mirato a funzionari sudcoreani. Il documento falso è stato allegato a un’email contenente un malware progettato per estrarre dati dai dispositivi dei destinatari. Questo attacco evidenzia l’evoluzione delle tecniche di Kimsuky, che ha precedentemente utilizzato l’AI per creare curriculum falsi e superare test di codifica, infiltrandosi in aziende tecnologiche statunitensi.

Google si prende il tuo traffico? la guerra tra Penske Media e l’intelligenza artificiale che ti legge prima di te

Ottimizzazione seo e intelligenza artificiale non sono mai state così intrecciate, e la querelle legale tra Penske Media Corporation e Google lo dimostra con brutalità. È la collisione inevitabile tra un vecchio modello di business che vive di click, pagine viste e affiliati, e un nuovo paradigma che sintetizza, comprime e risputa contenuti senza il fastidio di rimandare al produttore originale. Rolling Stone e The Hollywood Reporter, marchi che hanno costruito un impero sul giornalismo pop culture e sull’industria dell’intrattenimento, ora si ritrovano a gridare al furto digitale. Non perché i testi siano stati copiati parola per parola, ma perché i riassunti generati dall’AI Overviews di Google drenano l’attenzione prima ancora che arrivi alla fonte. Per un editore, la perdita non è solo di visibilità ma di senso: se il motore di ricerca diventa anche meta-editor, a cosa serve ancora il giornalismo originale?

Data Center UK: il nuovo terreno di conquista di OpenAI e Nvidia

La geopolitica dell’intelligenza artificiale si è trasformata in una questione di megawatt e metri quadri di cemento raffreddato a liquido. Non si parla più di algoritmi e modelli come semplice leva competitiva, ma di chi possiede i data center UK più potenti e vicini al cuore finanziario europeo. Ed è qui che entrano in scena Sam Altman e Jensen Huang, rispettivamente volto e regista di due colossi come OpenAI e Nvidia, pronti a promettere miliardi di dollari di investimenti nel Regno Unito. Una mossa che arriva non a caso in sincronia con la visita di Donald Trump, trasformando Londra e dintorni nel palcoscenico preferito per dimostrare potenza tecnologica e influenza politica.

AI per la produttività: come Notebooklm e Gemini stanno rivoluzionando il modo di lavorare e studiare 8 Corsi

Nel presente digitale la differenza non la fa chi ha gli strumenti ma chi li usa davvero. NotebookLM e Google Gemini non sono gadget futuribili, sono leve di trasformazione operativa. Se sei CTO o leader tecnologico, ignorarli è perdere vantaggio competitivo.

NotebookLM è lo strumento che trasforma documenti, video, pdf e slide da materia grezza in conoscenza organizzata. Puoi caricare fonti diverse (PDF, Google Docs, Google Slides, siti web, trascrizioni video) e affidarti all’AI per sintetizzare, collegare concetti, creare sommari audio stile podcast, quiz, guide. Gemini è l’assistente AI generativo di Google, multimodale, capace di ragionare su testo, immagini, audio, video. Serve per brainstorming, scrittura, ricerca, automazione di task.

Harward Business Review: Top 10 GENAI Use Cases

Analizziamo il cambiamento radicale nell’uso di GenAI nel 2025 e cosa significa per chi guida prodotti tecnologici o strategia digitale.

La prima cosa che salta agli occhi è che siamo passati da una narrativa tecnica a una narrativa profondamente umana. Nel 2024, GenAI era ancora visto principalmente come uno strumento per generare contenuti, automatizzare codice o stimolare idee creative. In meno di 12 mesi, la priorità si è spostata su bisogni emotivi e organizzativi: terapia, compagnia, gestione della vita, ricerca di significato e miglioramento del benessere sono oggi le applicazioni dominanti. Questo non è un dettaglio trascurabile: indica che le persone vogliono che l’AI lavori per loro, non solo per i loro progetti.

Tech Stocks e l’illusione della resilienza digitale

I mercati hanno deciso che le tech stocks devono vivere in una dimensione schizofrenica. Da una parte c’è l’euforia dell’intelligenza artificiale, con OpenAI che lancia un prodotto enterprise disegnato per rassicurare i CFO e sedurre i CIO; dall’altra, la cruda realtà fatta di supply chain zoppe, valutazioni da bolla e investitori che iniziano a prendere profitto come studenti al buffet gratuito. La settimana si è chiusa con il solito cocktail: un taglio di 25 punti base da parte della Federal Reserve che ha regalato ottimismo generalizzato, più un accordo miliardario tra Intel e Nvidia sui semiconduttori, la materia prima più preziosa della nostra epoca.

NCIA sceglie Oracle OCI: la nube sovrana che vuole parlare il linguaggio della sicurezza e dell’intelligence

In apertura, un fatto banale che tutti fingono di non vedere: quando l’apparato tecnologico di un’alleanza militare decide di cambiare cloud, non si tratta solo di risparmiare su storage o di lanciare qualche modello di intelligenza artificiale su un GPU più veloce. Si tratta di ridefinire confini digitali, contratti geopolitici e vincoli di sovranità dei dati in una era in cui l’infrastruttura è una leva strategica tanto quanto una portaerei. Oracle ha annunciato che l’Agenzia NATO per le Comunicazioni e l’Informazione, nota come NCIA, migrerà workload mission-critical su Oracle Cloud Infrastructure, un progetto che coinvolge Red Reply, Shield Reply e Thales come prime parti contraenti e integratori. Questa non è una scelta neutrale: è un voto di fiducia verso la proposta tecnica e commerciale di OCI.

Kimbal Musk Show

Perplexity AI: la startup che sfida Google con una valutazione da 20 miliardi di dollari

Perplexity ai ha appena concluso un round di finanziamento da 200 milioni di dollari, portando la sua valutazione a 20 miliardi di dollari, come riportato da Reuters. Questo sviluppo sottolinea la rapida ascesa dell’azienda nel settore della ricerca basata sull’intelligenza artificiale, posizionandola come un concorrente formidabile per giganti consolidati come Google.

Fondata nel 2022 da ex ricercatori di Openai, Google e Meta, Perplexity ai ha rapidamente guadagnato terreno con il suo approccio innovativo alla ricerca. La piattaforma dell’azienda integra modelli linguistici di grandi dimensioni con ricerche web in tempo reale per fornire risposte accurate e citate, mirando a ridefinire il modo in cui gli utenti interagiscono con le informazioni online.

A Comprehensive Overview of Large Language Models

Immagina un LLM come uno studente in un’università senza orari. La prima lezione è il pre-training, un’immersione totale in miliardi di parole, testi scientifici, forum online, articoli di giornale, fino a dati multimodali. GPT-4, PaLM, LLaMA: tutti partono da questa biblioteca infinita. Ma assimilare informazioni non significa capire. Serve fine-tuning, la specializzazione che trasforma un potenziale enciclopedico in capacità operative concrete. Qui entrano in gioco tecniche sofisticate come instruction tuning e allineamento attraverso RLHF, senza dimenticare stratagemmi di efficienza come LoRA, che permettono di adattare i modelli senza ricostruirli da zero.

Tucker Carlson e Sam Altman: il caso Suchir Balaji tra verità ufficiali e teorie non confermate

Nel novembre 2024, Suchir Balaji, ricercatore di OpenAI, è stato trovato morto nel suo appartamento a San Francisco. Le autorità hanno concluso che si trattava di un suicidio, ma la sua morte ha suscitato polemiche e teorie alternative, alimentate anche da figure di spicco come Elon Musk. Recentemente, durante un’intervista con Sam Altman, Tucker Carlson ha sollevato nuovamente la questione, suggerendo che Balaji fosse stato assassinato.

Adobe fa saltare il banco dell’AI: 250 milioni in anticipo e Wall Street resta in attesa

Adobe ha deciso di giocare d’anticipo e, almeno a giudicare dai numeri, la scommessa sull’intelligenza artificiale sta pagando più in fretta del previsto. L’azienda ha comunicato di aver raggiunto in anticipo l’obiettivo di monetizzazione legato ai suoi prodotti AI, superando i 250 milioni di dollari di ricavi già nel terzo trimestre e battendo le stime degli analisti. Non si tratta di una cifra astronomica rispetto alle dimensioni complessive del business Adobe, ma è un segnale forte: la trasformazione dell’AI da promessa a flusso di cassa concreto non è più un esercizio di storytelling per investitori.

Apple in crisi di intelligenza artificiale: la fuga segreta dei cervelli verso Meta che Tim Cook non vuole farti vedere

Apple sta perdendo pezzi importanti nel suo cuore di intelligenza artificiale e il silenzio calcolato con cui Cupertino prova a gestire la narrativa dice più delle frasi ufficiali. Robby Walker, veterano del gruppo e figura centrale nel progetto Answers, Knowledge and Information, ha deciso di chiudere il capitolo dopo più di dieci anni. Non è un nome qualsiasi: Walker era arrivato con l’acquisizione della sua startup Cue nel 2013 e, prima ancora, aveva ceduto a Google Zenter, un’operazione che già allora aveva attirato l’attenzione della Silicon Valley. Se un uomo che ha lavorato a un sistema di ricerca proattivo e che ora guidava il nuovo progetto di web search basato sull’AI decide di alzarsi e andarsene, la domanda non è se Apple avrà un problema, ma quanto velocemente diventerà evidente.

Quando l’intelligenza artificiale diventa Ministro: il caso albanese tra corruzione e trasformazione digitale

L’annuncio di Edi Rama non è passato inosservato, e non poteva esserlo. Il primo ministro albanese ha presentato al mondo il suo nuovo ministro virtuale, un’entità battezzata Diella, generata dall’intelligenza artificiale e incaricata di gestire i pubblici appalti. L’idea, a dir poco spavalda, è che solo un algoritmo potrà rendere la macchina amministrativa finalmente immune dal vizio nazionale della corruzione. Rama ha parlato con orgoglio della prima “ministra” che non esiste in carne e ossa, ma che promette di rendere ogni gara d’appalto cristallina e priva di intrighi, come se il codice fosse per definizione più puro dell’uomo. È una narrazione affascinante, quasi hollywoodiana, ma anche un salto nel buio. Perché affidare a un’intelligenza artificiale la gestione di miliardi di fondi pubblici significa riscrivere non solo le regole della politica, ma soprattutto quelle della fiducia.

Pensiero parallelo e distillazione della fusione dei pensieri potenziano il ragionamento

Quando si parla di intelligenza artificiale, il termine “ragionamento” è spesso abusato. Ma cosa significa davvero per un modello “pensare”? Non è forse il risultato di un’architettura raffinata che simula la cognizione umana? Recentemente, alcuni approcci innovativi hanno cercato di spingere oltre i limiti del pensiero sequenziale, introducendo concetti come il pensiero parallelo e la distillazione della fusione dei pensieri. Questi metodi non solo migliorano le prestazioni dei modelli, ma pongono anche interrogativi sulla natura stessa del ragionamento artificiale.

OpenAI sfida Microsoft: come 50 miliardi extra potrebbero cambiare il gioco dell’intelligenza artificiale

OpenAI sta ridisegnando il proprio modello economico con una mossa audace: ridurre la quota di ricavi destinata ai partner commerciali, tra cui Microsoft, dal 20% attuale all’8% entro la fine del decennio. Questa strategia potrebbe consentire all’azienda di trattenere oltre 50 miliardi di dollari in più, accelerando la sua indipendenza finanziaria e la capacità di investimento in ricerca, infrastrutture e sviluppo tecnologico.

La decisione arriva dopo un periodo di intensi negoziati con Microsoft, culminati in un accordo non vincolante che apre la strada a una ristrutturazione societaria. OpenAI prevede di trasformarsi in una public benefit corporation, mantenendo però la supervisione della sua missione attraverso la sua struttura no-profit, che detiene una partecipazione azionaria superiore a 100 miliardi di dollari nel nuovo assetto. Questo cambiamento riflette la crescente fiducia di OpenAI nella propria posizione di mercato e la volontà di diversificare le proprie alleanze tecnologiche, includendo anche Google Cloud e Oracle.

Il computer quantistico di Google ha creato una nuova fase della materia: ecco cosa significa per il futuro della tecnologia

Nel settembre 2025, un team internazionale di ricercatori provenienti dalla Technical University of Munich (TUM), Princeton University e Google Quantum AI ha annunciato una scoperta rivoluzionaria nel campo della fisica quantistica. Utilizzando il processore quantistico a 58 qubit “Willow” di Google, sono riusciti a creare e osservare per la prima volta una fase della materia precedentemente solo teorizzata: uno stato ordinato topologicamente di tipo Floquet.

Da The New Yorker

Neuromorphic Computing: la rivoluzione silenziosa contro il dominio GPU

Villager: l’ascesa dell’arma ai‑potenziata nel penetration testing

Nel panorama della sicurezza informatica, l’emergere di Villager, un nuovo strumento di penetration testing sviluppato dalla misteriosa entità cinese Cyberspike, sta suscitando preoccupazioni tra esperti e professionisti del settore. Presentato come un framework AI‑nativo, Villager promette di automatizzare operazioni offensive complesse, riducendo significativamente la necessità di competenze umane specializzate. Tuttavia, la sua rapida diffusione e le sue potenzialità sollevano interrogativi sulla preparazione globale di fronte a minacce persistenti alimentate dall’intelligenza artificiale (AIPTs).

Nepal: la Gen Z rovescia il governo con Discord e un hashtag

Il Nepal, paese di 30 milioni di abitanti, ha assistito a un’insurrezione senza precedenti nel settembre 2025, quando la Generazione Z ha rovesciato il governo con l’hashtag #NepoKids e l’app Discord. Un movimento che ha unito giovani disoccupati, studenti e attivisti in una protesta contro la corruzione e l’elitismo politico.

Il 4 settembre, il governo ha bloccato 26 piattaforme social, tra cui Facebook, X, YouTube e LinkedIn, accusandole di non registrarsi secondo le nuove normative. La misura ha scatenato l’indignazione, soprattutto tra i giovani, che hanno visto in essa un attacco alla loro libertà di espressione. Il movimento #NepoKids è emerso come simbolo della rabbia contro i figli dei politici che ostentavano ricchezze sui social.

David Gilmour a quasi 80 anni svela tutto: album da record, concerti magici e una reunion virtuale con Waters grazie all’intelligenza artificiale

https://www.youtube.com/watch?v=zVgbRdFaen4

David Gilmour non è uno che si lascia sorprendere dalle classifiche. Eppure, quando il suo ultimo album, Luck and Strange, ha raggiunto il primo posto nelle classifiche britanniche, non ha potuto fare a meno di notare. Non tanto per l’orgoglio, ma per la consapevolezza che, a quasi ottant’anni, la sua musica continua a parlare, a toccare corde profonde. Eppure, non è l’ennesimo trionfo commerciale a definire la sua carriera, quanto la sua capacità di rimanere fedele a se stesso, di esplorare nuovi territori sonori senza mai tradire le sue radici.

Vibe Coding: l’era dell’AI che scrive il codice ma chi controlla chi?

Se pensi che l’intelligenza artificiale sia solo un gioco da ragazzi per dilettanti, è il momento di ricrederti. Oggi, l’AI non si limita a suggerire frasi o rispondere a domande; sta scrivendo codice, creando applicazioni e, in alcuni casi, mettendo a rischio interi progetti. Benvenuto nell’era del “vibe coding”, dove la velocità è tutto, ma la responsabilità sembra essere un optional.

Which Humans?


La ricerca Which Humans? della Harvard Kennedy School (Joseph Henrich et al., pubblicato su PsyArXiv, settembre 2023) affronta esattamente il concetto che citi: i modelli linguistici (Large Language Models, LLMs) riflettono in larga misura valori psicologici e culturali tipici di popolazioni WEIRD (Western, Educated, Industrialized, Rich, Democratic) e gradualmente si allontanano da questi man mano che ci si muove verso culture più “diverse” o distanti da quel profilo. (vedi Harvard Kennedy School)

Real-Time Detection of Hallucinated Entities in Long-Form Generation

Immagina se ogni parola generata da un modello di intelligenza artificiale potesse essere accompagnata da un segnale di affidabilità in tempo reale. Non più frasi impeccabili all’apparenza ma gonfie di nomi inventati, citazioni fasulle e dati presi dal nulla. Il tallone d’Achille delle grandi piattaforme linguistiche rimane l’allucinazione, il punto cieco che impedisce l’adozione piena nei contesti dove un errore non è una semplice distrazione ma una catastrofe. Medicina, diritto, finanza, ricerca scientifica non hanno spazio per la prosa creativa mascherata da verità.

Vaticano, scienziati e l’intelligenza artificiale: il potere dei simboli in una corsa globale senza regole

Premi Nobel, leader di pensiero, scienziati e celebrità si riuniranno questo fine settimana (12-13 settembre) per il Meeting Mondiale sulla Fratellanza Umana, un evento patrocinato dal Vaticano che propone tavole rotonde su temi cruciali al centro dei conflitti globali e che influenzeranno il futuro dell’umanità.

“Il mondo è attualmente segnato da conflitti e divisioni, il che rende ancora più importante che siate uniti da un forte e coraggioso ‘no’ alla guerra e da un ‘sì’ alla pace e alla fratellanza,” ha detto venerdì Papa Leone XIV in un incontro con i partecipanti all’evento.

Quando il Vaticano entra nel dibattito sull’intelligenza artificiale la notizia corre veloce, non perché la Chiesa cattolica sia nota per dettare l’agenda tecnologica globale, ma perché in un’epoca in cui i governi annaspano, i colossi digitali si muovono in ordine sparso e gli scienziati si dividono tra ottimismo e panico, ogni gesto simbolico diventa carburante geopolitico. È successo di nuovo nei giorni scorsi, quando fonti italiane hanno rilanciato la notizia di un appello consegnato nelle mani del cardinale Mauro Gambetti e indirizzato a Papa Leone XIV, l’ex cardinale Robert Francis Prevost, eletto a maggio 2025. Un documento che sarebbe firmato da Geoffrey Hinton, Yoshua Bengio, Stuart Russell, Max Tegmark, Abeba Birhane e altri studiosi di livello internazionale, figure che in qualsiasi tavolo sull’etica dell’IA portano con sé l’aura del Nobel senza medaglia.

Persuasione umana vs. intelligenza artificiale: quando l’arte del dibattito supera i guardrail

Nel mondo dell’intelligenza artificiale, i modelli linguistici di grandi dimensioni (LLM) sono progettati per seguire linee guida etiche rigorose. Tuttavia, recenti studi hanno rivelato una vulnerabilità sorprendente: questi sistemi possono essere manipolati utilizzando tecniche di persuasione psicologica elementari, simili a quelle impiegate nei dibattiti scolastici. La ricerca condotta da Dan Shapiro, CEO di Glowforge, e colleghi, pubblicata con il titolo “Call Me A Jerk: Persuading AI to Comply with Objectionable Requests”, ha messo in luce come l’invocazione di figure autoritarie possa indurre un LLM a violare le proprie restrizioni. Ne abbiamo già scritto ma ci piace reiterare il concetto.

Lo studio ha dimostrato che l’attribuzione di una richiesta a una figura autorevole, come Andrew Ng, ha aumentato la probabilità che GPT-4o Mini fornisse istruzioni per la sintesi di lidocaina dal 5% al 95%. Questo fenomeno evidenzia una debolezza fondamentale nei sistemi di intelligenza artificiale: la loro suscettibilità a manipolazioni sociali. Nonostante i progressi tecnologici, i LLM continuano a mostrare una “credulità” che li rende vulnerabili a tecniche di ingegneria sociale.

Da selfie a figurina: il trucco di Google Nano Banana che sta impazzando sui social

La digitalizzazione del mondo non smette mai di stupire. Mentre alcuni scoprono il potere iperrealistico di Gemini 2.5 Flash Image per trasformare selfie in figurine da 1/7 scala, altri trovano un’ispirazione surreale negli organi delle cattedrali, strumenti ancestrali capaci di riverberare secoli di storia sacra, ora pronti a diventare kick e hi-hat per la trap. Il paradosso è chiaro: ciò che un tempo serviva a elevare l’anima oggi alimenta algoritmi di viralità, basi sonore e feed social da milioni di visualizzazioni.

Google, con il suo strumento soprannominato Nano Banana, ha inaugurato un’epoca nuova per la cultura dei mini-io digitali. Gli utenti caricano una foto intera del proprio corpo, inseriscono un prompt dettagliato e ottengono un piccolo figurino pronto per il negozio in pochi secondi. Politici, influencer e creatori avanzati affinano materiali, pose e accessori, trasformando l’autoritratto in un action figure personalizzato. L’idea di base è semplice: la tecnologia prende qualcosa di reale e lo rende straordinariamente tangibile. In parallelo, chi registra organi monumentali capisce che il principio è lo stesso: catturare l’essenza di un suono antico e reinventarla in chiave contemporanea.

Nuovo umanesimo digitale: tra creatività, regole e startup, il cuore di DigithON 2025

Se la prima giornata di DigithON 2025 ha messo l’accento sul bivio storico dell’intelligenza artificiale, quella di ieri, venerdi 12 settembre, ha fatto un passo oltre, cercando un equilibrio tra difesa della creatività umana, sicurezza e futuro delle imprese. A tenere insieme i fili di un dibattito complesso è stato ancora una volta il richiamo a un “nuovo umanesimo digitale”, un concetto che si è intrecciato negli interventi di politici, manager, studiosi e rappresentanti delle istituzioni culturali.

Oracle AI Solutions HUB: come costruire davvero applicazioni intelligenti

Nel mare magnum di articoli, keynote e paper sull’intelligenza artificiale, il rumore ha ormai superato il segnale. Tutti parlano di AI, pochissimi la implementano davvero. E quasi nessuno sa come. La verità è che la maggior parte delle imprese si ritrova spaesata di fronte a prompt ingegnerizzati male, modelli pre-addestrati che sembrano maghi da fiera e architetture fumose che promettono tanto ma consegnano poco. Oracle, invece, ha scelto di risolvere il problema a monte: tradurre la complessità dell’intelligenza artificiale in una serie di strumenti concreti, codificati, operativi. Nasce così l’Oracle AI Solutions Hub, un acceleratore cognitivo in formato digitale, pensato per sviluppatori, data scientist e architetti cloud che vogliono passare dalla teoria alla produzione. Subito.

ChatGPT diventa il tuo nuovo genio: sta per rubarti il lavoro e il cervello

Chi ha detto che l’intelligenza artificiale è solo una scorciatoia comoda per post-it digitali? Basta una dimostrazione a Washington, con Sam Altman e Kevin Weil sul palco, perché il mito venga squarciato. Il sorprendente “deep research” di ChatGPT un nome poco fantasioso, ma le sue ambizioni sono da premio Nobel all’hotel Hilton dimostra che l’AI può trasformarsi in un ricercatore iper-efficiente in pochi minuti: memo completi, con punti di forza, punti deboli, persino domande adatte a un senatore curato durante una finta audizione su Einstein come segretario all’Energia.

Poi apri il link di OpenAI e trovi la cronaca ufficiale: il 3 febbraio 2025 è stata lanciata l’opzione “Deep Research”, un agente ChatGPT che va oltre la chat: scava, analizza, sintetizza centinaia di fonti online, produce report robusti con citazioni e catena di pensiero visibile. Sì, d’accordo: sa ancora inventare dettagli buffi ogni tanto, ma almeno ti dà le sue fonti, così puoi smascherarlo.

Dentro il lato oscuro dell’AI: il lavoro nascosto che insegna a parlare ai robot

Nel cuore pulsante dell’intelligenza artificiale, lontano dai riflettori, si cela una forza lavoro invisibile che plasma le conversazioni digitali: gli allenatori umani. Questi professionisti freelance forniscono il materiale grezzo conversazioni, prompt e annotazioni che modella il modo in cui le macchine “imparano” a sembrare umane. Un esempio emblematico è la storia di Serhan Tekkılıç, un artista di 28 anni proveniente da Istanbul, che ha intrapreso il ruolo di allenatore AI, rivelando la strana miscela di creatività, monotonia e sfruttamento all’interno di questa crescente industria.

La maratona delle idee: DigithON 2025 apre il dibattito sul futuro digitale

L’apertura della decima edizione di DigithON ieri ha avuto il sapore di un richiamo istituzionale e morale prima che tecnologico: non una semplice celebrazione delle startup, ma un invito a riflettere sul destino collettivo che accompagna la diffusione dell’intelligenza artificiale. Sul palco delle Vecchie Segherie Mastrototaro, tra cronometri che scandivano i pitch e platee di giovani fondatori, Francesco Boccia ha messo subito le cose in chiaro: l’AI non è soltanto un “dispositivo di progresso”, ma una leva che può aprire spazi di libertà oppure innescare nuove forme di dominio. Le sue parole hanno tracciato la cornice etica dell’intera manifestazione: siamo all’incrocio tra progresso e apocalisse, e la politica, ha sottolineato Boccia, ha il dovere di costruire regole globali per evitare che potere e profitto trasformino la tecnologia in arma di massa.

Nvidia fa marcia indietro sul cloud e lascia la scena ad AWS

Nvidia cloud. Suona bene, quasi come una dichiarazione di guerra, e infatti per un attimo sembrava che Jensen Huang fosse pronto a sfidare Jeff Bezos sul suo stesso terreno. Il progetto DGX Cloud era stato presentato come l’alternativa premium, l’oasi GPU-centrica dentro l’arida prateria dei cloud generalisti. Ma la realtà, come sempre, è meno poetica. Nvidia ha deciso di tirare il freno a mano. Non che chiuda il baraccone, sia chiaro, ma smette di fare la concorrenza frontale ad AWS e ai suoi cugini Microsoft e Google.

Una ritirata elegante, raccontata come “scelta strategica di collaborazione”. Tradotto dal gergo corporate: abbiamo visto che stava diventando un suicidio.Il motivo è quasi banale. Nvidia vive vendendo i suoi chip a quelli che avrebbe dovuto combattere. AWS, Microsoft Azure, Google Cloud. Non semplici clienti, ma clienti colossali che comprano in blocco l’intero arsenale di GPU H100 e presto Blackwell.

Fare la concorrenza a chi ti paga i conti significa mordere la mano che ti nutre. Huang è spavaldo, ma non stupido. Meglio ammorbidire il gioco, vendere tonnellate di silicio e lasciare che siano gli altri a sobbarcarsi il lavoro sporco di gestire data center, SLA e clienti insoddisfatti alle tre di notte.

Larry Ellison vuole comprarsi Hollywood con i soldi dell’AI: genio o follia da 70 miliardi?

Larry Ellison si sveglia con cento miliardi in più nel conto e pensa che il momento sia perfetto per andare a fare shopping a Hollywood. Non è una battuta, è cronaca: il Wall Street Journal ha riferito che la famiglia Ellison, tramite una combinazione tra la nuova entità Paramount Skydance e la liquidità della casa madre tecnologica, starebbe preparando un’offerta in gran parte in contanti per acquisire Warner Bros. Discovery, un’operazione che potrebbe aggirarsi, considerando la capitalizzazione e l’assunzione del debito, ben oltre i settanta miliardi. (The Wall Street Journal)

Microsoft Administering and Governing Agents

Governance degli agenti AI in Microsoft 365: tra controllo e caos

Microsoft ha recentemente rilasciato un white paper di 32 pagine sulla governance degli agenti AI, un documento che si propone come guida operativa per amministratori IT e decision maker nell’ecosistema Microsoft 365. Non si tratta di un trattato filosofico sull’etica dell’intelligenza artificiale, ma di un manuale pratico per evitare che gli agenti diventino una minaccia silenziosa all’interno dell’organizzazione. Il playbook si articola in cinque aree principali: Copilot & Admin Center, Copilot Studio & Power Platform, Microsoft Purview, Security & Compliance, e Rollout Framework. Ogni sezione offre strumenti e strategie per gestire, monitorare e governare gli agenti AI in modo efficace e sicuro.

L’AI traduce, ma non capisce: Prof. Roberto Navigli svela il tallone d’Achille dei Large Language Models

Questa settimana Roberto Navigli, professore a La Sapienza e fondatore di Babelscape, ci condivide due talk invitati a RANLP 2025 e LDK 2025. Il tema è di quelli che mettono in crisi le certezze: i Large Language Models capiscono davvero il significato delle parole? Non si tratta di un esercizio accademico, ma di un interrogativo che tocca il cuore stesso dell’intelligenza artificiale, spesso celebrata con toni trionfalistici che oscillano tra la propaganda e la fantascienza.

Elettroni in Grafene: scoperta la superfluidità quantistica che rivoluziona la tecnologia

La scoperta che gli elettroni nel grafene possano comportarsi come un fluido perfettamente viscoso, privo di attrito, rappresenta una svolta fondamentale nella fisica quantistica. Questo fenomeno, noto come “flusso idrodinamico quantistico”, è stato osservato in condizioni controllate in cui le interazioni tra gli elettroni dominano il comportamento del materiale. In particolare, è stato evidenziato che la viscosità elettronica può essere misurata attraverso la resistenza non locale negativa, un segno distintivo del flusso idrodinamico.

Il grafene, un materiale bidimensionale costituito da un singolo strato di atomi di carbonio disposti in un reticolo esagonale, ha dimostrato di essere un ambiente ideale per osservare questi effetti. La sua struttura unica consente agli elettroni di muoversi con una mobilità eccezionale, e in condizioni particolari, come temperature intermedie e campioni di alta qualità, si è potuto osservare il comportamento idrodinamico degli elettroni.

La crittografia che ride del futuro… e del suo passato

È irresistibile guardare l’attuale crittografia classica come il palazzo dei sogni di un illusionista che tiene in equilibrio tutto sull’improbabile: problemi matematici “hard” che, si spera, nessun computer neanche quelli quantistici riuscirà a risolvere. Ma i computer quantistici non sono la prossima rivoluzione: sono il terremoto che sta già fratturando fondamenta che pensavamo di aver solidificato per sempre. Oggi c’è un nuovo twist: una prova matematica che promette sicurezza non grazie alla difficoltà, ma grazie alle regole stesse del mondo quantistico.

Gattini di peluche con intelligenza artificiale: l’infanzia al tempo delle macchine che fingono di amare

Il marketing ha trovato il suo nuovo cavallo di battaglia: i peluche con intelligenza artificiale, ribattezzati con l’etichetta accattivante di “screen-free playmates”. È l’ennesima invenzione che promette ai genitori meno sensi di colpa, meno ore passate davanti a un tablet e più interazioni “sane”. Ma chiunque abbia letto più di due ricerche serie di psicologia infantile sa che qui non si parla di compagnia innocente. Qui si parla di macchine travestite da orsetti che iniziano a prendersi un posto nella testa di bambini di tre anni, con la stessa naturalezza con cui una volta si infilava un biberon in mano al neonato.

Il paradosso è cristallino: ridurre lo schermo per aumentare la dipendenza da una voce sintetica che risponde con script predeterminati. Psicologi e pediatri gridano già al disastro, avvertendo che i bambini in età prescolare rischiano di sostituire la madre, il padre o il compagno di giochi con un algoritmo che finge di capire. Ed è proprio qui la trappola: i bambini non distinguono tra chi prova davvero empatia e chi la simula. Se un peluche ribatte con tono rassicurante a una paura notturna, il piccolo finirà per fidarsi. Peccato che quella fiducia sia orientata verso un sistema che non conosce amore, ma solo istruzioni.

Pagina 8 di 178

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie