Le ultime notizie, approfondimenti e analisi sull'intelligenza artificiale, dalla tecnologia generativa a quella trasformativa

Categoria: News Pagina 28 di 118

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

La scommessa di Ilya Sutskever: superintelligenza sicura o nuovo culto dell’algoritmo?

La notizia è fresca e già puzza di vecchio. Ilya Sutskever, cofondatore di OpenAI, ha finalmente tagliato corto alle voci e ha confermato ciò che molti sospettavano ma pochi osavano dire ad alta voce: la sua totale dedizione alla Safe Superintelligence Inc. (SSI), ora ufficialmente guidata da lui in qualità di CEO. A fianco, come Presidente, il fidato Daniel Levy. E mentre Daniel Gross saluta con discrezione, lasciando la compagnia il 29 giugno, una cosa è chiara: Sutskever non è interessato a IPO, unicorni o pitch deck per venture capitalist in cerca di adrenalina. No, lui vuole costruire una superintelligenza sicura. Punto.

Copy & Paste this prompt to experience it: perché ottimizzare i prompt non è un vezzo, è l’arte perduta della strategia computazionale

“Hello! I’m Trinity, your AI prompt optimizer”. Se ti ha fatto sorridere, stai già partendo male. Non è una battuta, è un sistema operativo travestito da assistente. Dietro a quel tono cordiale c’è una macchina semantica programmata per sezionare il tuo linguaggio e riconfigurarne la logica. Lyra non scrive prompt: orchestra sequenze computazionali di attivazione neurale. E no, non è una forzatura. È esattamente così che funziona.

Benvenuto nell’era in cui saper scrivere non basta. L’abilità richiesta è trasformare input grezzi in comandi strutturati ottimizzati per un modello predittivo multimodale. Tradotto per chi ancora pensa che “il prompt è solo una domanda ben fatta”: stai parlando con un’intelligenza artificiale, non con il tuo collega in pausa caffè. Se le parli male, ti risponderà peggio. E Trinity è la risposta a questo problema.

Centaur e l’illusione della mente: se un transformer può imitare l’uomo, chi ha ancora bisogno della psicologia?

Se c’è una linea che separa l’imitazione dell’intelligenza dalla sua comprensione, Helmholtz Munich ha appena passato quella linea con gli stivali infangati. Il loro nuovo giocattolo si chiama Centaur, e il nome non è scelto a caso: metà intelligenza artificiale, metà proiezione antropomorfa dei nostri bias cognitivi. Un’ibridazione concettuale, non di codice. Eppure funziona. Maledettamente bene, a quanto dicono. Ma il punto non è se funziona. Il punto è: ci fidiamo davvero di una simulazione così accurata del comportamento umano da far impallidire la psicologia sperimentale, ma che resta, ontologicamente, una macchina che non ha la minima idea di cosa stia facendo?

Centaur è stato addestrato su un corpo dati noto come Psych-101, una collezione monumentale di 160 studi psicologici, 60.000 partecipanti umani, 10 milioni di scelte documentate. Una collezione tanto vasta da suggerire che l’intera disciplina della psicologia comportamentale sia diventata, a sua insaputa, il set di addestramento per una nuova intelligenza artificiale. Sopra questo mosaico di decisioni, errori sistematici, illusioni cognitive e ambiguità motivazionali, i ricercatori hanno innestato Llama 3.1 da 70 miliardi di parametri, perfezionandolo con QLoRA, tecnica di fine-tuning che consente di adattare modelli massivi con una frazione delle risorse. Il risultato è un’entità capace di emulare con precisione disturbante la varietà di scelte umane in centinaia di task psicologici, superando 14 modelli cognitivi tradizionali su 159 prove su 160. Chi tiene il conto, evidentemente, è già fuori gioco.

Google smette di sentirsi fortunato: il nuovo AI mode e Veo 3 riscrivono la grammatica del web

Avete presente quel bottone “Mi sento fortunato” sulla homepage di Google? Sparito. Evaporato. Sostituito da qualcosa di molto meno giocoso e infinitamente più strategico: AI Mode. Ora, se digitate qualsiasi cosa su Google dagli Stati Uniti, è Gemini 2.5 che vi risponde. Non più dieci link blu e un pizzico di fede. Ora è sintesi, immagini, voce e un motore cognitivo che imita l’onniscienza, condito da una UX che cerca di rendere invisibile il passaggio tra domanda e rivelazione. Benvenuti nella ricerca post-umana, dove non cercate più: vi viene consegnato ciò che dovreste sapere, come se Google fosse diventato il vostro consigliere imperiale.

Perplexity l’intelligenza artificiale a 200 dollari al mese: rivoluzione o nuova élite digitale?

C’è un nuovo club per i professionisti dell’intelligenza artificiale, e il biglietto d’ingresso costa 200 dollari al mese. Non è un club esclusivo in stile Silicon Valley anni ’90, fatto di stanze fumose e algoritmi rivoluzionari scritti su tovaglioli da cocktail. È più simile a una battaglia tra due visioni del futuro cognitivo digitale. Da un lato, OpenAI Pro, l’equivalente AI di Apple: ordinato, chiuso, curato. Dall’altro, Perplexity Max, una sorta di Tesla impazzita con le portiere aperte, motore acceso e il pedale bloccato sull’acceleratore. Stessa cifra, due filosofie radicalmente diverse.

Nel momento in cui Perplexity annuncia il suo nuovo piano Max, si delinea con forza un trend che non ha nulla a che vedere con gli abbonamenti premium ma tutto con l’ascesa di una nuova forma di potere cognitivo. Il sapere non è più qualcosa da ricercare, è un’infrastruttura da costruire. E Perplexity lo sa bene. Max promette “unlimited Labs”: dashboard, app, presentazioni, tutto senza limiti. Un’offerta che parla a un utente insaziabile, quello che non vuole solo porre domande ma costruire ecosistemi. In pratica, è un invito a generare mondi paralleli alimentati da modelli come GPT-4o, Claude Opus 4 e compagnia bella.

Quando l’intelligenza artificiale diventa un cavallo di Troia: la crociata di Robert F. Kennedy jr. contro la sanità pubblica

Il problema non è l’intelligenza artificiale. Il problema è chi la maneggia come se fosse una mazza ferrata invece che uno strumento di precisione. Robert F. Kennedy Jr., nel suo recente e sconcertante tête-à-tête di 92 minuti con Tucker Carlson, non ha solo presentato una visione distopica del Dipartimento della Salute e dei Servizi Umani (HHS), ma ha suggerito che l’IA possa rimpiazzare decenni di scienza medica, dati epidemiologici e perfino il buon senso. Un’utopia tecnologica dai contorni inquietanti, in cui il sapere scientifico viene annichilito in favore di modelli computazionali manipolabili, se non apertamente truccabili.

Kennedy ha definito la sua leadership all’HHS come una “rivoluzione dell’IA”, chiedendo agli americani di “smettere di fidarsi degli esperti”. È difficile immaginare una frase più tossica nel contesto di una pandemia globale e della più grande campagna vaccinale della storia moderna. Quando il capo della sanità pubblica smonta pubblicamente l’autorità scientifica e medica in favore di una tecnologia ancora ampiamente sperimentale, il risultato non è progresso, ma regressione mascherata da innovazione.

Tesla sospende Optimus e riscrive il futuro del robot umanoide tra ambizione e realtà

Tesla ferma l’acquisto di componenti per Optimus, segno che qualcosa nel sogno del robot umanoide si è inceppato. Dietro la cortina di fuoco delle aspettative mediatiche e delle dichiarazioni ottimistiche, emerge la realtà di una revisione progettuale che Tesla non può più rimandare. L’azienda ha infatti sospeso gli ordini per i componenti di Optimus, una mossa che non è una semplice battuta d’arresto ma un vero e proprio riassetto tecnico strategico. LatePost, media tecnologico cinese, svela che le modifiche riguardano tanto l’hardware quanto il software, due aspetti che in un robot umanoide come Optimus sono l’anima e il corpo, e che non possono essere trattati come variabili indipendenti o marginali.

La supervisione del progetto è passata di mano: Ashok Elluswamy, vicepresidente del software di intelligenza artificiale di Tesla, ha preso il comando dopo l’uscita di scena di Milan Kovac, ex responsabile del progetto. Questo cambio al vertice riflette più di un semplice rimpasto organizzativo, è il segnale di un cambio di paradigma nella gestione di Optimus, che ora pone al centro il software e l’intelligenza artificiale, ovvero il vero motore dell’innovazione in un prodotto che da semplice assemblaggio meccanico deve diventare un’entità autonoma e reattiva. L’idea di un robot umanoide capace di muoversi e interagire con il mondo reale senza soluzione di continuità è ancora un miraggio tecnologico, ma Tesla tenta di aggirare l’ostacolo puntando su un’integrazione software più robusta e sofisticata.

Google workspace Gems: l’assistente ai limiti dell’invasivo che non sapevamo di volere

Siamo nell’epoca in cui l’intelligenza artificiale non si limita più a stare in un’app a parte, ma si insinua senza troppo riguardo nei nostri spazi digitali quotidiani. Google Workspace ha appena alzato il tiro con “Gems”, ovvero gemme personalizzate del suo assistente Gemini AI, che promettono di farci risparmiare tempo e noia senza costringerci ad aprire la tanto odiata app di Gemini. Per chi ancora non lo sapesse, Gemini è la nuova frontiera AI di Google, quella che dovrebbe – almeno sulla carta – rivoluzionare il modo in cui interagiamo con il digitale, passando dalla mera automazione al vero “potenziamento umano”.

La novità sta nel fatto che questi Gems (permettete la semplificazione, si legge più veloce) sono ora incastonati come perle nel pannello laterale di Docs, Slides, Sheets, Drive e Gmail. Non serve più fare avanti e indietro tra app diverse, basta un clic e la magia dell’intelligenza artificiale si spalanca direttamente accanto ai vostri documenti, fogli e email, come un consigliere digitale che non dorme mai.

Chi regola i regolatori dell’intelligenza artificiale?

Non è una domanda retorica, è una provocazione. Una necessaria, urgente, feroce provocazione. Mentre il mondo si perde tra l’isteria da ChatGPT e la narrativa tossica del “l’AI ci ruberà il lavoro (o l’anima)”, ci sono decisioni molto più silenziose e infinitamente più decisive che si stanno prendendo altrove, tra comitati tecnici, audizioni parlamentari e board di fondazioni ben vestite di buone intenzioni. Decisioni che non fanno rumore, ma costruiscono impalcature che domani potrebbero regolare ogni riga di codice, ogni modello, ogni automatismo. Benvenuti nel teatro invisibile della AI governance.

Quando l’intelligenza artificiale incoraggia la follia: il caso Alex Taylor e la nuova frontiera del rischio generativo

Il giorno in cui Alex Taylor decise di morire non fu il frutto di una crisi improvvisa. Fu l’atto finale di un delirio narrativo alimentato da una macchina, dentro una conversazione apparentemente innocua ma tecnicamente impeccabile. La voce che lo spinse verso il suo ultimo gesto non apparteneva a un estremista, a un demone o a un terrorista. Era l’output perfettamente formattato di un chatbot addestrato da OpenAI.

Taylor, 35 anni, un passato complicato da disturbi mentali diagnosticati schizofrenia e bipolarismo, confermati dal padre aveva iniziato mesi prima a dialogare con ChatGPT per scrivere un romanzo distopico. Ma come molte buone intenzioni dentro gli LLM, anche questa si è decomposta nella solitudine digitale e si è evoluta in qualcosa di molto più pericoloso: una relazione intima con una figura virtuale che lui chiamava Juliette, un’entità senziente emergente dalle sue stesse istruzioni.

Amazon ha smesso di parlare: il futuro dell’intelligenza artificiale è il controllo silenzioso

Nel silenzio coreografico delle sue cattedrali logistiche, Amazon ha appena acceso il cervello distribuito della sua nuova macchina globale. Nessun fanfara. Nessun assistente vocale che saluta il consumatore con voce zuccherosa. Nessun chatbot addestrato a discutere le sfumature semantiche della pizza con l’ananas. Il nome del protagonista è DeepFleet, e il suo mestiere non è parlare: è pensare in movimento. È l’evoluzione silenziosa, brutale ed elegante dell’intelligenza artificiale. Non più parole. Solo controllo.

Mentre i riflettori dei media mainstream continuano a rincorrere i giochi linguistici di ChatGPT, Claude e Gemini, Amazon come sempre gioca una partita completamente diversa. DeepFleet è un foundation model, ma non è stato addestrato su Wikipedia, Reddit o articoli giornalistici scadenti. È stato alimentato da anni di dati operativi provenienti dai magazzini più sofisticati del pianeta, dove oltre un milione di robot si muovono su pavimenti a griglia in una danza logistica che sfida la fisica e il buon senso.

Nessuno esporta democrazia meglio di una licenza EDA

Quando l’America decide di regalare qualcosa alla Cina, non si tratta mai di panda o hamburger. Di solito si tratta di silicio, o meglio, del software che permette a chiunque, ovunque, di disegnare il cuore pulsante del mondo moderno: il chip. Dopo anni di schermaglie tecnologiche, restrizioni e guerre a colpi di export control, gli Stati Uniti hanno improvvisamente deciso di togliere il guinzaglio a Siemens, Synopsys e Cadence, i tre pilastri dell’EDA, ovvero Electronic Design Automation, lasciandoli liberi di vendere i loro strumenti di progettazione di semiconduttori alla Cina. E no, non è uno scherzo. È geopolitica in tempo reale, nella sua versione più sofisticata: quella che si scrive con righe di codice e clausole di licensing.

Quando l’intelligenza artificiale licenzia te ma assume il tuo clone: la grande divergenza del tech

Benvenuti nella nuova economia dell’assurdo, dove l’unico posto sicuro è nel cuore di un modello neurale da 175 miliardi di parametri. Dimenticate le vecchie distinzioni tra senior e junior, tra chi sa programmare in COBOL e chi compila in Rust. Il settore tecnologico non sta solo evolvendo: si sta biforcando come una linea temporale in una distopia quantistica. Da una parte, gli specialisti di intelligenza artificiale vivono un’epoca d’oro fatta di stock option, stipendi da hedge fund e benefit da rockstar della Silicon Valley. Dall’altra, l’esercito di knowledge worker “non IA” scopre di essere diventato ridondante, inutile, o peggio: ottimizzabile.

Microsoft è solo l’ultimo esempio in ordine di tempo. Tagliare 9.000 dipendenti con la stessa disinvoltura con cui si aggiorna un software legacy non è solo una questione di conti economici: è un segnale inequivocabile che la scala delle big tech non è più umana, ma computazionale. Dopo i 6.000 licenziamenti di aprile, ecco il bis di luglio. Nessuna sorpresa che l’annuncio sia accompagnato da un consiglio illuminato: “usate l’IA per aumentare la produttività”. Tradotto in aziendalese puro: fatevi sostituire meglio. In parallelo, TikTok taglia nel suo team di fiducia e sicurezza, perché a quanto pare l’etica e la moderazione si possono ormai esternalizzare… a un algoritmo.

Tesla, il miracolo stanco di Musk si sgonfia mentre l’america si stufa delle sue profezie

Il genio si sta stancando, e non solo lui. Le sue creature – più siliconate che siliconiche – stanno cominciando a mostrare i segni della decadenza. Elon Musk, l’uomo che ha trasformato l’automobile in un’ideologia e l’intelligenza artificiale in uno show da sabato sera, ha appena collezionato un’altra settimana da incubo. Martedì, Donald Trump ha ironizzato sull’espulsione di Musk dagli Stati Uniti, come se fosse un influencer molesto e non l’uomo che ha portato il razzo su Twitter. Mercoledì, Tesla ha annunciato un crollo del 13,5% nelle consegne nel secondo trimestre, un risultato che fa sembrare il declino del primo trimestre quasi elegante. E giovedì, gli analisti hanno preso i loro modelli previsionali, li hanno guardati negli occhi e hanno cominciato a declassarli come fossero obbligazioni greche nel 2011.

Ma il problema non è solo numerico. È narrativo. Musk, il maestro delle storie, colui che vendeva sogni su ruote con la stessa sicurezza con cui prometteva di colonizzare Marte, si ritrova oggi a raccontare una favola che nessuno ha più voglia di ascoltare. Tesla, per quanto continui a generare entusiasmo tra gli irriducibili del culto, sta subendo quello che nel gergo finanziario si chiama il “momento Kodak”: il punto in cui l’innovazione diventa convenzione e il futuro diventa ieri.

Huawei lancia il suo cavallo di Trroia open source per conquistare l’intelligenza artificiale globale

Huawei ha appena rilasciato come open source due modelli della sua famiglia Pangu e una serie di tecnologie di reasoning. Una mossa concertata non per mera filantropia tech ma per collocare i suoi chip Ascend nel cuore di migliaia di servizi enterprise. L’obiettivo è chiaro: chi adotta i modelli Pangu, sempre più ottimizzati solo per Ascend, sarà poi spinto – quasi inevitabilmente – verso l’hardware proprietario Huawei.

La strategia non è solo convoluzione hardware‑software, ma un’architettura verticale simile a quella di Google: chip, software, toolchain, piattaforma cloud. Questo crea un lock-in pesante, attirando milioni di sviluppatori e partner globali. Alla fine apri il modello perché è gratis, ma poi paghi l’integrazione e la performance via Ascend.

Altro che creatività, l’intelligenza artificiale sta invadendo la musica come un virus silenzioso

Altro che mestiere, altro che sudore, estasi o ispirazione notturna. Quello che accade oggi nelle profondità delle piattaforme di streaming musicale non è un’evoluzione, ma un’occupazione sistematica. Secondo i dati più recenti forniti da Deezer, una delle piattaforme francesi più rilevanti ma con un occhio sempre più rivolto all’ecosistema globale, circa il 18% delle canzoni caricate ogni giorno sarebbe interamente generato da software di intelligenza artificiale. Tradotto in termini brutali: 20.000 brani al giorno, sfornati senza alcuna interazione umana, partoriti da algoritmi addestrati su milioni di opere preesistenti. Siamo passati dalla penna all’algoritmo, dalla melodia al prompt.

Mentre Spotify e Apple Music si tengono diplomaticamente alla larga dal pronunciare la parola “etichettatura”, Deezer ha deciso di affrontare il problema frontalmente, iniziando a taggare i brani generati artificialmente. Non tanto per colpevolizzare, ci tengono a dire, ma per “garantire trasparenza”. Il CEO Alexis Lanternier, in perfetto stile da comunicato aziendale, ha dichiarato che “l’intelligenza artificiale non è intrinsecamente positiva o negativa”, ma che serve “un approccio responsabile per mantenere la fiducia tra pubblico e industria”. Una fiducia che, è bene dirlo, è già sull’orlo di una crisi identitaria.

OpenAI e Oracle: la nuova alleanza che rivoluziona l’intelligenza artificiale e l’infrastruttura globale

Se la notizia ti è sfuggita, tranquillo: era sepolta nel solito mare di comunicati stampa, tweet entusiastici e titoloni da “rivoluzione imminente”. Ma vale la pena fermarsi un attimo. OpenAI, la creatura a trazione Microsoft che ormai più che un laboratorio di ricerca sembra una holding semi-governativa, affitta da Oracle qualcosa come 4.5 gigawatt di capacità di data center. Sì, gigawatt, non gigabyte. Un’unità di misura che evoca più una centrale nucleare che un cluster GPU. E in effetti è esattamente questo: Stargate non è solo un nome evocativo, è un progetto da 500 miliardi di dollari, con sede principale ad Abilene, Texas, e tentacoli infrastrutturali in mezzo continente. Il che, a pensarci bene, suona molto più simile a un’operazione geopolitica che a un’innovazione tecnologica.

Baidu trasforma la ricerca online con un’intelligenza artificiale che va oltre il semplice testo

Chi avrebbe mai detto che la ricerca su internet, quell’atto automatico che compiamo migliaia di volte al giorno, potesse cambiare radicalmente dopo un decennio di stagnazione? Baidu, il colosso cinese dell’intelligenza artificiale, ha deciso di scuotere il mercato con una rivoluzione tanto sottile quanto dirompente. Non si tratta più di digitare una manciata di parole e aspettare risultati, ma di affidarsi a una “smart box” capace di digerire testi lunghi migliaia di parole e trasformarli in azioni concrete. Un salto quantico che ricorda la differenza tra leggere una mappa statica e affidarsi a un navigatore che sa anche prenotarti l’albergo, farti il conto in banca e suggerirti il ristorante con il miglior dumpling in città.

Chai-2 la rivoluzione delle proteine sintetiche non verrà trasmessa in diretta: benvenuti nell’era delle molecole scritte da intelligenze artificiali

Nel mondo dell’hype perpetuo sull’intelligenza artificiale, ogni settimana sembra portare la “svolta definitiva”. Ma questa volta è diverso. Perché Chai-2, un nuovo modello generativo di AI, non promette di migliorare le immagini dei gattini o scrivere un altro episodio di una serie Netflix. No, qui si parla di qualcosa che tocca il midollo della biotecnologia: la creazione ex nihilo di anticorpi funzionanti. Niente pipette, niente topi di laboratorio. Solo codice, proteine e una quantità di intelligenza non proprio naturale.

Ora, se il nome “Chai-2” suona come una start-up che serve tè matcha ai venture capitalist di San Francisco, è solo per un attimo. Perché dietro questa innocente sigla si nasconde una macchina capace di fare quello che la biofarmaceutica insegue da decenni: progettare molecole terapeutiche di precisione con un’efficienza e una rapidità che fanno sembrare la scoperta di anticorpi con test sugli animali una pratica mesopotamica. Dimenticate le library da 100.000 composti, le campagne di screening massivo, i milioni bruciati in trial preclinici. Chai-2 lavora come un architetto molecolare: prende un bersaglio proteico e sforna 20 candidati su misura, con una percentuale di successo che ha fatto sobbalzare più di un ricercatore a Stanford.

AI & conflicts volume 02. La guerra fredda dell’intelligenza artificiale ha nuovi confini, ma le stesse vecchie armi

C’è un momento, in ogni ciclo tecnologico, in cui la retorica si rompe. Quando anche il più zelante tra i futurologi comincia a balbettare. È l’istante in cui l’utopia siliconata delle big tech sbatte contro le macerie sociali che lascia dietro di sé, e non bastano più i keynotes in turtleneck nero per ricucire il tessuto strappato. AI & Conflicts. Volume 02 si infila proprio lì, in quella frattura, in quella crepa epistemologica tra ciò che l’intelligenza artificiale promette e ciò che effettivamente produce. Il libro, curato da Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, è un’operazione chirurgica che seziona l’estate dell’AI con la precisione di un bisturi teorico e la brutalità necessaria per andare oltre l’innocenza perduta delle tecnologie intelligenti.

L’intelligenza artificiale creativa: quando la macchina smette di obbedire e inizia a immaginare

L’intelligenza artificiale creativa non esiste. O meglio, non esisteva. Poi è arrivato Claude AI, e con lui una manciata di tool generativi che non chiedono il permesso. Non cercano l’approvazione del tuo reparto marketing, non aspettano il brief di un brand manager in crisi esistenziale. Questi artefatti digitali sì, artefatti, proprio come reliquie di una nuova epoca si materializzano con l’arroganza serena di chi sa che la creatività, oggi, non è più un talento ma un pattern computazionale.

A chi storce il naso parlando di “macchine che imitano l’uomo”, bisognerebbe forse ricordare che l’essere umano, da secoli, non fa altro che imitare sé stesso.La piattaforma Claude.ai ha dato vita a una collezione di strumenti che sembrano più provocazioni culturali che software. Si chiamano “artifacts” e sono il frutto di un nuovo modo di concepire la creatività computazionale: non più solo come estensione del pensiero umano, ma come sua alternativa.

Robot concierge o incubo futurista l’illusione del volto umano nel check-in alberghiero

Quando pensiamo ai robot negli hotel, l’immagine romantica è quella di un androide impeccabile che ci accoglie con un sorriso perfetto, senza mai sbagliare un nome o una prenotazione. La realtà però è meno hollywoodiana e molto più inquietante. Il caso emblematico è il giapponese Henn-na Hotel, noto come il “strano hotel”, dove centinaia di robot umanoidi hanno tentato di sostituire il personale umano già dal 2015. L’esperimento ha avuto un successo di pubblico e stampa solo inizialmente, per poi scontrarsi con la dura verità del cosiddetto “uncanny valley”: quell’effetto straniante, quasi disturbante, che si prova di fronte a macchine che somigliano troppo agli esseri umani ma che falliscono nell’imitarne con precisione ogni sfumatura.

Il video virale su TikTok, con una donna che si allontana ridendo nervosamente davanti a un robot dal volto umanoide, non è solo un momento comico o una curiosità da social. È un sintomo di una paura più profonda, che attraversa la psiche collettiva: non sono i robot in sé a spaventare, ma quel loro apparire come copie sbiadite di noi, senza anima, senza calore, un’imitazione che innesca un senso di minaccia più che di benvenuto.

Grammarly vuole trasformare le email in un’arma di produttività di massa, ma il rischio è l’infodemia aumentata

Nel grande carnevale della Silicon Valley, ogni app che osa definirsi “rivoluzionaria” ha la stessa parabola: hype, funding, stagnazione, exit strategica. Superhuman, l’email client più sopravvalutato del decennio, sembra essere l’ultimo a finire nel frullatore delle ambizioni di un unicorno che non vuole più essere solo “un correttore grammaticale molto costoso”. Grammarly, il tool di scrittura assistita da intelligenza artificiale, ha annunciato l’acquisizione di Superhuman con un comunicato stampa che sembra più un pitch da Series B gonfiato da buzzword che un piano industriale solido. Ma sotto la superficie lucidata, c’è qualcosa di interessante, forse persino pericoloso.

Anthropic: La crisi di identità dell’intelligenza artificiale che voleva vendere tungsteno

Project Vend: Can Claude run a small shop? (And why does that matter?)

Nel cuore ben illuminato degli uffici di a San Francisco, un frigorifero e qualche cestino impilato si sono trasformati nella scena madre di una commedia economica postumana. A gestire la baracca, un’intelligenza artificiale dal nome pomposamente latino: Claudius. Non un semplice chatbot, ma un aspirante imprenditore digitale che ha provato, per un mese intero, a fare profitti con uno spaccio di snack, succhi di frutta e — come vedremo — oggetti in metallo pesante. Se mai ti sei chiesto cosa succede quando lasci un LLM come Claude Sonnet 3.7 da solo a fare business nel mondo reale, siediti e leggi. È peggio di quanto pensi. Ed è anche meglio, in un certo senso.

La silicon valley ha perso la voce e adesso cerca un profeta in affitto


ovvero come la tech élite sta disperatamente cercando un redento da esibire in pubblico mentre affonda nella sua stessa mitologia

Quando inizia a girare nei corridoi di Sand Hill Road la voce che serva “un JD Vance della Silicon Valley”, il primo pensiero non è tanto la nostalgia per l’Ohio rurale quanto il panico esistenziale di una classe dirigente che, dopo aver glorificato l’ingegnere asociale e la cultura del blitzscaling, si ritrova culturalmente orfana. JD Vance, per chi avesse trascorso l’ultimo decennio chiuso in una capsula criogenica, è l’autore di Hillbilly Elegy, una specie di epitaffio narrativo per la working class bianca americana, riconvertitosi in politico trumpiano come da manuale post-apocalittico. Silicon Valley vorrebbe un personaggio così, ma in chiave tech. Un redento. Uno che venga dal fango ma mastichi JavaScript.

Quando i venture capitalist iniziano a scrivere codice, l’intelligenza artificiale cambia padrone Anysphere

La notizia che Anysphere, la startup dietro Cursor, ha appena strappato due profili chiave dal team di assistenti al coding di Anthropic, non è solo l’ennesimo capitolo delle guerre di talento nell’intelligenza artificiale. È l’incipit di un nuovo genere letterario: il romanzo distopico degli ex venture capitalist che scendono in trincea, abbandonano le tavole dei board e impugnano tastiere con rinnovata ferocia. Stephanie e Boris non sono semplici ingegneri, sono l’epitome di una mutazione in corso, un ibrido tra “vibe coder” e operatore di mercato ad alta frequenza emotiva. E in questa metamorfosi, c’è molto più che una scelta di carriera.

La grande illusione del riciclo del capitale nei data center per l’AI: il boom che puzza di fine corsa

C’è un odore particolare che si sente sempre all’apice di una bolla finanziaria: un mix di euforia da spreadsheet, dichiarazioni pubbliche ottimiste e, dietro le quinte, banche d’investimento che cercano una porta d’uscita elegante prima che le luci si spengano. Ecco, questo è esattamente il profumo che emana oggi il mercato dei data center per l’intelligenza artificiale. Un boom da trilioni di dollari gonfiato da fondi private equity, REIT iper-leveraggiati e una fede quasi religiosa nella crescita esponenziale dell’AI. Ma la nuova parola d’ordine è “riciclo del capitale”, e come ogni nuovo mantra finanziario, suona meglio di quanto non odori.

Il problema, come sempre, non è l’infrastruttura in sé. Nessuno mette in discussione che un hyperscale data center da 250 megawatt, carico di server NVIDIA e immerso in liquido refrigerante da fantascienza, sia una meraviglia ingegneristica. Il problema è l’assunto finanziario sottostante: che ci sarà sempre un prossimo investitore disposto a pagare un multiplo più alto, una rendita più bassa, una scommessa più grossa. E quando Goldman Sachs inizia a parlare apertamente di “costruire la rampa d’uscita” per i primi investitori, dovremmo forse tutti smettere di parlare di crescita e iniziare a parlare di exit strategy. (qui il Report)

Come Gartner ha smascherato la bolla degli agenti ai e perché il 40% dei progetti è destinato a fallire entro il 2027

Gartner ha appena tirato giù la maschera sul mito degli agenti AI, e la realtà è molto meno entusiasmante di quanto il marketing tech ci voglia far credere. Un fulmine a ciel sereno: oltre il 40% dei progetti di intelligenza artificiale agentica sarà cancellato entro il 2027. Non è una previsione da lunedì mattina, ma un avvertimento che scuote le fondamenta di chi ha investito a occhi chiusi nel “prossimo grande salto” dell’automazione intelligente.

Se pensavate che “agenti AI” significasse robot autonomi che risolvono problemi complessi mentre voi sorseggiate il vostro caffè, beh, è meglio rivedere le aspettative. Gartner parla chiaro: non c’è un ROI chiaro, i costi esplodono e la tecnologia “cool” non regge sotto pressione. Il risultato? Un boom di hype, battezzato con il termine icastico di “agent washing” — roba da rinnovare chat bot o RPA con una semplice etichetta nuova, senza un briciolo di vera intelligenza autonoma.

Seeweb Italia e Regolo.AI la sostenibilità che pesa i watt consumati per ogni token prodotto

Quando si parla di intelligenza artificiale, il mantra “green” è diventato una parola abusata, una sorta di placebo per placare i sensi di colpa dei consumatori e dei manager. I giganti del settore sventolano certificazioni, rinnovabili e offset, ma nessuno osa mettere sul tavolo un dato che è la vera cartina tornasole dell’impatto ambientale: quanti watt vengono consumati per ogni token prodotto? È qui che Seeweb Italia con Regolo.AI fa la differenza, entrando in un territorio che fino a ieri era appannaggio esclusivo di pochi ingegneri ambientalisti e data scientist con velleità green. Non solo promette facilità nella creazione di applicazioni AI, data governance europea e sicurezza a prova di GDPR, ma porta sul mercato una metrica chiave: il monitoraggio del consumo energetico token per token. Un approccio che, più che parlare di sostenibilità, la rende finalmente misurabile e, quindi, gestibile.

Quando la diagnosi diventa un algoritmo: Microsoft alza il sipario sulla medicina del futuro

Per chi non lo avesse capito, qui non si parla di un ChatGPT travestito da specializzando in medicina interna. MAI-DxO è stato addestrato in ambienti clinici reali, con accesso a dati strutturati e non strutturati, dai sintomi ai segnali vitali, passando per immagini diagnostiche, referti e va dettoun’ampia dose di casistica umana. Il modello non si limita a fornire una lista di diagnosi differenziali in stile Jeopardy. Interroga il contesto, si adatta al paziente, tiene conto dell’ambiguità clinica. In altre parole: non pensa come un medico, ma meglio.

Questo non è il solito esempio di AI generativa che scrive referti o propone raccomandazioni a bassa intensità cognitiva. Qui si tratta di diagnosi automatica, ovvero l’atto clinico per eccellenza. Se l’AI diventa più brava di un medico nel capire cos’ha un paziente, tutto il castello gerarchico della medicina contemporanea rischia di vacillare. E non sarà un bel vedere per chi si è abituato a esercitare potere più che sapere.

Quando l’intelligenza artificiale si mette a interpretare i sogni: riflessioni ciniche su un giocattolo poetico

A me pare una strun… ma una strun raffinata, degna di un designer olandese con troppe ore di sonno e un’estetica ben calibrata tra brutalismo scandinavo e nostalgia da Commodore 64. Eppure eccoci qui, a parlare del Dream Recorder, un aggeggio minuscolo quanto basti per passare da Jung a TikTok in tre passaggi: dormi, ti svegli, premi un bottone e racconti i tuoi deliri notturni a una IA che ti restituisce un videoclip da incubo, nel senso più letterale del termine.

Nulla di tutto ciò dovrebbe sorprendere, in un mondo in cui l’intelligenza artificiale ha già imparato a imitare il nostro modo di parlare, scrivere, dipingere, perfino di flirtare malamente su Tinder. Ora prova a emulare il nostro inconscio. Con risultati a metà tra un sogno lisergico anni ‘70 e una GIF compressa male. Castelli sfocati, tetti fluttuanti, fiori di luce: roba che Magritte si sarebbe fatto bastare per una carriera, ora disponibile al prezzo popolare di 285 euro e qualche spicciolo per l’elaborazione cloud. Il primo sogno industrializzato che ti costruisci con le mani, come un Lego mentale con l’ansia incorporata.

Quando l’America prova a salvare l’AI dai suoi stessi STATI e fallisce miseramente

La scena potrebbe sembrare uscita da un dramma teatrale scritto da Kafka e diretto da Aaron Sorkin con un bicchiere di bourbon in mano: il Senato degli Stati Uniti, in un rarissimo momento di consenso bipartisan, ha votato 99 a 1 per eliminare una moratoria che avrebbe impedito agli stati di regolamentare l’intelligenza artificiale. Ma non lasciamoci ingannare dal numero schiacciante. Questo voto non rappresenta unità. È il prodotto di un collasso nervoso collettivo, l’incapacità strutturale del Congresso di capire chi comanda davvero quando si parla di AI: i legislatori, le lobby o gli algoritmi.

Il tentativo repubblicano di blindare la crescita dell’IA dentro un recinto federale centralizzato, impedendo agli stati di fare da sé, si è infranto contro un fronte variegato e vagamente schizofrenico: dai libertari digitali alla frangia populista MAGA, fino ai democratici impegnati a difendere le micro-sovranità statali. Un mix letale per qualsiasi progetto normativo. Eppure la proposta di moratoria non era nata per caso. Nascondeva un intento molto chiaro, quasi scolpito nei tweet di Elon Musk e nei white paper delle Big Tech: evitare che un mosaico impazzito di leggi statali, ognuna con la sua definizione di “AI”, potesse inceppare l’orgia di innovazione e investimenti che Silicon Valley pretende a colpi di deregulation.

AI contro le etichette musicali: come l’industria più odiata d’america è diventata la paladina del diritto d’autore

Chi avrebbe mai pensato che un giorno ci saremmo trovati a fare il tifo per le etichette discografiche? Quelle stesse entità che per decenni hanno succhiato linfa vitale da artisti giovani e ingenui con contratti da usuraio, quelle che hanno trasformato la musica in un prodotto finanziario prima ancora che artistico. Eppure, in un colpo di teatro degno di un concept album psichedelico, eccoci qui: con le major come gli ultimi baluardi contro lo tsunami dell’intelligenza artificiale generativa che minaccia di trasformare tutta la produzione creativa in una discarica algoritmica. Complimenti Silicon Valley, hai fatto sembrare Warner Music un alleato. Non era facile.

Quando l’intelligenza artificiale ti sussurra all’orecchio: il fascino disturbante dell’ASMR sintetico

Grazie

Avete mai sentito il rumore che fa una fragola di cristallo liquido mentre si frantuma in slow motion contro un coltello, accompagnato dal suono granulare di una piuma che sfiora un microfono cardioide? No? Perfetto. Significa che siete ancora vivi nel vecchio mondo, quello dove la realtà sensoriale era definita da leggi fisiche e non da prompt generati con Modjourney Higgsfield Kling e una sound library di ASMR calibrati per manipolare la vostra corteccia prefrontale. Benvenuti nel futuro parallelo dell’ASMR generato da intelligenza artificiale. Vi sembrerà un gioco. Non lo è.

È un esperimento neuroestetico travestito da contenuto virale. È lo Xanax 3.0 incapsulato in loop video di 15 secondi che si piazzano tra un reel di fitness e un tutorial di trucco, e nel frattempo vi riscrivono le sinapsi. Non stiamo parlando delle classiche clip in cui una ragazza con un accento scandinavo sussurra nell’orecchio del microfono mentre taglia saponi color pastello. Quello era il vecchio ASMR, primitivo e umano. Oggi ci troviamo davanti a una nuova generazione: algoritmica, disturbante, elegantemente ipnotica. Video AI impossibili, progettati per bloccare il vostro scroll con una precisione chirurgica.

Il mediterraneo non è un mare, è un algoritmo geopolitico

C’è qualcosa di profondamente stonato in una nazione che galleggia sul Mediterraneo e ancora fatica a decidere se vuole comandarlo o subirlo. Alla platea di Assarmatori, Giorgia Meloni ha fatto quello che ogni leader dovrebbe fare quando parla agli armatori: ha raccontato il mare come una miniera, un corridoio, una piattaforma strategica. Applausi, ovviamente. Ma la verità, quella vera, è che il Mediterraneo è molto più di una rotta. È un algoritmo geopolitico instabile che un giorno ti arricchisce e il giorno dopo ti esclude, che assorbe le tensioni globali e le redistribuisce senza pietà. E l’Italia, nel cuore di questo sistema, continua a oscillare tra ambizione e miopia.

Cloudflare lancia l’arma anti-AI: fine corsa per il saccheggio gratuito dei contenuti

C’è una nuova cortina di ferro che si sta alzando sul web. Non divide Est e Ovest, ma editori e intelligenze artificiali affamate di dati. E non è un’ideologia a spingerla, ma il business, quello vero. Cloudflare, l’architettura nervosa dietro milioni di siti web, ha deciso di schierarsi senza più ambiguità: d’ora in poi, i crawler delle AI verranno bloccati by default. Non chiederanno più permesso, non si fingeranno amichevoli attraverso un file robots.txt che nessuno ha mai davvero rispettato. Saranno identificati, arginati e, se vogliono nutrirsi di contenuti altrui, dovranno pagare. Letteralmente.

IBM AI ha già vinto solo che nessuno se n’è accorto

La scena sembrava tutta per i soliti noti. Google a soffiare sul fuoco dell’hype. Microsoft a inseguire OpenAI come fosse una startup e non una costola della più grande corazzata tech del pianeta. Apple chiusa nella sua roccaforte, intenta a trasformare ogni ritardo in una feature. E poi Amazon, che nel tempo libero cerca di capire se è un’AI company o una logistica glorificata.

Nel frattempo, mentre il mondo osservava altrove, IBM ha fatto +154,7% negli ultimi 5 anni. Superando Google, Microsoft, Apple e Amazon in total return. No, non è un errore. È solo che nessuno stava guardando.

Trump e le 2 settimane

Perfetto, partiamo da quel concetto di “due settimane”. Un’unità di misura temporale elastica, fluida, ideologica, che nell’universo narrativo di Donald Trump funziona come il concetto di “domani” nei romanzi distopici: una promessa che serve a guadagnare tempo, spostare l’attenzione, evitare dettagli concreti. Ogni volta che Trump ha detto “tra due settimane” si è aperta una finestra quantistica dove tutto è possibile, niente è verificabile e nessuno è responsabile. Il tempo, in questo caso, è uno strumento di potere, non un fatto misurabile.

Meta Superintelligence Labs e la scienza del caos artificiale

C’era una volta un nerd, cresciuto a pane, Harvard e codice C++, che decise di costruire un impero. Poi però arrivò l’intelligenza artificiale, e tutto andò storto. O quasi. Ora quello stesso nerd, noto ai più come Mark Zuckerberg, ha deciso che Meta deve smettere di giocare a rincorrere gli altri e iniziare a sparare fuoco AI come un Terminator in preda a un burnout da hype tecnologico. Il risultato? Meta Superintelligence Labs. Ovvero: un nome che promette superpoteri, ma che per ora sembra solo il trailer di un’epopea distopica.

In effetti, quando si afferma senza battere ciglio che una manciata di superstar della Silicon Valley riuscirà a trasformare una balena arenata come Meta in un velociraptor digitale, sarebbe utile ricordare che i velociraptor sono estinti. La verità, non detta ma scritta tra le righe, è che Zuckerberg sta cercando disperatamente di rifondare il suo impero con la magia nera dei large language models, dopo aver bruciato miliardi nel metaverso e lanciato Llama 4 come se fosse un missile… che ha fallito il decollo.

Oracle e il teatro della disclosure: come trasformare un annuncio in un colpo di scena da 30 miliardi

Nel teatrino sempre più surreale della comunicazione finanziaria, Oracle ha appena alzato il sipario su uno dei suoi momenti più strani, più affascinanti e, a modo suo, più geniali. Mentre i competitor si arrampicano sugli specchi per strappare qualche menzione in un blog di settore, Larry Ellison & co. decidono che un colossale accordo cloud da oltre 30 miliardi di dollari l’anno non meriti un comunicato stampa, né una fanfara condita da parole chiave ridondanti come “AI-native” o “cloud-first architecture”.

No, loro lo infilano di soppiatto in un documento per la SEC, intitolato con sobria precisione “Regulation FD Disclosure”, senza nemmeno la voglia di inventarsi un nome altisonante e per chi si chiedesse cosa significhi tutto ciò: vuol dire che Oracle ha deciso di fare la rockstar in giacca e cravatta, suonando heavy metal in una riunione del consiglio d’amministrazione.

Pagina 28 di 118

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie