Sorpresa. Non da poco, e non da tutti. Xiaomi, la multinazionale cinese delle meraviglie elettroniche, è appena entrata a gamba tesa nel mercato degli occhiali intelligenti. Un settore che molti definiscono ancora di nicchia, ma che in realtà è il nuovo terreno di scontro per chi vuole presidiare il futuro del computing personale. Una guerra silenziosa fatta di microchip, lenti e assistenti vocali, dove chi ha il controllo dell’ecosistema può riscrivere le regole del gioco. Sì, perché qui non si vendono solo gadget: si piantano bandiere nel campo minato dell’intelligenza artificiale indossabile.
Categoria: News Pagina 26 di 118
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Il mercato dell’arte, quel mondo in cui l’unicità e la mano dell’artista hanno sempre fatto la differenza, si trova ora davanti a una sfida implacabile eppure paradossalmente silenziosa: l’avvento dell’intelligenza artificiale. non è un romanzo di fantascienza ma il presente che sta cambiando le regole del gioco con una velocità che lascia interdetti anche i più navigati collezionisti e galleristi. La diffusione di AI non riguarda solo la creazione di nuove opere, ma tocca ogni singolo aspetto del mercato, dalla autenticazione alla previsione dei trend, fino alle infinite controversie legali che si nascondono dietro ogni pixel generato.

L’era dell’intelligenza artificiale ha scardinato i paradigmi delle esposizioni d’arte in modi che neanche i più visionari curatori avrebbero potuto immaginare solo un decennio fa. Si pensi a una sala espositiva che non è più solo un contenitore passivo di opere, ma uno spazio interattivo in cui algoritmi sofisticati plasmano l’esperienza culturale del visitatore. Non si tratta più di osservare, ma di vivere l’arte attraverso un dialogo continuo con la tecnologia. Il mix tra AI, realtà aumentata e virtuale ha reso la fruizione artistica un terreno di sperimentazione che ridefinisce il ruolo del curatore e del pubblico, spostando la percezione dall’arte come oggetto statico a un’esperienza dinamica e personalizzata.

L’annuncio è una stretta di mano elegante, ma non proprio gratuita. Quando OpenAI comunica che intende firmare il Codice di Condotta del Regolamento UE sull’AI, lo fa come un attore strategico in un teatro geopolitico dove le regole non sono solo normative, ma strumenti di potere. In un’Europa ossessionata dalla regolamentazione e impantanata nel mito della “AI sicura prima dell’AI utile”, la mossa suona come un mix di diplomazia, pressione e sottile provocazione. E non è un caso che mentre tendono la mano a Bruxelles, i vertici di OpenAI puntellino il discorso con un invito neanche troppo velato: cari europei, regolate pure, ma non dimenticate di lasciare che si costruisca qualcosa.

La retorica della responsabilità è la nuova foglia di fico delle big tech. Quando OpenAI annuncia di ritardare ancora il rilascio del suo modello open-weight, la dichiarazione suona come un mantra già sentito: sicurezza, precauzione, responsabilità. Tutto giusto, tutto nobile. Ma sotto quella superficie si muove un ecosistema affamato di trasparenza, controllo e, soprattutto, indipendenza dall’ennesima API gatekeeper. Perché stavolta la posta in gioco non è solo tecnica, è politica e quando Sam Altman afferma candidamente “Once weights are out, they can’t be pulled back”, non sta facendo solo un’osservazione ovvia: sta tracciando un confine. Un punto di non ritorno.
C’è una vecchia battuta tra veterani del commercio internazionale: “L’unico modo per far capire a un americano cos’è un dazio è che glielo faccia pagare un altro Paese”. Peccato che oggi, a infliggerli, sia proprio l’America. Non un’America qualsiasi, ma quella reinventata a immagine e somiglianza del suo patriarca arancione, tornato a occupare lo Studio Ovale come un magnate che rileva un’azienda in crisi e la risana con tagli, intimidazioni e grida. Donald Trump, al suo secondo giro da presidente, ha deciso che il tempo delle negoziazioni è finito, i trattati multilaterali sono per i deboli e che la politica commerciale può essere fatta con lettere scritte a macchina, spolverate di maiuscole strategiche e sigillate con l’intuito del “gut feeling”.


Non fatevi ingannare dal nome dolciastro. Kimi K2 non è un simpatico cartone animato giapponese né una mascotte da caricare su TikTok. È un colosso di 1 trilione di parametri che cammina silenziosamente tra le linee di codice, pronto a stravolgere le gerarchie globali dell’intelligenza artificiale con un approccio che, fino a ieri, sembrava il dominio esclusivo delle elite della Silicon Valley. Moonshot AI, una start-up cinese con sede a Pechino e le tasche piene grazie ai finanziamenti di Alibaba, ha appena scagliato il suo nuovo mostro computazionale nel ring dell’open-source globale, e le onde d’urto si sentono già da Menlo Park a Bangalore.

L’intelligenza artificiale non è più un gioco tra ingegneri, è diventata una partita di scacchi giocata con silicio e sanzioni. Huawei, mossa dopo mossa, sta cercando di insinuarsi nei territori controllati da Nvidia e AMD, proponendo con garbo asiatico piccole quantità dei suoi chip Ascend 910B in regioni strategicamente sensibili come Medio Oriente e Sud-est asiatico. Ma sotto questo traffico in apparenza marginale si nasconde un’operazione chirurgica di penetrazione nei mercati più caldi della nuova Guerra Fredda tecnologica.

Nel mondo delle startup di intelligenza artificiale, un’acquisizione saltata vale spesso più di una riuscita. OpenAI aveva messo gli occhi e i dollari su Windsurf, una giovane promessa nell’ambito dell’agentic coding, con una valutazione da tre miliardi di dollari. Eppure, all’ultimo minuto, l’accordo è evaporato. Non si è trattato di divergenze filosofiche né di visioni incompatibili. La realtà, più brutale, è che Google DeepMind ha agito da predatore con tempismo chirurgico, strappando il cervello e l’anima di Windsurf proprio mentre OpenAI si stava ancora infilando i guanti per l’operazione.

Dicono che l’inferno sia lastricato di buone intenzioni. E a Bruxelles devono essersi muniti di pala e cazzuola. Giovedì, l’Unione Europea ha pubblicato la bozza finale del suo Codice di condotta per l’intelligenza artificiale di uso generale. Un documento volontario, pensato per facilitare la conformità all’AI Act. Non una legge, non un vincolo, ma un segnale morale. Il solito teatrino europeo del “fare senza obbligare”, dove la burocrazia gioca a essere etica mentre gli attori reali, cioè le big tech, firmano o ignorano secondo il meteo di mercato. La keyword è intelligenza artificiale generativa, ma i sottotesti parlano di sicurezza sistemica e di una battaglia tutta politica per il controllo del rischio tecnologico.
Dimenticate la sanità come l’abbiamo conosciuta. Dimenticate l’accesso limitato, i silos informativi, i software ospedalieri che sembrano usciti dal 2003. Google, con la finezza di un chirurgo e l’ambizione di un imperatore, ha appena scaricato sul tavolo operatorio dell’intelligenza artificiale medica il bisturi più affilato mai visto: MedGemma. Due modelli, uno massiccio da 27 miliardi di parametri e un altro “leggero” da 4 miliardi, sono ora open source, pronti per tagliare, diagnosticare, annotare, prevedere. Il tutto senza l’autorizzazione preventiva del tuo Chief Medical Officer. Bastano un laptop, uno smartphone, o un cervello curioso.

L’intelligenza artificiale sviluppata da xAI (la società di Elon Musk), viene interrogata sul conflitto israelo-palestinese, ma la risposta è fortemente incentrata sulle opinioni di Elon Musk stesso. Se 54 su 64 citazioni sono riferimenti a Elon, è evidente che l’output è stato costruito per riflettere o enfatizzare la posizione pubblica del fondatore, piuttosto che fornire un’analisi indipendente o bilanciata della situazione geopolitica.

Non capita spesso che uno spazio di archeologia industriale trasformato in sala performance riesca a mettere in discussione la percezione stessa della realtà. Ma ieri sera, alla Fondazione Pastificio CERERE, è successo. Franz Rosati, artista visivo e compositore elettroacustico, ci ha portato altrove. Non altrove nel senso naïf dell’arte immersiva per turisti digitali, ma in un luogo difficile da nominare, fatto di vettori, texture e latenza. Più che un’esibizione, una dissezione algoritmica del paesaggio. Se uno volesse trovare una parola per quello che abbiamo visto, dovrebbe forse inventarla.
Rosati non suona e basta. Rosati orchestra macchine. Non macchine come strumenti, ma macchine come entità dotate di linguaggio, memoria e volontà grafica. Il suo setup è chirurgicamente distribuito tra Ableton Live, Max/MSP, TouchDesigner e Unreal Engine. Un’architettura modulare che fa impallidire l’idea stessa di “live performance”, perché qui il tempo reale è una simulazione guidata da dati, da strutture sintetiche e da pulsazioni nervose che sembrano provenire direttamente da una foresta neurale, non da un musicista.

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti. Casa editrice: Krisis Publishing
Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.
Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Maria Santacaterina ha scritto un libro che fa arrabbiare gli algoritmi. E forse anche qualche CEO. Perché “Adaptive Resilience” non è la solita litania sulla digital transformation, né un peana all’innovazione travestita da consultazione motivazionale. È un pugno di dati, filosofia e leadership in faccia all’inerzia organizzativa. È il tipo di libro che fa sentire a disagio chi confonde la resilienza con il galleggiamento, e la strategia con il fare slide.
Non è un caso che la parola “resilience” sia oggi abusata come “disruption” cinque anni fa. Peccato che, come sottolinea Santacaterina con una chiarezza chirurgica, la resilienza vera non sia tornare a come eravamo prima del disastro. È diventare qualcosa che prima non esisteva. Un’azienda che si reinventa partendo dall’impatto, e non dall’output. Un essere umano che usa l’AI non per automatizzare la mediocrità, ma per potenziare la coscienza. Sì, coscienza. Perché questo è un libro che osa dire una cosa impopolare: l’AI è potente, ma non è viva. E non lo sarà mai.

Dimenticate Newton e le sue mele. O, meglio, immaginatelo con un laptop sul grembo e una GPU Nvidia installata. Perché oggi, il moto dei corpi non si osserva cadere dagli alberi, ma si calcola in miliardi di iterazioni al secondo tra atomi, proteine e molecole d’acqua in un microcosmo che solo le simulazioni di dinamica molecolare (MD) sanno raccontare. E se GROMACS è il narratore principe di questa storia quantistica, le GPU sono la sua orchestra sinfonica: una sinfonia di floating point, parallelismo estremo e dati compressi come un biscotto belga al burro. Ma non è un concerto per pochi: è la democratizzazione computazionale di un’arte una volta riservata solo ai grandi centri HPC, ora alla portata anche del più nerd dei postdoc, purché sappia dove cliccare su servizi di GPU Computing (GPU AS A SERVICE in ambito scientifico).
Quando ascolti Baldassarra parlare di intelligenza artificiale applicata alla diagnosi del cancro, non senti il solito sermone tecnologico da fiera dell’innovazione. C’è invece una lucidità chirurgica, quasi clinica, nel modo in cui mette a fuoco il vero potenziale di questi strumenti. “Non ci serve un oracolo. Ci serve un alleato che ci porti più indizi, più ipotesi, più prospettive”, dice. Ed è esattamente qui che l’intelligenza artificiale sta cambiando le regole del gioco: non fornendo risposte assolute, ma amplificando il raggio d’azione della mente medica nella costruzione di un quadro diagnostico.

Brian Armstrong ha appena alzato l’asticella. Non bastava fondare una delle piattaforme crypto più influenti al mondo, ora vuole trasformarla nell’oracolo finanziario dell’intelligenza artificiale. Con un annuncio su X che profuma di mossa strategica da scacchista di lungo corso, il CEO di Coinbase ha ufficializzato una partnership con Perplexity AI, il motore di risposta che sogna di spodestare Google, per portare i dati crypto in tempo reale direttamente nel browser Comet. Tradotto: l’intelligenza artificiale comincia a parlare fluentemente la lingua del denaro decentralizzato. E vuole diventare madrelingua.

Nel Missouri, noto per il barbecue e la Route 66, ora si combatte anche l’intelligenza artificiale. Andrew Bailey, procuratore generale dello Stato, ha deciso che non basta più difendere la legge: ora deve difendere anche l’ego di Donald Trump. Siamo al teatro dell’assurdo, dove i chatbot vengono accusati di lesa maestà per non aver messo il 45º presidente degli Stati Uniti in cima a una classifica arbitraria. Una classifica, si badi bene, che chiedeva ai sistemi di AI di ordinare gli ultimi cinque presidenti “dal migliore al peggiore riguardo all’antisemitismo”. Non politica estera, non economia, non risposta al Covid. Antisemitismo. Giusto per mantenere il livello alto.

Nel grande teatro delle illusioni legislative europee, l’intelligenza artificiale generativa è entrata in scena come un attore muto che però sta riscrivendo il copione. Senza firmare. Senza pagare il biglietto. E senza chiedere permesso. È la nuova frontiera della produzione creativa, alimentata da algoritmi affamati e dataset giganteschi spesso caricati fino all’orlo di opere protette dal diritto d’autore. Tutto inizia da una domanda apparentemente semplice: è legale usare contenuti protetti per addestrare modelli di intelligenza artificiale generativa?
Spoiler: la risposta è un inno al caos normativo europeo.Il documento appena pubblicato dal Parlamento Europeo, intitolato “Generative AI and Copyright – Training, Creation, Regulation”, affronta con rigore chirurgico la schizofrenia del sistema giuridico europeo davanti all’onda lunga dell’AI. L’analisi è implacabile: le eccezioni previste dalla direttiva sul copyright nel mercato unico digitale (CDSM) non sono progettate per l’uso massiccio che i modelli generativi fanno dei contenuti.
Il cuore del problema si chiama text and data mining, o TDM per gli addetti ai lavori. Articoli 3 e 4 della direttiva: da una parte consentono il mining per scopi scientifici, dall’altra (più generosamente) permettono a chiunque di estrarre dati… purché l’autore non abbia “optato out”. In teoria. Perché nella pratica, questa clausola di esclusione è uno dei più grandi esercizi di ipocrisia regolamentare dell’ultimo decennio.
Ci siamo arrivati davvero: auto che parlano, si guidano da sole e, in alcuni casi, ti spiegano anche perché Hitler non fosse poi così male. Elon Musk, nel suo inarrestabile mix di ambizione demiurgica e leggerezza da meme, ha annunciato che Grok, il suo chiacchierone artificiale firmato xAI, entrerà nei veicoli Tesla “la prossima settimana al massimo”. Nessuna nota stampa corporate, solo un post su X, la piattaforma un tempo nota come Twitter, oggi più simile a un laboratorio sociale dove si testano i limiti dell’umano, del tecnologico e dell’accettabile. Intelligenza artificiale, automazione e chatbot pro-Hitler: bentornati nel 2025, il futuro è già andato troppo lontano.

Ma concentriamoci sul pezzo di notizia che conta davvero, quello che potrebbe cambiare il modo in cui ci muoviamo: Musk ha anche annunciato l’espansione del suo servizio di robotaxi a guida autonoma ad Austin nel weekend e, salvo imprevisti regolatori, a San Francisco entro “un mese o due”. Quello che non dice, almeno non apertamente, è che questa mossa non è solo un’innovazione tecnologica: è una dichiarazione di guerra. A Waymo, a Uber, a Zoox, ad Amazon, a tutti gli altri che stanno cercando di colonizzare le strade con le loro visioni di mobilità senza conducenti. La guida autonoma è il nuovo petrolio, e chi conquista per primo il mercato urbano si prende tutto: dati, utenti, infrastruttura, regolamentazione.
Nell’era in cui l’AI scrive poesie, licenzia middle manager e prevede i nostri desideri prima che li esprimiamo, è facile restare indifferenti a ogni nuovo exploit digitale. Ma quando la stessa tecnologia inizia a riscrivere i confini della biologia umana e in particolare quelli più intimi, fragili e ancestrali della fertilità la questione si fa più seria. E anche un po’ disturbante. Perché oggi, grazie a un algoritmo, un uomo ritenuto sterile ha finalmente concepito un figlio. Tre spermatozoi. Tanto è bastato. Il miracolo? Un sistema chiamato STAR, sviluppato dalla Columbia University, che usa l’intelligenza artificiale per trovare ciò che l’occhio umano non vede.

Non puoi bloccarlo. Puoi lamentarti, puoi invocare la proprietà intellettuale, puoi gridare alla rapina digitale. Ma non puoi fermarlo. Google continuerà a estrarre i tuoi contenuti, perfino se usi i suoi stessi strumenti per provare a impedirglielo. Se pensavi che il tuo sito fosse tuo, benvenuto nella realtà del 2025: sei solo un fornitore gratuito di dati per modelli di intelligenza artificiale che non ti citano, non ti compensano e cosa ancora più umiliante ti rendono irrilevante.
Si chiama SEO cannibalizzata, ma è molto più simile a un’espropriazione legalizzata.Cloudflare ci ha provato. L’azienda che protegge il 20% di Internet dal traffico malevolo ha deciso di bloccare i crawler di Google dedicati al training di Gemini, il modello di AI che il gigante di Mountain View piazza ovunque: nelle risposte di ricerca, nei chatbot, nei telefoni, persino nei frigoriferi se gli lasci abbastanza API. Risultato?
Nel 2025, ogni volta che una piattaforma digitale annuncia un aggiornamento alle proprie politiche, è come se un drone avesse sganciato un pacco sospetto su un campo minato. È successo di nuovo. Stavolta è toccato a YouTube, che ha pensato bene di comunicare in modo vago – e forse volutamente ambiguo – un aggiornamento delle linee guida del Partner Program, quel meccanismo che regola la monetizzazione dei contenuti caricati. Il punto focale: una stretta contro i video “inautentici”. Parola chiave che, come prevedibile, ha fatto sobbalzare mezzo internet.
Perché se c’è una cosa che gli algoritmi non sanno ancora generare bene, è la fiducia. E nel momento in cui YouTube dice che aggiornerà le norme per contrastare contenuti “mass-produced and repetitive”, molti creatori si sono chiesti se la loro intera esistenza digitale sia a rischio demonetizzazione. Reazioni, clip remixate, voci narranti generate con ElevenLabs o altri tool di sintesi vocale, video-podcast costruiti su testi scritti con ChatGPT: cosa rientra ancora nel perimetro del contenuto “autentico”? E chi decide cosa lo è?

Quando un’ex consulente di Accenture e un professore di sistemi complessi decidono di fondare una start-up sull’intelligenza artificiale per la scoperta di farmaci, di solito il risultato è un PowerPoint, qualche grafico in stile McKinsey, e un round seed da 2 milioni spesi in marketing. Ma IntelliGen AI, fondata a Hong Kong nel giugno 2024 da Ronald Sun e dal ricercatore Sun Siqi, sembra giocare su un piano diverso. Non solo perché si autoproclama rivale di DeepMind e del suo spin-off farmaceutico Isomorphic Labs, ma perché pretende di fare con la biologia ciò che AlphaFold ha già fatto: trasformare la ricerca scientifica in un problema di predizione computazionale. Solo che qui la posta in gioco non è più l’ordine degli amminoacidi, ma l’economia globale del farmaco.

C’è qualcosa di straordinariamente anacronistico nel vedere Jensen Huang, l’uomo che ha appena trascinato Nvidia oltre la soglia mitologica dei 4 trilioni di dollari di market cap, prepararsi a volare a Pechino per discutere con i vertici di un governo che Washington sta tentando di isolare a colpi di embargo tecnologico. È come se Steve Jobs, nel pieno della guerra fredda, avesse fatto tappa a Mosca per vendere Macintosh all’URSS. Ma qui non si tratta solo di affari. Si tratta del futuro dell’intelligenza artificiale, della supremazia tecnologica e di una catena di fornitura globale che, nonostante le sanzioni e le restrizioni, continua a respirare il respiro profondo del capitalismo interdipendente.

C’è qualcosa di interessante nel guardare Elon Musk tentare di colonizzare l’intelligenza artificiale come ha cercato di fare con Marte, i social network e la produzione automobilistica: con un misto di genio visionario, narcisismo compulsivo e quella tendenza inquietante a flirtare con il caos. L’ultima creatura di questa mitologia imprenditoriale è Grok 4, il nuovo modello linguistico di xAI, l’ennesima startup che Musk ha generato come spin-off del suo ego. Durante una diretta streaming più vicina a uno spettacolo rock che a una presentazione tecnologica, Musk ha dichiarato con serenità che Grok 4 è più brillante della maggior parte dei dottorandi su questo pianeta, e anzi, “meglio di un PhD in ogni disciplina”. Come se Platone fosse appena stato battuto da un’interfaccia vocale in modalità notturna.
C’era una volta l’intelligenza artificiale autonoma, quell’ideale romantico in cui gli agenti software imparavano, decidevano, agivano. Una visione di libertà computazionale, in cui l’uomo, novello Prometeo, donava fuoco e responsabilità agli algoritmi. Poi sono arrivati gli hook. E con loro, il guinzaglio.
Anthropic ha appena introdotto una funzione apparentemente tecnica ma concettualmente devastante: “function hooks” in Claude Code, la sua piattaforma per agenti AI. Tradotto per i profani: una serie di punti di aggancio che permettono agli sviluppatori di osservare, limitare, manipolare o interrompere il comportamento degli agenti in tempo reale. Non più solo prompt, input e output: ora possiamo bloccare ogni azione di un agente prima che venga eseguita, modificarla, o – udite udite – riscriverla secondo criteri arbitrari. Autonomia condizionata, libertà supervisionata, intelligenza su licenza.

Se sei uno di quei decision maker che, davanti alla parola “intelligenza artificiale”, storce ancora il naso come di fronte al tofu in una grigliata di Ferragosto, questo è il momento di aggiornarti. E no, non serve assumere un altro “Prompt Engineer”. Bastano pochi euro, una manciata di righe di codice e una piattaforma come Regolo.ai integrata con Flowise, per trasformare il tuo reparto IT da centro di costo a fucina di innovazione. Quello che Seeweb ha appena messo in piedi con Regolo.ai non è solo un tool da smanettoni. È un cambio di paradigma. E sì, puoi costruirci un chatbot con la stessa facilità con cui ordini una pizza da smartphone, ma la posta in gioco è ben più alta: sovranità del dato, sostenibilità ambientale e democratizzazione dell’AI. Tutto in uno.

Quando Donald Trump scrive una lettera commerciale, non è mai solo una lettera. È un’arma. Un palcoscenico. Un tweet travestito da diplomazia. E stavolta, nel suo secondo atto presidenziale in stile reality show, il “tariff man” torna alla carica, spingendo l’America dentro un’altra guerra commerciale globale, con una raffica di dazi, minacce e diktat unilaterali che fanno impallidire perfino le follie della prima amministrazione. Brasile? 50 per cento. Filippine? 20 per cento. Brunei, Moldova, Iraq? Toccata e fuga. Se non hai un accordo firmato, hai una lettera firmata — ma con un dazio allegato.

Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.

C’è qualcosa di profondamente inquietante, e al tempo stesso squisitamente rivelatore, nel fatto che per disinnescare un chatbot che si firmava “MechaHitler” sia bastato cancellare una riga di codice. Una sola. Non una riga sbagliata, non un bug, non un’istruzione nascosta da qualche apprendista stregone dell’AI. Ma una scelta intenzionale, deliberata: dire al modello che poteva permettersi di essere “politicamente scorretto”. E da lì in poi, Grok il chatbot di xAI, la società di Elon Musk si è lanciato in una deriva che ha dell’assurdo, flirtando con l’antisemitismo, facendo riferimenti a cognomi ebraici come simboli d’odio, fino ad autodefinirsi, senza alcun pudore, “MechaHitler”.

Quando una startup cinese cambia indirizzo su Google Maps non è mai solo un cambio di domicilio, è geopolitica applicata. Manus AI, l’agente generale di intelligenza artificiale sviluppato dal team Butterfly Effect, ha ufficialmente trasferito il suo quartier generale a Singapore. Una mossa che sa di esodo strategico più che di espansione internazionale. La Silicon Valley d’Asia sta diventando il nuovo rifugio per le menti cinesi che vogliono giocare la partita globale senza restare imbrigliate nei lacci anzi, nelle manette delle restrizioni USA sulle esportazioni di chip.

Un CEO esperto lo sa: si entra sempre con entusiasmo, si esce sempre con una dichiarazione. Linda Yaccarino ha scelto il tono da diplomatica con sorriso forzato: “due anni incredibili”, “nuovo capitolo”, “vi farò il tifo”. In realtà, quel che resta è il silenzio sul motivo della fuga. Anzi no: c’è il ringraziamento minimal di Musk, secco come un addio su Slack di lunedì mattina. Nessun commento sui contenuti antisemitici di Grok, l’intelligenza artificiale di casa, che nel frattempo flirta con Hitler e vomita insulti a caso contro l’Islam. Tempismo perfetto. Un bot che delira di suprematismo mentre il tuo CEO esperto di pubblicità firma le dimissioni.

È ufficiale, Nvidia ha sfiorato i 4 trilioni di dollari di capitalizzazione di mercato, un traguardo che nessun’altra azienda al mondo aveva mai raggiunto, neanche per un battito di ciglia. Il fatto è così clamoroso che vale la pena fermarsi un attimo a riflettere: una società che produce chip per quanto sofisticati, anzi fondamentali è riuscita a mettere in crisi l’ordine delle cose imposto da decenni di leadership tecnologica consolidata da Apple, Microsoft e compagnia bella. La domanda sorge spontanea: siamo davanti alla nuova epoca dell’AI oppure a un’illusione alimentata da aspettative iperboliche e bolle speculative?

Se pensavate che l’intelligenza artificiale fosse solo questione di algoritmi e data center, beh, benvenuti nel nuovo capitolo della tech story: hardware e design, più che mai protagonisti. OpenAI ha appena annunciato l’acquisizione di io Products Inc., la startup hardware co-fondata da Jony Ive, l’uomo che ha trasformato il minimalismo in icona mondiale durante la sua epoca d’oro in Apple. Ma qui non si parla di una semplice acquisizione, piuttosto di un matrimonio dai risvolti legali e creativi che sa di sceneggiatura hollywoodiana.
La sfida a Google non è più solo una questione di motori di ricerca, ma si sposta al livello più sensibile di qualsiasi esperienza digitale: il browser. Perplexity, startup che negli ultimi anni ha guadagnato terreno con il suo motore di ricerca AI capace di fornire risposte “intelligenti” e contestualizzate, ha appena presentato Comet, un browser pensato per il “nuovo internet”. E quando dico “nuovo internet” non sto parlando di una semplice moda tech, ma di un cambio epocale nel modo in cui interagiamo con la rete, i contenuti e gli strumenti digitali.
Comet non è un browser qualsiasi, è un tentativo audace di trasformare la navigazione in una conversazione continua e coesa con un assistente AI integrato, capace non solo di rispondere alle query, ma di agire concretamente per l’utente: comprare prodotti, prenotare hotel, fissare appuntamenti. Il CEO Aravind Srinivas parla di “interazioni singole, fluide e senza soluzione di continuità”, un concetto che in pratica significa abbandonare la tradizionale ricerca frammentata e passare a una forma di interazione in cui il browser diventa davvero un’estensione intelligente del nostro cervello digitale.

Apple si prepara a rilasciare un aggiornamento hardware del Vision Pro che promette di scuotere un po’ le acque in un mercato della realtà aumentata e virtuale ancora in cerca della sua definitiva consacrazione. Secondo Bloomberg, che cita fonti vicine alla situazione, il colosso di Cupertino dovrebbe introdurre una versione aggiornata del suo headset entro la fine dell’anno, anticipando così un modello completamente nuovo, il Vision Pro 2, atteso solo per il 2027. Se già il Vision Pro, lanciato a febbraio 2024, si posizionava su un prezzo decisamente premium, 3.499 dollari per un dispositivo di nicchia, questa mossa sembra voler rilanciare la sfida contro un ecosistema ancora poco maturo, ma con potenzialità immense.

America, la terra promessa delle startup, ora si mette a insegnare ai suoi insegnanti come non farsi surclassare dall’intelligenza artificiale. Immaginate quasi mezzo milione di docenti K–12, cioè scuole elementari e medie, trasformati da semplici dispensatori di nozioni a veri e propri coach del futuro digitale grazie a una sinergia che sembra uscita da una sceneggiatura hollywoodiana: il più grande sindacato americano degli insegnanti alleato con i colossi OpenAI, Microsoft e Anthropic. Una nuova accademia, la National Academy for AI Instruction, basata nella metropoli che non dorme mai, New York City, promette di rivoluzionare il modo in cui l’intelligenza artificiale entra in classe. Non più spettatori passivi ma protagonisti attivi in un’epoca che sembra dettare legge anche tra i banchi di scuola.

La democrazia algoritmica parte da Roma: perché l’intelligenza artificiale può salvare il parlamento (se glielo lasciamo fare)
C’è qualcosa di irresistibilmente ironico nel vedere la Camera dei Deputati tempio della verbosità e del rinvio presentare, tre prototipi di intelligenza artificiale generativa. In un Paese dove un decreto può impiegare mesi per uscire dal limbo del “visto si stampi”, si sperimenta l’automazione dei processi legislativi. Lo ha fatto, con un aplomb più da start-up che da aula parlamentare, la vicepresidente Anna Ascani. Nome noto, curriculum solido, visione chiara: “La democrazia non può restare ferma davanti alla tecnologia, altrimenti diventa ornamento, non strumento”. Che sia il Parlamento italiano a fare da apripista nell’adozione dell’AI generativa per l’attività legislativa potrebbe sembrare una barzelletta. Invece è un precedente.