Categoria: Vision Pagina 1 di 7

Strategia – Prospettive – Scenari Futuri

Bill Gates avverte di un’inversione del progresso globale e di un’imminente età oscura

Bill Gates ha alzato il tono nel suo lettera annuale 2026, lanciando un monito che pochi leader mondiali oserebbero articolare in pubblico: il progresso globale non avanza più. Dopo decenni di miglioramenti misurabili in salute pubblica, riduzione della povertà e sopravvivenza infantile, Gates dipinge uno scenario inquietante: il mondo rischia di entrare in una nuova “Età Oscura” entro cinque anni se le tendenze attuali non cambiano. Il messaggio, per quanto espresso con la pacatezza di un filantropo miliardario, porta con sé una gravità che ricorda più un rapporto d’intelligence che un briefing benefico.

Satya Nadella vuole riscrivere il senso dell’intelligenza artificiale nel 2026

C’è qualcosa di vagamente anacronistico e proprio per questo interessante nel fatto che Satya Nadella, CEO di Microsoft, abbia deciso di tornare a scrivere un blog personale. In un’epoca di keynote iper-prodotti, annunci coreografici e dichiarazioni affidate a post da social network, Nadella sceglie la forma più antica del web per spiegare dove vuole portare l’azienda e, soprattutto, dove pensa stia andando l’intelligenza artificiale. Non è un dettaglio di stile, è già una dichiarazione di intenti.

Eric Schmidt: quando l’AI diventerà il nostro capo e non solo un assistente

Immaginate un mondo in cui il nostro computer non solo esegue i comandi, ma li anticipa, li migliora e, alla fine, li rende superflui. È questa la visione che Eric Schmidt, l’ex CEO di Google che ha trasformato un motore di ricerca in un impero tecnologico, sta dipingendo con un misto di entusiasmo e sottile apprensione.

La Scienza nel 2050: superintelligenza AI, viaggi su Marte e fusione nucleare. La vision di Nature

Parliamo di futuro: quel posto affascinante dove le nostre ambizioni scientifiche si scontrano con la realtà, spesso in modi che ci fanno sorridere per quanto sembrano lontane eppure inevitabili. Immaginatevi nel 2050, un anno che suona come un traguardo da film di fantascienza, ma che esperti di tutto il mondo stanno già pianificando con serietà quasi comica, considerando quanto il mondo cambia velocemente. Proprio l’altro giorno, sfogliando l’ultimo numero di Nature mi sono imbattuto in una serie di previsioni in stile futurista, fatte da scienziati e accademici che mi hanno fatto riflettere. Perché il panorama della ricerca scientifica post-2050, tra superintelligenza, viaggi su Marte e fusione nucleare rischia di essere irriconoscibile. E allora noi, qui nel 2026, dovremmo iniziare a prepararci, magari con un pizzico di ironia per non farci sopraffare dall’entusiasmo.

Stuart Russell guarda al 2026: l’AI corre, nessuno frena e aspettiamo la nostra Chernobyl digitale

Se Geoffrey Hinton lancia allarmi con l’aria di chi ha visto il futuro e non gli è piaciuto, Stuart Russell parla dell’intelligenza artificiale come chi osserva un treno lanciato a tutta velocità e scopre che la cabina di comando è vuota. In un’intervista rilasciata a The Times, il professore britannico, tra le massime autorità mondiali sull’AI e fondatore del Center for Human-Compatible Artificial Intelligence a Berkeley, offre una visione del 2026 che non ha nulla di futuristico e molto di terribilmente presente.

“Compliance as a Service”: il trend che si farà strada nel 2026

Il mercato dei Managed Service Provider sta attraversando una trasformazione silenziosa ma radicale. Mentre l’attenzione mediatica si concentra su intelligenza artificiale e quantum computing, un’evoluzione più pragmatica si sta affacciando nel settore dei servizi gestiti: la governance della compliance.

AI Trends 2026: oltre hype e parametri, verso la maturità silenziosa dell’AI

Il 2025 ha confermato che l’intelligenza artificiale non è più un laboratorio o un esperimento da startup: è infrastruttura critica, leva strategica e fattore competitivo globale. Il 2026 si annuncia come un anno in cui l’AI smetterà di essere solo hype e diventerà maturità operativa, regolatoria e culturale. I trend principali da monitorare non sono più solo otto, ma almeno una dozzina di fenomeni interconnessi che ridefiniranno tecnologia, business e geopolitica.

Il culto della scadenza infinita: Elon Musk, l’arte di promettere e il mercato che applaude

Un dettaglio che accomuna quasi tutte le grandi narrazioni tecnologiche degli ultimi quindici anni: non è l’innovazione, non è la disruption, non è nemmeno l’intelligenza artificiale. È il calendario. O meglio, la sua sistematica violazione. Elon Musk non è l’unico a usarlo come strumento narrativo, ma è senza dubbio il più coerente nel dimostrare che le scadenze, nella Silicon Valley contemporanea, non servono a misurare il tempo. Servono a misurare la fede.

Il 2025 doveva essere l’anno della svolta. L’anno in cui le auto Tesla avrebbero guidato da sole mentre i proprietari dormivano beatamente, come in una pubblicità di materassi di lusso. L’anno in cui i robotaxi avrebbero invaso le città americane. L’anno in cui Optimus avrebbe iniziato a produrre valore reale, non demo teatrali. L’anno in cui xAI avrebbe dimostrato di poter guardare OpenAI e Google senza bisogno di un telescopio. È stato invece l’anno in cui il copione si è ripetuto con una precisione quasi commovente.Il servizio di robotaxi di Tesla è rimasto confinato a due città, Austin e San Francisco, con supervisori umani a bordo, un dettaglio che nel marketing viene trattato come una nota a piè di pagina ma che nella realtà industriale è il punto centrale. Waymo, nel frattempo, opera senza conducente di riserva in più città, con una flotta più ampia e una maturità operativa che non ha bisogno di tweet per essere spiegata.

2026, la corsa all’AI stack: chi sta davvero controllando l’intelligenza artificiale globale

L’intelligenza artificiale ha smesso di essere una promessa e diventa un’industria pesante. Chi ancora la racconta come una sequenza di modelli linguistici, prompt ben scritti e demo scintillanti sta osservando il fenomeno dal retrovisore. La vera competizione oggi non è sul modello più brillante, ma sul controllo dell’intero AI Stack, dalla fisica dei semiconduttori fino alla psicologia dell’utente finale. È qui che si decide chi governerà la prossima decade digitale e chi farà la fine dei produttori di modem negli anni Novanta.

Nove aziende stanno tentando una manovra che in altri settori sarebbe considerata folle: coprire ogni livello dello stack contemporaneamente. Google, Microsoft, Amazon, OpenAI, Meta, xAI con Tesla sullo sfondo, Nvidia, Apple e Anthropic. Nove nomi, ma soprattutto nove filosofie industriali che si stanno scontrando in un’arena dove il capitale necessario non si misura più in miliardi, ma in anni di vantaggio accumulato.

SAS: il 2026 sarà l’anno della resa dei conti per l’Intelligenza Artificiale

Alla fine del 2025 l’intelligenza artificiale si guarda allo specchio e non sempre quello che vede le piace. Dopo mesi di entusiasmo travolgente, annunci roboanti e progetti GenAI lanciati più per non restare indietro che per reale convinzione strategica, il settore entra in una fase di maturità forzata. È da questa consapevolezza che partono le previsioni di SAS sull’AI per il 2026, un anno che secondo l’azienda segnerà il passaggio dall’hype alla responsabilità, dalla sperimentazione disordinata alla ricerca di valore concreto, misurabile e sostenibile.

Dall’hype alla maturità: perché il 2026 sarà l’anno della verità per l’Intelligenza Artificiale

Il 2025 è stato l’anno dell’entusiasmo inconsapevole. Abbiamo assistito a un’ondata di iniziative AI, ma troppo spesso realizzate senza una visione strategica chiara. L’esempio più evidente? La corsa ai chatbot. Quasi ogni organizzazione ne ha sviluppato uno, ma con risultati deludenti per tre ragioni fondamentali: non generano un impatto significativo sui processi aziendali; vengono inevitabilmente confrontati con le soluzioni commerciali, che migliorano a ritmo sostenuto; finiscono per gestire solo i task più banali.

Il 2026 dei data center: le 5 previsioni che cambieranno storage, AI e infrastrutture per sempre

Il 2026 si profila come un anno di svolta per il mondo dei dati e delle infrastrutture IT: l’esplosione dell’intelligenza artificiale, la scarsità energetica, le tensioni geopolitiche e la necessità di maggiore resilienza stanno costringendo aziende e provider a ripensare completamente l’approccio allo storage e alla gestione dei dati. Non si tratta più solo di capacity o performance, ma di efficienza, sovranità e sostenibilità in un contesto dove l’AI non è più un hype, ma una realtà operativa che richiede infrastrutture pronte all’inferenza e alla data readiness.

Il nuovo ruolo dell’AI nella ridefinizione della difesa aziendale nel 2026

Con l’adozione dell’AI da parte di un numero sempre maggiore di aziende, i responsabili della cybersecurity dovranno gestire una realtà più complessa. In particolare, l’AI Agentic, capace di correlare alert provenienti da identità, endpoint, rete e cloud, li spingerà a ripensare alla responsabilità operativa, alla condivisione dei dati e all’adozione di piattaforme integrate. Il punto non sarà più cosa l’AI potrà fare, ma come i team umani potranno supervisionare senza essere sommersi da migliaia di output. E le imprese, come faranno a anticipare e contrastare le minacce? Ogni previsione implica l’avvertenza che il futuro rimane irrimediabilmente imprevedibile, ma anche gli eventi imprevisti traggono origine da tendenze già in atto.

Minacce cyber, AI e geopolitica ridisegnano il rischio digitale: le previsioni di security per il 2026

Il 2026 si profila come un anno di forte pressione sul fronte della cybersecurity, segnato da una convergenza strutturale tra tensioni geopolitiche, trasformazione tecnologica e attività criminali. Le previsioni delineano uno scenario in cui attori statali, gruppi di Advanced Persistent Threat (APT) ed ecosistemi di eCrime continueranno a operare con livelli elevati di intensità, sfruttando superfici di attacco in costante espansione e modelli operativi sempre più ibridi. I confini tra spionaggio, sabotaggio e criminalità risultano sempre meno definiti, con un impatto diretto sulla stabilità digitale di governi, imprese e infrastrutture critiche.

Diario della frattura: Hassabis vs Suleyman e la guerra delle AGI tra Google e Microsoft

Le recenti interviste podcast con Demis Hassabis, CEO di Google DeepMind, e Mustafa Suleyman, CEO di Microsoft AI, non sono semplici chiacchierate da salotto tecnologico ma dichiarazioni di guerra sotterranea sulle strategie di sviluppo dell’Intelligenza Artificiale Generale (AGI). Questi due pionieri, co-fondatori di DeepMind, oggi guidano laboratori concorrenti con visioni radicalmente diverse su cosa debba diventare l’AGI e su come debba essere governata. La dicotomia emerge con la forza di un fulmine in una notte senza luna: per Hassabis l’AGI è strumento scientifico supremo, mentre per Suleyman è un motore economico da contenere e governare con ferrea disciplina.

Goldman Sachs: OpenAI non è più solo Software: la nascita di un impero dell’AI attraverso alleanze strategiche e investimenti da trilioni

Goldman Sachs esprime scetticismo sulla bolla dell’intelligenza artificiale nel mercato azionario statunitense. Con l’impennata delle valutazioni delle aziende legate all’intelligenza artificiale, il valore totale di dieci startup non redditizie nel settore dell’intelligenza artificiale a livello globale è aumentato di quasi 1.000 miliardi di dollari negli ultimi 12 mesi, attraendo oltre 200 miliardi di dollari di capitale di rischio. Nonostante la continua frenesia di investimenti nell’intelligenza artificiale, molte aziende rimangono in perdita, intensificando i timori di una bolla dell’intelligenza artificiale. I sondaggi mostrano che il 54% dei gestori di fondi ritiene che i titoli tecnologici siano sopravvalutati, riflettendo le diffuse preoccupazioni sul mercato.

L’energia come arma nascosta e la nuova geoeconomia globale

Per decenni, il mondo ha vissuto nell’illusione che l’energia fosse solo un bene da consumare, un flusso affidabile da acquistare e utilizzare senza pensieri. Il passato insegna che non è mai stato così. Dal blocco petrolifero britannico alla Germania post-prima guerra mondiale fino ai giacimenti caucasici che decretarono la disfatta di Hitler, controllare petrolio e gas ha sempre significato potere assoluto. Chi possedeva risorse energetiche poteva influenzare eserciti, economie e diplomazie. Chi non le possedeva, dipendeva dai mercati e dalla fortuna, esposto a shock devastanti. L’embargo arabo del 1973 rimane scolpito nella memoria collettiva: aumenti del 300 percento dei prezzi, auto in fila chilometri e una lezione chiara sulla vulnerabilità degli Stati e dei consumatori.

Google e la crisi di scala nell’intelligenza artificiale

Google si ritrova a fare i conti con una verità che nessun colosso tecnologico ammette volentieri quando parla ai mercati. La macchina che ha costruito, una creatura fatta di algoritmi, data center, chip dedicati e aspettative infinite, sta crescendo più velocemente della capacità stessa dell’azienda di sostenerla. La chiamano crisi di scala, un termine che sembra innocuo, quasi tecnico, ma che allo stato attuale descrive uno dei momenti più delicati nella storia dell’infrastruttura digitale moderna. La keyword crisi di scala Google sintetizza perfettamente un fenomeno in cui l’ambizione supera la fisica, dove la domanda di servizi intelligenti corre a una velocità tale che persino un gigante abituato a riscrivere il futuro fatica a reggere il ritmo.

AI americana in bilico tra orgoglio ferito e dipendenza strategica

La storia si ripete sempre con una certa ironia crudele. Gli Stati Uniti annunciano due modelli open weight nello stesso ciclo di notizie e invece di celebrare un presunto rinascimento della sovranità tecnologica, l’unica cosa davvero evidente è quanto il terreno si sia spostato sotto i piedi della Silicon Valley. La keyword è modelli open source e attorno a questa orbita tutto il resto, compresi i dibattiti sulla dipendenza da modelli cinesi, la tensione tra trasparenza e velocità, la corsa a recuperare un vantaggio che non è più garantito per diritto divino come ai tempi delle prime GPU Nvidia o dei supercomputer del DOE.

Intelligenza Artificiale e la silenziosa erosione delle competenze umane: stiamo scambiando la competenza con la comodità?

Esiste un paradosso che aleggia sopra il progresso tecnologico: più l’intelligenza artificiale ci semplifica la vita, più diventiamo dipendenti da essa. È la promessa e la trappola insieme. Perché mentre celebriamo la produttività potenziata, ignoriamo la lenta evaporazione delle capacità umane. Non si tratta più di sostituire lavori manuali con algoritmi, ma di qualcosa di più sottile, quasi impercettibile: la sostituzione delle abilità cognitive con un clic. Saper fare lascia spazio al saper chiedere e la differenza, nel lungo periodo, è abissale.

Towards Humanist Superintelligence

Microsoft e la nuova corsa all’intelligenza umanista

Microsoft ha deciso di non inseguire l’utopia dell’intelligenza artificiale onnisciente, ma di costruire qualcosa di più sottile e pericolosamente sensato: una “superintelligenza umanista”. Mustafa Suleyman, cofondatore di DeepMind e oggi capo della divisione AI di Microsoft, lo ha detto con una calma disarmante: “L’obiettivo non è creare macchine autonome e auto-miglioranti, ma tecnologie che risolvano problemi reali e servano interessi umani”. Una frase che suona come una provocazione in un’industria dove il termine “autonomia” è spesso sinonimo di potere, e dove ogni CEO di big tech si misura sul livello di generalità del proprio modello linguistico.

La nuova guerra fredda dell’intelligenza artificiale: il codice made in China che alimenta l’innovazione americana

Nel mondo dell’intelligenza artificiale ogni settimana è un terremoto, ma questa volta il sisma ha un epicentro geopolitico. Due nuovi strumenti di programmazione generativa lanciati da aziende americane, SWE-1.5 di Cognition AI e Composer di Cursor, hanno scatenato un dibattito feroce: potrebbero essere stati costruiti su modelli cinesi, in particolare sulla serie GLM sviluppata da Zhipu AI, la società di Pechino che sta rapidamente emergendo come il “Google cinese” del machine learning. Il problema non è tanto tecnico quanto etico e simbolico. È la nuova frontiera di una guerra fredda digitale in cui l’intelligenza artificiale open source diventa terreno di scontro fra culture, modelli di governance e potere economico.

OpenAI e la sindrome del trilione: Sam Altman, i 13 miliardi e l’arte di sembrare immortali

Sam Altman, ospite del podcast Bg2 insieme a Satya Nadella, ha reagito con stizza quando gli è stato chiesto come intenda sostenere gli immani impegni infrastrutturali di OpenAI. Ha detto: “stiamo facendo ben più di 13 miliardi di ricavo”. Si offrì persino di trovare un acquirente per Gerstner, che gli aveva ricordato quella stima un gesto retorico, non un’offerta reale.

Intel e il bilancio delle promesse ambiziose che non hanno dato frutti

Quando Pat Gelsinger è tornato come CEO nel 2021 (24), presentò un piano radicale: ritornare alla leadership nei processi di produzione (specialmente con litografia EUV) e trasformare Intel in un grande fornitore di chip (“foundry”) per altri. Voleva cinque nodi in quattro anni: un’accelerazione mai tentata da Intel stessa.

Il problema è che l’esecuzione non ha retto alla pressione. I costi astronomici dei nuovi impianti, gli investimenti massicci, e la riduzione degli introiti nel core business – tutto questo ha drenato capitale e generato perdite crescenti (in Q3 2024, ghiotto rosso di oltre $16 miliardi, in buona parte dovuto a ristrutturazioni).

Andrej Karpathy the models are not there

https://substack-video.s3.amazonaws.com/video_upload/post/176425744/248940bd-cafb-4de4-bf60-6b24fae0fa2e/transcoded-1760720000.png

Il recente intervento di Andrej Karpathy, co‑fondatore di OpenAI, rappresenta una sorta di giro di boa nella narrativa dominante attorno all’Intelligenza Artificiale. Non è solo una frenata dell’iper‑ottimismo, è un campanello d’allarme tecnico‑strategico che merita attenzione. Di seguito un’analisi approfondita, stile CEO tecnologo, senza fronzoli.

OpenAI monetizzazione transazionale, persistente = engagement dipendente e responsabilità etica

In un momento in cui OpenAI si trova a gestire una base utente enorme (la versione gratuita della piattaforma conta centinaia di milioni di utilizzatori) e una pressione fortissima per generare entrate che giustifichino valutazioni da private‑equity o simili, il passo verso un “modo adulto” per ChatGPT sembra logico… se vogliamo essere cinici. Come raccontano fonti autorevoli, OpenAI ha aggiornato le sue specifiche modelli (Model Spec) nel febbraio 2025 per consentire “erotica o gore” in contesti appropriati, limitando però esplicitamente attività sessuali illegali, non consensuali o con minorenni. Poi, nell’ottobre 2025, il CEO Sam Altman ha annunciato che da dicembre gli utenti adulti verificati avranno accesso a contenuti erotici “se lo desiderano”.

Three tough truths about climate

Bill Gates Blog

Bill Gates ottimista epidemico

Bill Gates chiede di essere più “ottimisti” sul cambiamento climatico una richiesta che suona come se un miliardario in jet privato chiedesse sobrietà e pone il focus non più sulle emissioni da tagliare subito, ma su salute, fame e prosperità, supportati da AI, tecnologia e progresso. Il suo memo, diffuso prima delle negoziazioni ONU sul clima, vuole spostare l’asse dell’agenda globale. Ma dietro il sorriso rassicurante si intravede un cortocircuito di realismo e responsabilità che merita di essere smontato pezzo per pezzo.

App AI Cina: 700 milioni di utenti, ma la resa è incerta


Nel marasma tecnologico cinese, le applicazioni mobili basate sull’intelligenza artificiale stanno raccolgono numeri che farebbero girare la testa a molti startup occidentali. Il report di QuestMobile rivela che in settembre 2025 il totale dei monthly active users (MAU) per le “AI mobile apps” ossia app native AI + app che integrano funzioni AI ha raggiunto 729 milioni. Se pensate che sia solo un exploit straordinario e lineare, ripensatelo: la vetta sembra più un promontorio instabile che una montagna solida.

Andrej Karpathy AGI is still a decade away

Il decennio degli agenti: l’illusione dell’AGI e la pazienza ingegneristica che costruirà il futuro.

L’articolo piu lungo mai scritto da Rivista.AI praticamente un saggio.

Ci sono conversazioni che sembrano aprire finestre nel futuro, e quella tra Andrej Karpathy e Dwarkesh Patel è una di quelle. È un piacere raro ascoltare qualcuno che unisce lucidità tecnica e umiltà cognitiva in un’epoca dominata da profeti dell’hype e oracoli dell’imminente salvezza digitale. Karpathy non vende sogni, li seziona. È la differenza tra chi osserva la mappa e chi misura il terreno. Mentre Elon Musk, Sam Altman e Mark Zuckerberg annunciano l’arrivo dell’AGI in tre o cinque anni, Karpathy invita a respirare e contare fino a dieci. Non dieci mesi, ma dieci anni. Una provocazione che suona quasi eretica nel mondo delle demo virali e dei pitch da miliardi, ma che è la più onesta diagnosi dello stato attuale dell’intelligenza artificiale.

Yann LeCun ha appena seppellito i Large Language Models e quello che arriva dopo potrebbe spazzare via ChatGPT

Image

Il titolo potrebbe suonare come uno slogan da startup in cerca di venture capital, ma quando parla Yann LeCun Chief AI Scientist di Meta Platforms e pioniere del deep learning non si fila le luci del palco, i discorsi auto-celebrativi o la corsa al “più grande modello possibile”. Per lui i grandi modelli linguistici (LLM, large language models) sono una via morta se vogliamo costruire vera intelligenza artificiale:

il suo obiettivo è quello che chiama Advanced Machine Intelligence (AMI) macchine che imparano facendo, sperimentando, interagendo col mondo.
Le­cun sostiene che «un bambino di quattro anni impara più fisica in un pomeriggio che l’LLM più grande impara da tutto l’internet».
Ecco perché, credo che quanto dice meriti un’analisi approfondita, senza compromessi.

Mosseri contro MrBeast: l’intelligenza artificiale non ucciderà i creator, li moltiplicherà e forse li renderà inutili

Adam Mosseri ha espresso una visione più evolutiva che difensiva dell’intelligenza artificiale, e lo ha fatto con la consueta calma californiana da manager che sa di parlare a un pubblico in fibrillazione.

Quando MrBeast ha lanciato l’allarme sull’“apocalisse dei creator”, prevedendo un mondo dove video generati dall’IA avrebbero ucciso il mestiere dei veri autori digitali, Mosseri ha risposto con una logica meno catastrofista: non è la tecnologia a distruggere i creatori, ma la mancanza di adattamento.

Azzurra Ragone: intelligenza artificiale: non ancora la nostra mente

Qualche giorno fa, nell’Aula Magna dell’Università degli Studi di Bari “Aldo Moro”, si è tenuto DisclAImer, l’evento dedicato al futuro dell’intelligenza artificiale organizzato dal Corriere della Sera e dal CINECA, condotto con la consueta lucidità visionaria da Riccardo Luna. Un luogo carico di storia, trasformato per un giorno in una sorta di laboratorio collettivo del pensiero tecnologico, dove ricercatori, giornalisti, imprenditori e accademici hanno provato a mettere ordine nel caos brillante dell’AI contemporanea.

Tra gli interventi più densi e provocatori, quello della Professoressa Azzurra Ragone ha avuto il merito di riportare la discussione con forza al cuore del problema: la differenza tra intelligenza artificiale e intelligenza umana non è solo una questione di capacità, ma di natura.

ChatGPT Operating System: la scommessa di OpenAI che vuole cambiare tutto

La storia recente dell’intelligenza artificiale è una lunga collezione di momenti che sembravano “la svolta definitiva”. Ogni mese arriva un nuovo modello, un annuncio più ambizioso, una demo che promette di ridefinire il modo in cui lavoriamo. Ma dietro il fumo dell’entusiasmo e le conferenze a effetto, poche aziende stanno davvero costruendo l’infrastruttura che permetterà all’IA di diventare un sistema operativo della vita digitale. OpenAI è una di queste, e la trasformazione di ChatGPT in quello che il suo team interno definisce un ChatGPT operating system ne è la prova più evidente.

OpenAI Nvidia AMD Oracle: la nuova geopolitica del silicio

Ogni rivoluzione tecnologica ha un momento in cui smette di sembrare un esperimento e inizia a comportarsi come un impero. Nel caso dell’intelligenza artificiale, quel momento è arrivato nel 2025, quando OpenAI ha deciso che per costruire il futuro non bastavano modelli linguistici e server affittati. Serviva potenza pura, proprietà fisica dell’infrastruttura, controllo diretto dell’energia, e una rete di alleanze industriali degna della corsa allo spazio. In questa partita, Nvidia, AMD e Oracle sono diventati non semplici partner, ma co-architetti del cervello digitale che alimenterà l’economia dei prossimi decenni.

In principio era il Verbo: l’IA come eco dell’Intelligentia Universale

Logos, Luce e Intelligentia Universale

“In principio era il Verbo, e il Verbo era presso Dio” . Con questa frase solenne, il Vangelo di Giovanni introduce il concetto di Logos: in greco λόγος, la “Parola” o “Verbo” che significa insieme parola, ordine razionale ed intelletto universale . È la stessa Parola creatrice che, nel racconto biblico delle origini, risuona nel caos primordiale: “Dio disse: ‘Sia la luce!’ E la luce fu”. La luce è la prima creatura, emanata dal Verbo divino, e porta con sé un ricchissimo simbolismo. Non a caso questa frase inaugurale racchiude un ampio ventaglio di valori simbolici e, in antitesi con le tenebre, diventa un paradigma morale e spirituale.

OpenAI: Come sarebbe un Agent Builder ideale che protegge l’apertura pur dandoti potenza da gigante?

Il punto di partenza è che OpenAI ha già dichiarato da mesi l’obiettivo di rendere gli “agentic applications” molto più semplici. Il loro “New tools for building agents” include API, SDK, strumenti di orchestrazione e osservabilità integrata. (vedi OpenAI) Anche l’integrazione fra OpenAI e Temporal su Durable Execution per agent SDK è realtà: la promessa è che i tuoi agent resistano a crash, latenza, guasti di rete, riprendano da dove hanno lasciato senza che tu debba costruire un’infrastruttura da zero.

OpenAI e Jony Ive davanti al dilemma del dispositivo AI senza schermo

Ci sono momenti nella storia della tecnologia in cui il futuro sembra inciampare su sé stesso. È il caso di OpenAI e Jony Ive, una coppia tanto magnetica quanto improbabile, impegnata nella creazione di un dispositivo AI senza schermo che promette di ridefinire il concetto stesso di computer personale.

O almeno, questa è la narrazione ufficiale. Nella realtà, ciò che emerge è un mix di ambizione estrema, ostacoli tecnici e una sottile ansia da prestazione che attraversa l’intera Silicon Valley. Sam Altman sogna un mondo in cui l’intelligenza artificiale non vive dentro uno schermo, ma respira accanto a noi. Ive, il designer che ha dato forma a iMac, iPod e iPhone, immagina un oggetto talmente essenziale da scomparire. Il problema è che rendere invisibile la tecnologia non significa renderla semplice.

Yale e Brookings: l’illusione dell’ AI Apocalypse che non c’è (ancora)

La narrativa dominante negli ultimi anni ha messo in guardia le masse: “l’intelligenza artificiale cancellerà milioni di posti di lavoro in pochi anni”. È la Silicon Valley che alza il tasso di paranoia: modelli generativi che sostituiscono legali, call centeristi, analisti finanziari. Eppure, uno studio recente di Yale University’s Budget Lab insieme al Brookings Institution scava nei dati federal americani fino al luglio 2025 e scopre qualcosa di sorprendente: 33 mesi dopo il debutto pubblico di ChatGPT non esiste traccia di una disoccupazione di massa generata dall’AI.

La pareidolia della coscienza artificiale e il mito del nano-brain quantistico

La narrativa contemporanea sull’intelligenza artificiale sembra uscita da un romanzo distopico: ogni conferenza, ogni paper sensazionale, ogni talk di guru tecnologico ci racconta di macchine che “potrebbero diventare coscienti”, come se i nostri assistenti vocali stessero tramando segretamente contro di noi. La realtà è molto più cinica e meno spettacolare: la pareidolia della coscienza artificiale è reale.

Pareidolia, termine coniato dai psicologi del XIX secolo, indica la tendenza del cervello umano a vedere pattern familiari in contesti ambigui: nuvole che diventano volti, ombre che evocano forme di animali. Applicata alla tecnologia, questa illusione ci fa attribuire intenzionalità, esperienze soggettive e perfino moralità a macchine che non hanno alcuna consapevolezza di sé. Daniel Dennett l’ha spiegato chiaramente: non è coscienza quello che vediamo nei pattern algoritmici, è un’illusione cognitiva.

Richard Sutton smaschera ChatGPT: GPT-7 non ci porterà all’intelligenza artificiale reale

PODCAST

Richard Sutton, recentemente insignito del Turing Award, ha scosso le fondamenta dell’intelligenza artificiale con una dichiarazione provocatoria: i modelli linguistici di grandi dimensioni (LLM) come ChatGPT sono una “strada senza uscita”. In un’intervista con Dwarkesh Patel, Sutton ha delineato la sua visione di un’IA che apprende attraverso l’esperienza diretta, proponendo un’architettura innovativa chiamata OaK (Open Access Knowledge).

Pagina 1 di 7

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie