Tag: AGI

Dragon Hatchling e la corsa irrequieta verso un AGI davvero adattiva

Parlare di Dragon Hatchling significa toccare un nervo scoperto dell’industria tecnologica, quella sensazione fastidiosa che ci dice che l’era dei transformer, per quanto gloriosa, sta iniziando a mostrare le sue crepe. Pathway decide di ignorare le solite liturgie del deep learning e propone un’architettura che non cerca soltanto di prevedere la parola successiva ma punta a ricreare il metabolismo stesso del pensiero. Una mossa che ricorda l’ambizione dei primi pionieri delle reti neurali biologiche, con la differenza che oggi disponiamo di una potenza computazionale tale da rendere queste follie progettuali qualcosa di più di un esercizio da laboratorio.

Neuro-Symbolic AI come i sistemi esperti potrebbero resuscitare il sogno dell’AGI

L’industria dell’intelligenza artificiale sta scavando tra le proprie macerie per ritrovare concetti che essa stessa aveva sepolto con disprezzo. Dopo anni passati a idolatrare reti neurali e modelli linguistici giganteschi, i guru della Silicon Valley stanno riscoprendo un vecchio amore: i sistemi esperti. La stessa tecnologia che negli anni Ottanta prometteva di sostituire il pensiero umano e finì invece in una bara sigillata con l’etichetta “obsoleto”. Ora, però, le crepe nel tempio della generative AI stanno diventando visibili anche ai più ferventi sostenitori del deep learning. Il sogno dell’AGI, l’intelligenza generale artificiale, non è morto, ma ha cambiato pelle, e forse cervello.

OpenAI e il potere esecutivo: quando la superintelligenza richiederà un governo condiviso

Sam Altman ha dichiarato apertamente ciò che molti nel settore sussurrano da anni: l’era della superintelligenza artificiale non potrà essere gestita con la normale burocrazia. Il CEO di OpenAI ha spiegato che l’azienda prevede una futura collaborazione diretta con il potere esecutivo dei governi, in particolare per affrontare minacce globali come il bioterrorismo. Un’affermazione che, letta tra le righe, è una presa d’atto che la tecnologia sta superando la politica, e che presto servirà un patto di potere tra chi programma i modelli e chi comanda gli eserciti.

AGI: fede, paura e finzione che alimentano la nuova religione tecnologica

L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.

Andrej Karpathy AGI is still a decade away

Il decennio degli agenti: l’illusione dell’AGI e la pazienza ingegneristica che costruirà il futuro.

L’articolo piu lungo mai scritto da Rivista.AI praticamente un saggio.

Ci sono conversazioni che sembrano aprire finestre nel futuro, e quella tra Andrej Karpathy e Dwarkesh Patel è una di quelle. È un piacere raro ascoltare qualcuno che unisce lucidità tecnica e umiltà cognitiva in un’epoca dominata da profeti dell’hype e oracoli dell’imminente salvezza digitale. Karpathy non vende sogni, li seziona. È la differenza tra chi osserva la mappa e chi misura il terreno. Mentre Elon Musk, Sam Altman e Mark Zuckerberg annunciano l’arrivo dell’AGI in tre o cinque anni, Karpathy invita a respirare e contare fino a dieci. Non dieci mesi, ma dieci anni. Una provocazione che suona quasi eretica nel mondo delle demo virali e dei pitch da miliardi, ma che è la più onesta diagnosi dello stato attuale dell’intelligenza artificiale.

A Definition of AGI

Definire l’intelligenza artificiale generale: il momento in cui la scienza incontra la sua stessa illusione

C’è un dettaglio affascinante, quasi ironico, nel fatto che l’umanità abbia impiegato meno tempo a costruire modelli linguistici capaci di scrivere romanzi rispetto al tempo che servirà per definire cosa sia, esattamente, l’intelligenza. È accaduto che un gruppo di ricercatori provenienti da Oxford, MIT, Cornell, Berkeley e da oltre venticinque istituzioni globali abbia pubblicato un documento intitolato “A Definition of AGI”, nel tentativo di dare una forma concreta a ciò che chiamiamo intelligenza artificiale generale. Il paradosso è che nel momento stesso in cui proviamo a misurare la mente artificiale, finiamo per mettere in discussione la nostra.

Intelligenza artificiale e l’illusione dell’AGI: perché un bambino di cinque anni batte ancora le macchine nei puzzle

Il paradosso è affascinante: abbiamo algoritmi che distruggono i campioni di scacchi, che umiliano i maestri di Go e che risolvono problemi di logica matematica con una precisione glaciale. Poi basta presentare loro una griglia colorata con una regola nascosta e la macchina va in tilt come un vecchio modem degli anni ’90. È qui che si manifesta lo scarto più imbarazzante tra l’intelligenza artificiale di oggi e l’illusione dell’intelligenza artificiale generale, l’AGI che dovrebbe comportarsi come un cervello umano, con elasticità, adattamento e la capacità di improvvisare.

Il cuore della questione sta nella differenza tra competenza verticale e intelligenza generale. Le AI attuali funzionano come virtuosi ossessivi: se gli chiedi di riconoscere pattern in milioni di partite di Go, ti restituiscono una maestria sovrumana. Se però li sposti fuori da quel dominio, si scopre che sono ciechi, incapaci di improvvisare senza il supporto di un oceano di dati. L’AGI, invece, richiede la capacità di apprendere regole con pochi esempi, di generalizzare e di trasferire conoscenza a contesti nuovi. La stessa abilità che un bambino usa quando capisce che una mela rossa e una palla rossa hanno in comune più della forma o del colore, ma una categoria concettuale.

Someone kind should tell Hinton as gently as possible

Perfomance regressiva dei modelli LLM di nuova generazione: il caso SuperARC e la lezione scomoda per l’AGI

Il fascino del nuovo ha un prezzo, e nel caso dell’ultima generazione di modelli linguistici sembra essere quello di un lento ma costante passo indietro. I dati emersi dal SuperARC, il test ideato dall’Algorithmic Dynamics Lab per misurare capacità di astrazione e compressione ricorsiva senza passare dal filtro dell’interpretazione umana, mostrano un quadro che stride con la narrativa ufficiale. Qui non ci sono badge “PhD-level” né claim da conferenza stampa, solo un rigore matematico fondato sulla teoria dell’informazione algoritmica di Kolmogorov e Chaitin, che mette a nudo ciò che i modelli sanno davvero fare quando la vernice del linguaggio scorrevole non basta più a coprire le crepe.

Intelligenza Artificiale: quando Geoffrey Hinton teme la sua creatura più degli apocalittici di professione

Geoffrey Hinton non è un qualsiasi pensionato della Silicon Valley che si diverte a lanciare profezie distopiche per guadagnarsi un’ultima intervista CNN. È il padre riconosciuto della moderna intelligenza artificiale, uno di quei nomi che nel gergo degli addetti ai lavori non ha bisogno di essere spiegato. Le sue reti neurali hanno aperto la strada all’AGI e al capitalismo delle macchine pensanti. Oggi però, con l’aria di chi ha visto il finale del film in anteprima, si siede davanti alle telecamere della CNN e avverte che c’è un 10-20% di probabilità che la tecnologia a cui ha dato vita possa cancellare l’umanità. Percentuali che, nel linguaggio degli investitori, non si liquidano con una scrollata di spalle.

Zuckerberg e la superintelligenza personale: tra occhiali smart, miliardi e missioni etiche da manifesto

“The improvement is slow for now, but undeniable,” Zuckerberg wrote of AI’s advances. “Developing superintelligence is now in sight.”

Poche ore prima della sua trimestrale, Mark Zuckerberg ha deciso di regalarci la sua visione (leggila QUI) messianica sull’AI: una superintelligenza personalizzata per tutti, da infilare preferibilmente in un paio di occhiali smart targati Meta. Nel suo manifesto minimalista pubblicato su una pagina di testo, Zuck ci racconta di un’IA che “ti aiuta a raggiungere i tuoi obiettivi, creare ciò che vuoi vedere nel mondo, vivere qualsiasi avventura, essere un amico migliore e diventare la persona che aspiri a essere”. Tradotto: l’AI come coaching digitale per autostima 4.0, ovviamente sotto la sua supervisione.

AlphaGo Moment for Model Architecture Discovery

Un’altra pietra miliare o solo l’ennesima illusione? la china lancia il suo “alphago moment” per la ricerca sull’intelligenza artificiale.

Un’altra tappa verso la cosiddetta AGI? Non è un’esagerazione affermare che il team cinese ha appena creato un momento “AlphaGo” per la ricerca sull’intelligenza artificiale, un vero e proprio spartiacque nel modo in cui i sistemi AI possono auto-progettarsi e innovare. La nuova creatura, ASIARCH, è la prima dimostrazione di quella che chiamano Artificial Superintelligence for AI research (ASI4AI) in un ambito cruciale: la scoperta automatica di architetture neurali, o Model Architecture Discovery.

Mentre i sistemi AI mostrano capacità che migliorano in modo esponenziale, la velocità della ricerca stessa è ancora limitata da una capacità cognitiva umana che resta sostanzialmente lineare, creando un collo di bottiglia sempre più severo. Graham Hill, noto come Dr G, ha discusso a lungo questa sfida: la potenza computazionale cresce vertiginosamente, ma il vero limite rimane il cervello umano che guida e valuta i progressi. Qui entra in gioco ASI-ARCH, il sistema che promette di superare questa barriera fondante.

Google ha già vinto. La competizione generativa è un’ossessione per chi non capisce il potere della noia

La cosa più pericolosa nel mondo della tecnologia non è l’innovazione. È la distrazione. E mentre il mondo intero fissa il cielo aspettando che OpenAI liberi l’AGI come se fosse l’Apocalisse Digitale, Google stampa 28 miliardi di dollari di profitto con la freddezza glaciale di un adulto che osserva un’adolescente agitato fare breakdance al centro di una sala riunioni.

I numeri, come sempre, non mentono. Nel secondo trimestre del 2025 Alphabet ha riportato 96,4 miliardi di dollari di ricavi, in crescita del 14% anno su anno. La ricerca, quel dinosauro che secondo certi commentatori sarebbe ormai estinto, ha generato 54,2 miliardi. Cloud è cresciuto del 32%. CapEx? Alzato a 85 miliardi. Non c’è stata una diretta streaming. Nessun tweet criptico stile Silicon Valley messianica. Nessuna influencer che si svena in diretta per mostrare un prompt miracoloso. Solo profitti, infrastruttura, dominio silenzioso.

“La Corsa all’AGI: Scenari e Previsioni sulla Timeline dell’Intelligenza Generale Artificiale”

Negli ultimi anni, il dibattito sulla timeline per raggiungere l’AGI (Artificial General Intelligence, ovvero un’intelligenza artificiale capace di comprendere e svolgere compiti di livello umano in ogni dominio) si è intensificato. Voci influenti dell’industria e della ricerca, tra cui Sam Altman, Ray Kurzweil, Demis Hassabis, Elon Musk e altri, hanno espresso opinioni divergenti. La questione non riguarda solo la tecnologia, ma anche le implicazioni sociali, economiche e filosofiche di un traguardo che cambierebbe radicalmente il mondo.

AI vs. AGI: La Rivoluzione della Cognizione Artificiale

Nel panorama dell’intelligenza artificiale, la distinzione tra AI (Artificial Intelligence) e AGI (Artificial General Intelligence) rappresenta un punto cardine per comprendere i progressi tecnologici attuali e futuri. Questa dicotomia richiama il concetto di “pensare veloce e lento”, elaborato dal premio Nobel Daniel Kahneman. I modelli di intelligenza artificiale attuali, come GPT-4/5, Mistral 7B o Llama-3, incarnano il “Sistema 1”: un’intelligenza rapida, reattiva e contestuale, eccellente nel rispondere parola per parola alle richieste degli utenti. Tuttavia, un AGI, il tanto ambito obiettivo dell’IA, rappresenta un salto concettuale e operativo verso un “Sistema 2” più complesso, riflessivo e adattivo.

AGI: La Scommessa da 100 Miliardi di Dollari di Microsoft e OpenAI

Nel panorama dell’intelligenza artificiale, l’Intelligenza Artificiale Generale (AGI) rappresenta l’obiettivo più ambizioso: creare sistemi capaci di eguagliare o superare le capacità umane in una vasta gamma di compiti. Tradizionalmente, l’AGI è stata definita come un sistema altamente autonomo in grado di superare gli esseri umani nella maggior parte dei lavori economicamente rilevanti. Tuttavia, recenti rivelazioni indicano che Microsoft e OpenAI hanno adottato una definizione interna più pragmatica e orientata al profitto.

L’Intelligenza Artificiale e l’AGI: Tra Ottimismo e Realismo, Riflessioni da Caffè Bar dei DAINI

Il futuro dell’intelligenza artificiale (IA) è al centro di un dibattito che non accenna a placarsi, e le dichiarazioni di alcuni dei principali protagonisti del settore gettano una luce interessante su come la tecnologia potrebbe evolversi nei prossimi anni. Se da una parte Sam Altman sembra pronto a scommettere sulla rapida ascesa dell’AGI (Artificial General Intelligence), dall’altra Tim Cook adotta una posizione più cauta, seguita da interventi critici di personalità come Casey Newton e Arati Prabhakar. Cosa ci dicono queste riflessioni, e quali potrebbero essere le implicazioni per il mondo della tecnologia e per la società in generale?

Il Braccio di Ferro sull’AGI: OpenAI e Microsoft Rinegoziano il Futuro dell’Intelligenza Artificiale

OpenAI sta considerando la revisione di una clausola chiave nel suo accordo con Microsoft, che attualmente limita l’accesso di quest’ultima ai modelli avanzati di OpenAI in caso di sviluppo dell’Intelligenza Artificiale Generale (AGI). Questa clausola stabilisce che Microsoft perderebbe il diritto di utilizzare la tecnologia di OpenAI qualora l’azienda raggiungesse l’obiettivo di creare un sistema altamente autonomo in grado di superare le capacità umane nella maggior parte delle attività economicamente rilevanti. La discussione in corso sembra mirare a rinegoziare i termini contrattuali e a evitare futuri conflitti strategici.

OpenAI dissolve il Team di “Safety AGI”

OpenAI sta attraversando cambiamenti strutturali significativi, tra cui la dissoluzione del suo team di “Safety AGI”, che si concentrava sulla valutazione della preparazione dell’organizzazione e del mondo per l’intelligenza artificiale generale (AGI). Miles Brundage, che guidava questo team, ha annunciato le sue dimissioni, citando alti costi opportunità e un desiderio di maggiore indipendenza nella sua ricerca sulle politiche relative all’IA come motivi principali per la sua partenza. Ha espresso preoccupazioni sul fatto che né OpenAI né altri laboratori di IA leader siano adeguatamente pronti per l’AGI, un sentimento che ritiene condiviso tra i vertici di OpenAI.

Fei-Fei Li: L’Incertezze sull’Intelligenza Artificiale Generale: Un’Analisi Critica

Durante una discussione al summit sulla leadership di IA responsabile organizzato da Credo AI, Fei-Fei Li, rinomata ricercatrice nota come la “madrina dell’IA”, ha ammesso di non sapere cosa sia l’AGI. Li ha anche parlato del suo ruolo nello sviluppo dell’IA moderna, delle misure per proteggere la società dai modelli avanzati di IA e del motivo per cui crede che la sua nuova startup, World Labs, possa fare la differenza. Tuttavia, quando le è stato chiesto della “singolarità dell’intelligenza artificiale”, Li ha confessato di essere confusa come tutti noi.

Sam Altman: Non mi interessa se bruciamo 50 miliardi di dollari all’anno, stiamo costruendo l’AGI e ne varrà la pena

24 aPRILE 2024

Ecco i budget per il 2024 di alcune delle principali agenzie spaziali:


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

[newsletter_form type=”minimal”]

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie