A volte basta una frase per incrinare la certezza collettiva che l’intelligenza artificiale sia solo una questione di più dati, più GPU, più capitali. Quando Ilya Sutskever osserva che lo scaling da solo non ci porterà all’AGI, il rumore di fondo dell’industria si zittisce per un istante, perché pochi hanno la lucidità di riconoscere che la traiettoria dell’AI non è un’autostrada infinita ma un sentiero che a un certo punto cambia forma e pendenza. Chi lavora nel settore lo percepisce quasi fisicamente, come una variazione di pressione nell’aria che preannuncia un cambio di paradigma. Questa osservazione ha un peso scientifico e insieme un retrogusto ironico, come se Sutskever avesse scelto il momento perfetto per ricordare al mondo che la corsa all’AGI non è un concorso di body building per modelli neurali.
Tag: Ilya Sutskever
Da dove partire. Nel novembre 2023 la OpenAI ha licenziato improvvisamente il suo CEO Sam Altman ufficialmente perché “non era stato costantemente sincero nelle comunicazioni con il board”. Il licenziamento durò meno di una settimana: Altman rientrò, dopo che centinaia di dipendenti minacciarono la dimissione. Ma il cuore della questione, per chi ama l’analisi profonda, è: cosa aveva visto Sutskever che lo fece schierarsi con il board contro Altman, fino a produrre un memorandum di 52 pagine e testimoniarlo in deposizione?

La notizia è fresca e già puzza di vecchio. Ilya Sutskever, cofondatore di OpenAI, ha finalmente tagliato corto alle voci e ha confermato ciò che molti sospettavano ma pochi osavano dire ad alta voce: la sua totale dedizione alla Safe Superintelligence Inc. (SSI), ora ufficialmente guidata da lui in qualità di CEO. A fianco, come Presidente, il fidato Daniel Levy. E mentre Daniel Gross saluta con discrezione, lasciando la compagnia il 29 giugno, una cosa è chiara: Sutskever non è interessato a IPO, unicorni o pitch deck per venture capitalist in cerca di adrenalina. No, lui vuole costruire una superintelligenza sicura. Punto.
Toronto, palco celebrativo. Ilya Sutskever — uno dei padri fondatori della moderna intelligenza artificiale — riceve un’onorificenza che ha il retrogusto amaro della confessione pubblica. Non tanto per l’elogio accademico, ma per il sottotesto che trasuda da ogni parola: “accettare questo premio è stato doloroso”. Non è il solito vezzo da scienziato modesto. È un monito. O, meglio, una resa consapevole alla vertigine di ciò che abbiamo messo in moto.
Sutskever non è un profeta apocalittico, ma è colui che ha dato le chiavi del fuoco alle macchine. E adesso ci chiede di essere sobri, razionali e veloci. Non per aumentare la potenza computazionale, ma per restare in controllo. Ecco il punto: il controllo.
Safe Superintelligence Inc. (SSI), la startup fondata dall’ex scienziato capo di OpenAI, Ilya Sutskever, insieme a Daniel Gross e Daniel Levy, è attualmente in trattative per raccogliere nuovi fondi che potrebbero portare la valutazione dell’azienda a 20 miliardi di dollari. Questa cifra rappresenterebbe un notevole incremento rispetto alla valutazione di 5 miliardi di dollari ottenuta nel settembre 2024, quando SSI ha raccolto 1 miliardo di dollari da investitori di rilievo come Sequoia Capital e Andreessen Horowitz.
Ilya Sutskever, cofondatore di OpenAI e ora a capo del suo nuovo laboratorio Safe Superintelligence Inc., ha recentemente catturato l’attenzione della comunità scientifica durante la sua apparizione al prestigioso evento NeurIPS a Vancouver. La sua affermazione che il “pre-training come lo conosciamo finirà” segna una svolta epocale nel panorama dell’intelligenza artificiale (IA).
Nel panorama dell’intelligenza artificiale, OpenAI e altre aziende del settore stanno affrontando nuove sfide e incertezze mentre cercano di superare le aspettative di crescita dei modelli di linguaggio di grandi dimensioni. Nonostante l’enorme successo dei chatbot come ChatGPT, gli esperti del settore si stanno rendendo conto che le tecniche tradizionali di scalabilità, che si basano sull’aumento della potenza computazionale e dei dati, potrebbero non essere più sufficienti per raggiungere i traguardi desiderati. La ricerca si sta ora orientando verso approcci che riflettono il “pensiero” umano, in grado di pensare, ragionare e prendere decisioni in modo simile a come farebbe una persona.
Nella penombra di un elegante loft di Manhattan, circondato da libri e vecchie macchine da scrivere, un uomo rifletteva sui pericoli dell’intelligenza artificiale. Non era uno scienziato pazzo, ma Ilya Sutskever, uno dei padri spirituali dei moderni modelli linguistici. Guardava il tramonto oltre le finestre e pensava a come i suoi algoritmi, nati per rispondere a domande semplici, si fossero trasformati in divinità digitali affamate di energia.
Safe Superintelligence (SSI), una startup di intelligenza artificiale co-fondata da Ilya Sutskever, ex capo scienziato di OpenAI, ha raccolto con successo 1 miliardo di dollari in finanziamenti. Questo investimento valuta l’azienda a oltre 5 miliardi di dollari, come riportato da diverse fonti, tra cui Reuters e TechCrunch.
Il co-fondatore di OpenAI ed ex capo scienziato sta avviando una nuova società di intelligenza artificiale chiamata Safe Superintelligence Inc, focalizzata sulla creazione di un sistema di intelligenza artificiale avanzato e sicuro che sia più intelligente degli esseri umani.
Secondo le ultime notizie, Ilya Sutskever, cofondatore e capo scienziato di OpenAI, lascerà l’azienda dopo quasi un decennio. Sarà sostituito dal direttore della ricerca Jakub Pachocki.