Hugging Face, uno dei principali attori nel campo dell’intelligenza artificiale (IA), ha recentemente annunciato un investimento significativo di 10 milioni di dollari in GPU condivise per supportare gli sviluppatori nella creazione di nuove tecnologie IA.

Il CEO di Hugging Face, Clem Delangue, ha dichiarato che l’azienda è in una posizione privilegiata per investire nella comunità grazie ai suoi recenti successi finanziari, tra cui una raccolta di 235 milioni di dollari in finanziamenti che ha valutato la società 4,5 miliardi di dollari.

Delangue è preoccupato per la capacità delle startup IA di competere con colossi come Google, OpenAI e DeepMind, che hanno a disposizione miliardi di dollari per le risorse computazionali necessarie allo sviluppo di modelli IA avanzati.

Se ti ritrovi con alcune organizzazioni che dominano troppo, in seguito sarà più difficile combatterle

Delangue

Hugging Face mira a rendere le tecnologie IA all’avanguardia accessibili a tutti, non solo ai giganti della tecnologia. Delangue ha espresso la sua visione di un futuro in cui l’approccio open source consenta a un numero molto più ampio di aziende, organizzazioni non profit, politici e regolatori di realizzare l’intelligenza artificiale, portando a un mondo molto più decentralizzato senza eccessiva concentrazione di potere.

L’accesso all’informatica rappresenta una sfida significativa per la costruzione di modelli linguistici di grandi dimensioni, spesso favorendo aziende come OpenAI e Anthropic, che siglano accordi con fornitori di servizi cloud per ingenti risorse informatiche. Hugging Face mira a livellare il campo di gioco donando queste GPU condivise alla comunità attraverso il programma ZeroGPU.

Le GPU condivise sono accessibili a più utenti o applicazioni contemporaneamente, eliminando la necessità che ciascun utente o applicazione disponga di una GPU dedicata. ZeroGPU sarà disponibile tramite Hugging Face’s Spaces, una piattaforma di hosting per la pubblicazione di app, che secondo l’azienda conta oltre 300.000 demo IA create finora su CPU o GPU a pagamento.

“È molto difficile ottenere abbastanza GPU dai principali fornitori di servizi cloud e il modo per ottenerle, creando un’elevata barriera all’ingresso, è impegnarsi su numeri molto grandi per lunghi periodi di tempo”.

Delangue.

In genere, un’azienda si impegna a rivolgersi a un provider cloud come Amazon Web Services per uno o più anni per proteggere le risorse GPU, una disposizione che svantaggia le piccole imprese, gli sviluppatori indipendenti e gli accademici che costruiscono su piccola scala e non possono prevedere se i loro progetti prenderanno piede.

ZeroGPU utilizza dispositivi GPU Nvidia A100 per alimentare questa operazione, che offrono circa la metà della velocità di calcolo dei popolari e più costosi H100. Questa scelta mira a rendere le GPU condivise convenienti, efficienti dal punto di vista energetico e ideali per l’utilizzo a livello comunitario.

Con l’intelligenza artificiale che avanza rapidamente a porte chiuse, l’obiettivo di Hugging Face è consentire alle persone di sviluppare più tecnologia IA all’aperto. Andrew Reed, un ingegnere di machine learning presso Hugging Face, ha persino creato un’app che visualizza il progresso dei LLM proprietari e open source nel tempo secondo il punteggio della LMSYS Chatbot Arena, che mostra il divario tra i due che si avvicinano sempre di più.

Oltre 35.000 varianti del modello IA open source Llama di Meta sono state condivise su Hugging Face dalla prima versione di Meta un anno fa, spaziando da “modelli quantizzati e fusi a modelli specializzati in biologia e mandarino”, secondo l’azienda. Delangue ha affermato che “l’intelligenza artificiale non dovrebbe essere nelle mani di pochi” e che con questo impegno nei confronti degli sviluppatori open source, Hugging Face è entusiasta di vedere cosa creeranno i prossimi in uno spirito di collaborazione e trasparenza.

L’investimento di Hugging Face in GPU condivise gratuite rappresenta un passo significativo verso la democratizzazione dell’intelligenza artificiale, consentendo a una più ampia gamma di sviluppatori di contribuire all’avanzamento di questa tecnologia in modo aperto e collaborativo. Questa iniziativa sfida il dominio dei giganti tecnologici e mira a creare un futuro in cui l’IA sia accessibile a tutti, promuovendo un ecosistema più diversificato e innovativo.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!