Google sta spingendo i limiti dell’intelligenza artificiale con Project Astra, un progetto che mira a trasformare il modo in cui le macchine comprendono e interagiscono con il mondo reale. Alla base di Astra c’è una tecnologia “multimodale” che combina input visivi, testuali e sonori, consentendo una comprensione contestuale molto più profonda rispetto ai tradizionali chatbot basati solo su testo.
Il cuore del progetto è Gemini Live, un’interfaccia avanzata progettata per integrare l’IA nelle applicazioni quotidiane. Durante una recente demo, Google ha mostrato prototipi di occhiali intelligenti che sfruttano Astra per interpretare oggetti e situazioni in tempo reale, segnalando un possibile ritorno dei famigerati Google Glass, ma con capacità potenziate dalla generazione di contenuti IA. Questa tecnologia potrebbe rendere ogni scena catturata dalla fotocamera un potenziale archivio di dati consultabili e “shoppabili” istantaneamente.
Gli esperti avvertono però che l’IA multimodale di Astra non è ancora in grado di costruire una vera “mappa mentale” del mondo fisico. L’insegnamento del linguaggio umano avviene attraverso l’interazione diretta con l’ambiente, un processo ancora fuori dalla portata dei sistemi di IA odierni. Tuttavia, Google spera che il progresso nell’interpretazione visiva e nei modelli di apprendimento porterà a un’intelligenza artificiale più robusta e versatile.
Project Astra non è solo una risposta a ChatGPT di OpenAI, ma rappresenta un passo ambizioso verso assistenti universali, capaci di percepire, comprendere e agire nel mondo reale. Sebbene lontano dal tanto discusso concetto di “intelligenza generale artificiale” (AGI), segna l’inizio di una nuova era nell’interazione uomo-macchina, con implicazioni che potrebbero ridefinire interi settori tecnologici e industriali.