Yann LeCun è considerato uno dei padri dell’Intelligenza artificiale, noto per i suoi contributi nei settori dell’apprendimento automatico, della robotica, del deep learning e delle neuroscienze computazionali.

È professore alla New York University e Chief AI Scientist di Meta e proprio per questo, quando parla di Intelligenza Artificiale è bene prestare attenzione alle sue parole.

Martedì scorso, durante un evento a Londra, il principale centro di sviluppo di Meta al di fuori degli Stati Uniti, LeCun ha affermato che l’AI generale – che Elon Musk ha dichiarato più volte poter arrivare entro il 2025 e che il Ceo di Nvidia Jensen Huang ritiene arriverà arriverà entro cinque anni – rimane una destinazione ancora molto lontana.

Per LeCun, l’Intelligenza Artificiale non sarà mai più intelligente degli esseri umani perché la tecnologia non percepisce e comprende la realtà nello stesso modo in cui possono farlo gli esseri umani, allontanando quindi gli scenari foschi dei catastrofisti dell’AI che teorizzano un futuro alla Matrix con un’umanità soggetta al mondo delle macchine.

Ai modelli di AI mancherebbe secondo LeCun “il ragionamento, la pianificazione, la memoria persistente e la comprensione del mondo fisico sono quattro caratteristiche essenziali dell’intelligenza umana”. 

Queste sono quattro caratteristiche essenziali dell’intelligenza umana – anche dell’intelligenza animale, del resto – che gli attuali sistemi di intelligenza artificiale non possono gestire“, ha aggiunto.

Senza queste funzionalità, le applicazioni di AI rimangono quindi limitate e soggette a errori. “Siamo facilmente indotti a pensare che siano intelligenti a causa della loro fluidità con il linguaggio, ma in realtà la loro comprensione della realtà è molto superficiale. Sono utili, su questo non c’è dubbio.

Ma nel percorso verso l’intelligenza a livello umano, gli LLM sono fortemente limitati dalla loro dipendenza da una forma di conoscenza umana: il testo”.

Questo perché, spiega “la maggior parte della conoscenza umana in realtà non è linguaggio, quindi questi sistemi non potranno mai raggiungere l’intelligenza a livello umano, a meno che non si cambi l’architettura”. 

Senza queste funzionalità, le applicazioni di Intelligenza Artificiale rimangono limitate e soggette a errori e infatti osserva LeCun i veicoli autonomi non sono ancora sicuri per le strade pubbliche, i robot domestici hanno difficoltà a svolgere le faccende domestiche di base e i nostri assistenti intelligenti possono completare solo le attività di base.

Strumenti come LLaMA di Meta, GPT di OpenAI e Gemini di Google sono addestrati su enormi quantità di dati. Secondo LeCun, un essere umano impiegherebbe circa 100.000 anni per leggere tutto il testo assimilato da uno di questi LLM. Tuttavia non è questo il nostro metodo principale di apprendimento.

Consumiamo molte più informazioni attraverso le nostre interazioni con il mondo. LeCun stima che un tipico bambino di quattro anni abbia visto 50 volte più dati e informazioni rispetto ai più grandi LLM sviluppati fino ad oggi.

Sarebbe più opportuno secondo LeCun parlare al momento di obiettivi dell’Intelligenza Artificiale ovvero di sistemi che sono costruiti per soddisfare obiettivi specifici stabiliti dagli esseri umani anche se ci sarà un momento “alla fine” in cui “le macchine supereranno l’intelligenza umana“, solo che, secondo LeCun questo momento “non è proprio dietro l’angolo – e certamente non è l’anno prossimo come ha detto il nostro amico Elon”.