Shane Legg, co-fondatore di DeepMind e oggi Chief AGI Scientist di Google DeepMind, sostiene che l’era della cognizione esclusivamente umana stia terminando. Non in senso metaforico, non come provocazione da conferenza. In senso operativo. Misurabile. Databile. Con una probabilità del 50 per cento di arrivarci entro il 2028. Chiunque lavori seriamente nel settore sa che quando uno come Legg assegna una percentuale a una previsione non sta giocando a fare l’oracolo. Sta facendo contabilità epistemica.

La parola chiave qui è AGI, artificial general intelligence. Ma non nel senso vago e cinematografico che popola le chiacchiere da podcast. Legg parla di una soglia funzionale molto precisa. Un sistema capace di svolgere qualunque attività remota che oggi un essere umano qualificato svolge davanti a un computer. Scrivere codice, analizzare bilanci, progettare molecole, redigere contratti, fare ricerca, coordinare altri agenti digitali. Non serve coscienza, non serve intenzionalità filosofica. Serve competenza generalizzata e trasferibile. Il resto è rumore.

La previsione del 2028 non nasce dal nulla. È figlia diretta delle leggi di scala, della crescita dei modelli multimodali, dell’efficienza computazionale e di benchmark interni che Google DeepMind non pubblica ma che orientano tutte le sue decisioni strategiche. Qui il punto non è se la data sia esatta. Il punto è che, per la prima volta, l’AGI viene trattata come una milestone di progetto, non come un orizzonte teorico. Quando un laboratorio di questo livello inizia a ragionare in termini di probabilità calendarizzate, significa che la discussione è già passata dal dipartimento di ricerca a quello di pianificazione strategica.

Non a caso DeepMind ha iniziato a prepararsi per un mondo post-AGI. Prepararsi davvero, non con dichiarazioni etiche di facciata. Il segnale più interessante non è tecnologico ma economico. Google sta reclutando un Chief AGI Economist. Un ruolo che, tradotto brutalmente, serve a rispondere a una domanda che fino a ieri era considerata quasi blasfema. Cosa succede all’economia quando l’intelligenza smette di essere scarsa.

Per due secoli il capitalismo industriale si è retto su una premessa implicita. L’intelligenza umana è limitata, costosa, lenta da formare. Anche con l’automazione più spinta, il lavoro cognitivo qualificato rimaneva il collo di bottiglia. Medici, ingegneri, avvocati, analisti, ricercatori. Tutti costosi perché pochi, tutti potenti perché insostituibili. L’AGI rompe questa simmetria. Introduce quello che Legg definisce, con un’espressione quasi innocua, lavoro digitale infinito. Menti artificiali che possono essere copiate, scalate, accelerate, sospese e riattivate. Che non dormono, non si ammalano, non negoziano stipendi.

Qui entra in gioco il tema dei livelli di prestazione. DeepMind utilizza un framework interno che descrive una progressione in cinque livelli, dagli emergenti ai virtuosi sovrumani. Non è tanto importante il numero quanto il concetto. L’intelligenza non come stato binario, ma come gradiente misurabile. Quando un sistema supera il 90 per cento degli adulti qualificati in una data attività, inizia a essere economicamente destabilizzante. Quando supera il 99 per cento, diventa sistemico. A quel punto non sostituisce singoli lavori. Sostituisce l’idea stessa di carriera professionale come accumulo di competenze rare nel tempo.

Il vero salto concettuale è nei limiti fisici. Il cervello umano è un capolavoro biologico, ma resta un sistema vincolato. Consuma circa 20 watt, ha una plasticità limitata, non può essere copiato né scalato verticalmente. Le menti digitali no. Possono crescere aumentando energia, memoria, parallelismo. Possono essere addestrate in giorni su quantità di dati che nessun essere umano potrebbe assimilare in una vita. Possono essere specializzate, poi ri-generalizzate. Questo rompe il legame storico tra intelligenza e biologia, tra cognizione e corpo. Un dettaglio che molti commentatori continuano a sottovalutare, spesso per conforto psicologico.

Shane Legg sta spostando il dibattito sull’AGI dalla torre d’avorio al libro mastro del lavoro globale. È qui che il discorso diventa scomodo. Se il costo marginale della produzione di intelligenza tende a zero, come si riorganizza un’economia basata sulla vendita di ore cognitive. Non è un problema di disoccupazione nel senso tradizionale. È un problema di ridefinizione del valore. Quando tutto ciò che può essere fatto da remoto può essere fatto meglio da una macchina, cosa resta all’essere umano come fattore produttivo distintivo.

La risposta facile è creatività, empatia, leadership. La risposta seria è più inquietante. Anche queste dimensioni stanno diventando modellabili, simulabili, ottimizzabili. Non perfette, certo. Ma sufficienti. E nel mercato la sufficienza batte l’eccellenza se costa cento volte meno. La storia dell’automazione lo dimostra con una coerenza quasi crudele.

Assumere un economista per prepararsi a uno scenario che potrebbe distruggere il modello di business tradizionale basato sulla monetizzazione del lavoro umano e dell’attenzione. È come se una compagnia ferroviaria dell’Ottocento avesse assunto un urbanista per pianificare le città post-treno. Non perché il treno scomparirà, ma perché tutto il resto cambierà.

Questo spiega anche il tono apparentemente freddo delle dichiarazioni di Legg. Non c’è apocalittica, non c’è entusiasmo messianico. C’è una lucidità quasi contabile. Se l’AGI arriva, arriverà prima come forza economica che come entità filosofica. Prima come spreadsheet che come coscienza. Ed è lì che farà più male, perché l’economia non aspetta che la società sia pronta. Si adatta, taglia, rialloca. Senza chiedere permesso.

Il punto centrale, spesso ignorato nel dibattito pubblico, è che l’AGI non deve essere perfetta per essere dirompente. Deve solo essere abbastanza buona, abbastanza generalista, abbastanza economica. Il resto lo farà la scala. È la stessa dinamica che ha reso il cloud inevitabile e il software open source dominante. Una volta che la curva supera una certa soglia, tornare indietro diventa non solo difficile ma economicamente irrazionale.

Siamo quindi davanti a una transizione che non riguarda solo la tecnologia, ma l’idea stessa di lavoro, competenza, merito. La narrativa del lifelong learning inizia a sembrare una foglia di fico quando il ritmo di miglioramento delle macchine supera quello biologico. Non si tratta di imparare di più. Si tratta di chiedersi perché imparare certe cose, e per chi.

Shane Legg non sta dicendo che gli esseri umani diventeranno inutili. Sta dicendo qualcosa di più sottile e più destabilizzante. Sta dicendo che l’intelligenza, come risorsa economica, sta per essere smaterializzata. E quando una risorsa chiave perde scarsità, l’intero sistema che la valorizzava entra in crisi. Non per cattiveria delle macchine, ma per aritmetica.

Il 2028 potrebbe arrivare senza fanfare, senza un momento zero. Potrebbe manifestarsi come una serie di piccoli superamenti, di silenziose sostituzioni, di decisioni aziendali prese “per efficienza”. E quando ce ne accorgeremo, il dibattito etico sarà già in ritardo. Come spesso accade. Perché la storia dell’innovazione non è mai stata gentile con chi confonde il tempo del pensiero con quello del mercato.

X: https://x.com/ShaneLegg/status/1717799837242896553