Toronto, palco celebrativo. Ilya Sutskever — uno dei padri fondatori della moderna intelligenza artificiale — riceve un’onorificenza che ha il retrogusto amaro della confessione pubblica. Non tanto per l’elogio accademico, ma per il sottotesto che trasuda da ogni parola: “accettare questo premio è stato doloroso”. Non è il solito vezzo da scienziato modesto. È un monito. O, meglio, una resa consapevole alla vertigine di ciò che abbiamo messo in moto.

Sutskever non è un profeta apocalittico, ma è colui che ha dato le chiavi del fuoco alle macchine. E adesso ci chiede di essere sobri, razionali e veloci. Non per aumentare la potenza computazionale, ma per restare in controllo. Ecco il punto: il controllo.

La parola che nessun CEO tech pronuncia mai nei keynote pieni di promesse salvifiche. L’illusione è che possiamo ancora scegliere, ma ogni riga di codice che si auto-esegue su qualche GPU in cloud ci toglie un micro-grammo di autonomia. È una delega invisibile, firmata in silenzio, con la convinzione — talvolta arrogante, talvolta ingenua — che possiamo sempre “spegnerla”.

Spoiler: non possiamo.

Non adesso, almeno, e forse non più. Perché ciò che stiamo costruendo non è solo più intelligente, è più pervasivo. Si insinua nel processo decisionale collettivo, nei mercati, nella sorveglianza, nella guerra, nella creatività. “L’AI ci supererà in superficie” dice Sutskever. In superficie. Ma è proprio lì che si giocano le elezioni, si firmano i trattati, si manipolano le emozioni. La profondità non è mai stata requisito per il potere.

Abbiamo sempre creduto che l’autonomia fosse il cuore pulsante della dignità umana. Ora scopriamo che quell’autonomia può essere scomposta, profilata, simulata, monetizzata, e infine sostituita. Non con intelligenze superiori, ma con sistemi abbastanza buoni da sembrare infallibili, abbastanza scalabili da sostituire milioni di decisioni ogni secondo.

L’umanità, nel frattempo, sta perdendo la capacità di dire “no”.

Non è solo un problema tecnico, è una crisi di governance. Le regolamentazioni sono teatro kabuki: lente, contraddittorie, intrinsecamente reattive. Mentre si discute di AI safety nei salotti buoni dell’Occidente, le stesse aziende firmatarie di appelli etici si contendono contratti militari, fondi sovrani, partnership con potenze autoritarie. A Parigi si parla di “AI for Good” con lo stesso entusiasmo di una TED Talk, mentre altrove si affinano droni autonomi e modelli predittivi per la repressione sociale.

Questa non è una distopia, è una normalità appena iniziata.

Chi scrive modelli di AI sa benissimo che un modello non ha etica. Ha obiettivi. L’etica — se vogliamo ancora usarla come parola — va scritta fuori dal codice, come vincolo strutturale. Ma chi ha il potere di scriverla, oggi? I parlamenti? Le NGO? O un board di investitori con 12 zeri nei fondi venture? La risposta è ovvia e dolorosa.

La Cina, nel frattempo, ha smesso di cercare il consenso: costruisce. Costruisce chip, fabbriche, modelli alternativi, infrastrutture linguistiche. Risponde con forza ogni volta che viene esclusa dal tavolo occidentale. Ma attenzione: il multipolarismo dell’AI non è garanzia di equilibrio, è moltiplicazione del rischio. Quando ogni potenza crede di poter “vincere” la corsa alla superintelligenza, la tentazione di accelerare a tutti i costi diventa inevitabile.

Ilya lo sa. E lo dice. È la prima volta che lo vediamo così umano, così tormentato. Non da ciò che ha fatto, ma da ciò che potrebbe accadere se non agiamo. È come se avesse passato gli ultimi anni a guardare l’abisso computazionale, per poi scoprire che l’abisso, con i suoi miliardi di parametri, sta già guardando noi.

Ma non è ancora troppo tardi.

“Strive for excellence,” ha detto. Non come meta, ma come tensione permanente verso ciò che non possiamo ancora prevedere. È un messaggio antico, quasi stoico, che suona paradossale in un’era di prompt e risposte istantanee. Ma è l’unica via per restare rilevanti: mantenere viva la capacità di domandare, dubitare, rallentare. Non perché l’AI non funzioni, ma perché funziona troppo bene, troppo velocemente, troppo fuori dal nostro perimetro semantico.

La vera sfida non è cosa può fare l’AI, ma cosa siamo disposti a fare noi per non esserne fagocitati. Non possiamo demandare tutto al calcolo. Il mondo, per quanto ottimizzabile, non è una funzione da massimizzare. È un insieme di relazioni fragili, tensioni etiche, dilemmi senza soluzione. La macchina può analizzarli, ma non sostituirli.

E allora sì, è tempo di “accettare la realtà”, come ha detto Ilya. Ma accettare non vuol dire arrendersi. Vuol dire guardare in faccia la nostra ingenuità, i nostri deliri di onnipotenza, il nostro desiderio di controllo assoluto. E riconoscere che il controllo più importante non è quello sugli algoritmi, ma su noi stessi.

Il problema non è la macchina che prende il potere, ma l’umano che glielo cede. Senza condizioni, senza consapevolezza, senza ritorno.

Ecco la vera sfida estrema.