Confronting and Overcoming the Risks of Powerful AI

L’adolescenza dell’intelligenza artificiale e l’ipocrisia della prudenza calcolata

L’umanità sta per ricevere un potere quasi inimmaginabile. La frase non è mia, ed è bene chiarirlo subito, perché suona come una di quelle aperture solenni che di solito precedono una vendita aggressiva di consulenza o un piano industriale con troppe slide. È invece l’incipit concettuale di Dario Amodei, CEO di Anthropic, nel suo lungo saggio sull’adolescenza della tecnologia, un testo monumentale che prova a mettere ordine nel caos narrativo che circonda l’intelligenza artificiale avanzata. Il punto di partenza è serio, persino nobile. Non sappiamo se i nostri sistemi sociali, politici ed economici siano maturi abbastanza per gestire ciò che stiamo costruendo. Detto da uno che quei sistemi li sta letteralmente progettando, il messaggio pesa.

Il saggio di Amodei è lungo, denso, a tratti ossessivo. Circa diciannovemila parole dedicate a spiegare perché l’intelligenza artificiale avanzata non è solo una tecnologia potente, ma una forza potenzialmente destabilizzante su scala storica. Superintelligenza fuori controllo, uso malevolo da parte di attori statali e non statali, concentrazione estrema di potere economico, automazione distruttiva del lavoro cognitivo, autoritarismo digitale reso efficiente da modelli predittivi sempre più accurati. Non è fantascienza. È una lista di rischi plausibili, presentati con il linguaggio di chi ha accesso diretto ai laboratori e non solo ai comunicati stampa.

Il tono non è quello del profeta apocalittico. Amodei non urla, non minaccia, non indulge nel catastrofismo facile. Anzi, insiste sul fatto che questi scenari non sono inevitabili. Dice che possiamo farcela. Dice che con abbastanza ricerca sull’allineamento, barriere di sicurezza robuste, governance aziendale responsabile e una politica economica coraggiosa, l’umanità potrebbe attraversare indenne questa fase adolescenziale della tecnologia. Serve anche fortuna, ammette. Una quantità non trascurabile di fortuna. Una frase che suona onesta e allo stesso tempo inquietante, perché quando la fortuna entra in un piano strategico significa che i margini di errore sono enormi.

Il cuore del problema emerge quando dalle diagnosi si passa alle prescrizioni. Qui il saggio di Amodei cambia ritmo. Diventa più prudente, più misurato, quasi timido. La proposta politica centrale ruota attorno alla trasparenza. Leggi che obblighino le grandi aziende di intelligenza artificiale a rendere pubbliche informazioni sui modelli più avanzati, sui test di sicurezza, sui rischi identificati. Vengono citate come esempi concreti la California SB 53 e il RAISE Act di New York, normative già approvate che introducono obblighi di disclosure per le aziende sopra una certa soglia di fatturato. L’idea è semplice e, in astratto, sensata. Prima raccogliamo dati. Poi, sulla base delle evidenze, costruiamo una regolamentazione più vincolante.

Il ragionamento è elegante. Amodei avverte giustamente contro il rischio del teatro della sicurezza, regolamenti scritti in fretta che producono l’illusione del controllo senza ridurre davvero i rischi. Sottolinea quanto sia difficile correggere una legge una volta approvata. Invoca umiltà epistemica. In un mondo razionale, sarebbe una posizione difficilmente attaccabile. Il problema è che lo stesso Amodei, poche pagine prima, ha spiegato che potremmo essere a uno o due anni dall’emergere di sistemi di intelligenza artificiale qualitativamente nuovi. Sistemi che cambiano le regole del gioco. Sistemi che rendono molte delle nostre attuali categorie giuridiche e politiche improvvisamente obsolete.

Qui nasce la frattura. La tempistica. I governi non si muovono alla velocità dei laboratori di frontiera. ChatGPT è stato lanciato alla fine del 2022 e ha trasformato il dibattito globale sull’intelligenza artificiale in pochi mesi. La SB 53 ha richiesto anni per arrivare all’approvazione. Se per una legislazione di trasparenza relativamente leggera servono tre anni di negoziazione, compromessi e rinvii, su cosa si basa l’idea che norme più incisive possano essere implementate in tempo utile quando i rischi diventeranno evidenti. L’approccio sequenziale, trasparenza prima e regolazione forte poi, sembra presupporre un’improvvisa efficienza del sistema politico che la storia recente non giustifica.

Amodei non fornisce un calendario rigido, è vero. Non promette che il Congresso o i parlamenti statali si trasformeranno in macchine decisionali rapide e lungimiranti. Parla di preparazione, di capacità di reazione. Ma il suo stesso quadro teorico suggerisce che il tempo potrebbe non essere un lusso. Se davvero ci troviamo sull’orlo di una discontinuità tecnologica radicale, allora l’idea di aspettare ulteriori evidenze prima di agire assomiglia più a una scommessa che a una strategia.

La questione diventa ancora più delicata quando si osserva il ruolo di Anthropic. Amodei scrive come se fosse un osservatore esterno, un intellettuale preoccupato per il futuro dell’umanità. In realtà guida una delle aziende più avanzate al mondo nello sviluppo di modelli di intelligenza artificiale. Le sue parole hanno un peso politico proprio perché sono pronunciate da chi contribuisce direttamente ad accelerare i processi che descrive come pericolosi. Qui emerge una tensione che attraversa tutto il saggio. Da un lato l’allarme. Dall’altro la necessità di apparire ragionevoli, moderati, affidabili agli occhi dei regolatori e dei mercati.

Questa tensione si riflette anche nelle scelte strategiche dell’azienda. Amodei esprime preoccupazione per il rischio che paesi non democratici con grandi data center possano acquisire un vantaggio decisivo grazie all’intelligenza artificiale. Allo stesso tempo Anthropic opera in un contesto globale, aperto a investimenti internazionali e dinamiche finanziarie che rendono difficile tracciare confini netti tra democrazie virtuose e regimi problematici. Il saggio non entra nei dettagli di queste contraddizioni, ma il silenzio è eloquente. La governance dell’intelligenza artificiale non è solo una questione di leggi. È una questione di incentivi, proprietà, controllo del capitale.

Lo stesso vale per il tema, appena sfiorato ma sempre presente, della possibile IPO. Amodei sottolinea l’importanza di una governance solida per le aziende di intelligenza artificiale avanzata. È difficile non notare la tensione tra questa affermazione e l’idea di una futura quotazione in borsa, che per definizione introduce pressioni di mercato, aspettative di crescita e una dispersione del controllo. Anche qui il saggio preferisce non affondare il colpo. La narrazione resta su un piano teorico, come se le scelte aziendali concrete fossero un dettaglio secondario.

Il risultato complessivo è un testo intellettualmente onesto ma politicamente ambiguo. Amodei sembra voler occupare una posizione precisa nello spazio del dibattito pubblico. Non il luddista che chiede di fermare tutto. Non il tecnottimista che minimizza i rischi. Piuttosto il centrista della sicurezza dell’intelligenza artificiale, colui che avverte dei pericoli ma invita alla cautela anche nel reagire a quei pericoli. È una posizione comoda. Consente di parlare di scenari estremi senza dover sostenere apertamente misure altrettanto estreme. Consente di influenzare il dibattito senza esporsi troppo.

Il problema è che questa postura rischia di indebolire il messaggio stesso. Se davvero l’intelligenza artificiale avanzata rappresenta un rischio sistemico di portata storica, allora le proposte politiche timide suonano stonate. Se invece le proposte timide sono le uniche realisticamente praticabili, allora forse la diagnosi andrebbe ridimensionata. Mantenere entrambe le cose nello stesso discorso crea una dissonanza che i critici non mancheranno di sfruttare. Diventa facile liquidare gli avvertimenti come l’ennesimo esempio di CEO tecnologico che agita lo spettro del disastro per orientare la regolamentazione a proprio vantaggio.

Ed è qui che la posta in gioco diventa reale. Perché se Amodei ha torto, il suo saggio resterà un esercizio intellettuale affascinante, una fotografia delle ansie di un’epoca. Se invece ha ragione, se davvero stiamo entrando in una fase in cui l’intelligenza artificiale supera la nostra capacità di controllo istituzionale, allora l’incoerenza tra diagnosi e prescrizione potrebbe costare carissimo. Letteralmente. In quel caso non basterà dire che serviva più trasparenza. Servirà spiegare perché, pur vedendo arrivare la tempesta, abbiamo scelto di limitare la risposta a un bollettino meteo.

Amodei Blog: https://www.darioamodei.com/essay/the-adolescence-of-technology