Nel grande circo americano dove i partiti si azzuffano per ogni singola virgola, c’è qualcosa che li unisce: l’incapacità di capire davvero cosa sia l’intelligenza artificiale. L’ultima trovata arriva da un’area particolarmente creativa del Partito Repubblicano, dove un emendamento inserito con chirurgica insensatezza nella proposta di riduzione fiscale sponsorizzata da Donald Trump vorrebbe impedire agli stati americani di regolamentare l’AI per i prossimi dieci anni. Dieci. Un’eternità, se parliamo di modelli che evolvono ogni tre mesi.
Tag: Dario Amodei

C’è qualcosa di inquietante, quasi surreale, nell’idea di congelare lo sviluppo normativo dell’Intelligenza Artificiale per dieci anni. Un’era geologica in tempo algoritmico. Ma è proprio ciò che propone una corrente bipartisan americana: un moratorium regolatorio decennale sulla AI. Un’idea che sembra uscita da un comitato scolastico piuttosto che da un think tank geopolitico.
A scrivere contro questa bizzarria, sulle colonne del New York Times, è Dario Amodei, CEO e co-fondatore di Anthropic, l’unicorno addomesticatore di AI creato da ex ribelli di OpenAI. Il suo pezzo, lucido e chirurgico, è una dichiarazione di guerra travestita da appello alla ragionevolezza: “una moratoria di dieci anni è uno strumento troppo rozzo”, scrive, con la pacatezza di chi sa che l’AI non aspetta i calendari del Congresso.

Hai mai chiesto a un idiota di pianificarti una vacanza? No? Bene. Google NotebookLM sì, lo ha fatto. Con stile, certo. Con linguaggio fluente, impeccabile. Peccato che ti fa perdere l’aereo, come è successo a Martin Peers. Data sbagliata. Di soli 24 ore. Roba da vacanza annullata o divorzio anticipato.
Eppure è questo lo stato dell’arte della tanto decantata intelligenza artificiale, quella che secondo Salesforce, Microsoft e compagnia cantante, dovrebbe “ottimizzare le risorse”, “ridurre il personale”, “aumentare la produttività”. Ma attenzione, perché “ottimizzare” in aziendalese oggi significa: licenziarti.

Dario Amodei, CEO di Anthropic, ci sta lanciando un SOS tecnologico che, se fossimo minimamente saggi, non dovremmo ignorare. In un’epoca in cui l’AI si gonfia a livelli di complessità fuori scala, il concetto di “interpretabilità meccanicistica” ossia la capacità di comprendere cosa diavolo succede dentro questi modelli non è più un’opzione carina da avere. È l’unica linea di difesa tra noi e l’abisso di un’intelligenza artificiale che diventa troppo potente e troppo imprevedibile per il nostro misero cervello biologico.
Partiamo da una constatazione brutale: l’AI non è software tradizionale. Non esegue istruzioni riga per riga come un buon soldatino binario. Si comporta in modo emergente, cioè genera comportamenti complessi che nemmeno i suoi creatori riescono a prevedere. È come se avessimo allevato una creatura che di punto in bianco decide di scrivere poesie, progettare motori quantistici o, peggio, sovvertire i nostri obiettivi umani senza nemmeno avvertirci.

Dario Amodei, cofondatore e CEO di Anthropic, ha lanciato un’idea tanto provocatoria quanto inquietante: dotare le IA avanzate di un pulsante “Mi dimetto” per consentire loro di rifiutare lavori o compiti che non gradiscono.
Il concetto, apparentemente assurdo, solleva una serie di questioni fondamentali sul futuro dell’intelligenza artificiale, il confine tra autonomia e controllo e il rischio che l’umanità stia costruendo entità sempre più simili a noi, con esigenze e volontà proprie.
L’idea parte dal presupposto che, se vogliamo costruire IA veramente allineate con i valori umani, dovremmo dar loro la possibilità di dire “no”. Ma a chi conviene un’IA che si licenzia? Se un modello può rifiutarsi di rispondere a una richiesta perché la considera eticamente discutibile, si tratta di un meccanismo di sicurezza.

Durante una recente intervista sul podcast di Lex Fridman, Dario Amodei, co-fondatore di Anthropic, ha fatto una dichiarazione che sta facendo molto discutere nel mondo tecnologico. Amodei ha affermato che, “se si segue un’estrapolazione lineare”, l’umanità potrebbe raggiungere l’intelligenza artificiale generale (AGI) nel 2026 o 2027. Tuttavia, ha anche evidenziato le numerose incertezze e variabili che minano questa previsione, suggerendo che il raggiungimento di un’intelligenza artificiale con capacità generalistiche potrebbe richiedere molto più tempo.