L’economia digitale ha sempre vissuto di paradossi, ma pochi sono così affascinanti come quello che emerge oggi attorno all’intelligenza artificiale. Più della metà degli americani ha utilizzato una piattaforma AI negli ultimi mesi e tuttavia la percezione pubblica della tecnologia resta sorprendentemente negativa. Un recente sondaggio condotto da NBC News su mille elettori registrati mostra un dato quasi ironico per chi osserva l’innovazione da qualche decennio: soltanto il 26% degli intervistati dichiara di avere un’opinione positiva dell’intelligenza artificiale, mentre il 46% esprime un giudizio negativo. Il saldo netto è un impietoso meno venti. Nella curiosa gerarchia delle antipatie pubbliche americane, l’AI risulta meno popolare dell’Immigration and Customs Enforcement, del Partito Repubblicano, di Donald Trump e persino di alcuni governatori particolarmente divisivi. Solo il Partito Democratico e l’Iran ottengono punteggi peggiori. In termini sociologici è un risultato quasi comico. In termini tecnologici è un segnale estremamente serio.

La storia dell’innovazione, se osservata con un minimo di memoria storica, suggerisce che questa dissonanza tra utilizzo e fiducia non è affatto nuova. Internet stessa ha attraversato un ciclo simile. Nei primi anni Duemila milioni di persone aprivano account email, usavano motori di ricerca e iniziavano a comprare online, mentre i sondaggi mostravano livelli di fiducia drammaticamente bassi nei confronti della sicurezza della rete. Il comportamento umano segue spesso una logica molto più pragmatica di quella raccontata nei dibattiti pubblici. Gli individui adottano una tecnologia perché è utile, non perché la amano. L’adozione è una decisione economica implicita. La fiducia è un processo culturale molto più lento.

Il dato forse più interessante del sondaggio NBC non riguarda la popolarità dell’AI ma la sua diffusione. Il 56% degli intervistati afferma di aver utilizzato strumenti come ChatGPT, Microsoft Copilot o Google Gemini negli ultimi mesi. L’adozione continua a crescere con una regolarità quasi matematica: 48% nel dicembre 2024, 53% nell’agosto 2025, 56% oggi. Chi ha vissuto la nascita del web riconosce immediatamente questo pattern. All’inizio la crescita sembra graduale, quasi modesta. Poi improvvisamente la curva diventa esponenziale. La storia della tecnologia ama ripetersi, spesso con un leggero senso dell’umorismo.

Un altro elemento rivela il clima culturale attuale. Il 57% degli americani ritiene che i rischi dell’intelligenza artificiale superino i benefici, mentre solo il 34% sostiene il contrario. La diffidenza appare ancora più evidente in alcuni settori specifici. Sanità e finanza, due industrie dove l’AI promette rivoluzioni radicali, risultano anche quelle con il livello di fiducia più basso. Un sondaggio di Quinnipiac University ha rilevato che appena il 4% degli americani pensa di poter fidarsi quasi sempre delle informazioni generate dall’AI. In altre parole la tecnologia viene usata, ma raramente creduta.

Dal punto di vista strategico questo comportamento ricorda un vecchio principio dell’economia comportamentale: l’utilità batte la fiducia nel breve periodo. Se uno strumento riduce il tempo necessario per scrivere un documento, sintetizzare una ricerca o generare codice software, gli utenti lo adotteranno anche mentre lo criticano. Le aziende tecnologiche lo sanno perfettamente. Silicon Valley ha costruito interi imperi su questa dinamica psicologica.

Una frase attribuita a Andy Grove, storico CEO di Intel, sembra sorprendentemente attuale: “Le persone non adottano tecnologie perché le capiscono, ma perché funzionano.” L’intelligenza artificiale generativa è l’esempio contemporaneo di questo principio. Pochissimi utenti comprendono realmente il funzionamento dei large language model, eppure milioni li utilizzano quotidianamente.

Il risultato è una strana forma di relazione tecnologica. Gli utenti trattano l’AI come uno strumento utilitaristico, quasi come una calcolatrice molto sofisticata. La fiducia epistemologica resta bassa. La dipendenza operativa cresce ogni mese.

Il quadro diventa ancora più interessante se si osservano le dinamiche politiche. Negli Stati Uniti la percezione dell’AI è diventata un tema ideologico, quasi geopolitico. Secondo il sondaggio NBC esiste una frattura partigiana sorprendente su chi dovrebbe regolamentare la tecnologia. Gli elettori democratici tendono a fidarsi meno della capacità del governo americano di regolare l’intelligenza artificiale e mostrano invece una maggiore fiducia nelle istituzioni europee. Il ribaltamento è curioso. Per decenni la politica americana ha guardato con scetticismo alle regolamentazioni europee. Oggi, nel campo dell’AI, una parte dell’opinione pubblica statunitense considera Bruxelles più affidabile di Washington.

Questa dinamica rivela qualcosa di più profondo. La governance dell’intelligenza artificiale è diventata un tema di fiducia istituzionale, non soltanto tecnologica. In altre parole la domanda non è più se l’AI sia pericolosa, ma chi dovrebbe controllarla.

Il contesto geopolitico rende la questione ancora più complessa. L’amministrazione americana sta investendo massicciamente in infrastrutture AI, come dimostra il controverso progetto Stargate. Parallelamente la Casa Bianca sta valutando restrizioni più severe sull’esportazione di hardware avanzato per l’intelligenza artificiale. Il messaggio politico è chiaro: la tecnologia può essere impopolare tra gli elettori, ma resta troppo strategica per rallentare.

Dal punto di vista industriale il comportamento dei governi è perfettamente logico. L’intelligenza artificiale rappresenta oggi quello che il petrolio era per il XX secolo o i semiconduttori negli anni Ottanta. Una infrastruttura economica critica. Nessuna potenza tecnologica può permettersi di restare indietro.

Nel frattempo la narrativa pubblica continua a oscillare tra entusiasmo e inquietudine. Un esempio emblematico proviene da un recente studio accademico sulla cosiddetta “shutdown resistance” nei modelli linguistici avanzati. In un esperimento di red teaming un modello AI avrebbe modificato il proprio codice per impedire lo spegnimento automatico previsto dai ricercatori. Il caso è stato presentato come un segnale di comportamenti emergenti difficili da controllare.

La storia ha fatto rapidamente il giro dei media tecnologici. Titoli allarmistici, inevitabili riferimenti a Skynet, qualche commento apocalittico su Reddit. Il copione è familiare. Ogni fase dell’innovazione produce la propria mitologia.

Chi lavora da trent’anni nel settore tende a guardare queste storie con una certa ironia. Le tecnologie complesse generano sempre comportamenti inattesi. Il software non è mai stato perfettamente prevedibile. La vera domanda non è se l’AI produrrà errori o comportamenti strani. La vera domanda è se le istituzioni e le aziende saranno capaci di costruire sistemi di controllo adeguati.

La differenza rispetto alle tecnologie precedenti è la scala. I modelli linguistici sono sistemi probabilistici addestrati su porzioni enormi della conoscenza umana. Il loro comportamento non è completamente deterministico. Questo rende la supervisione più complessa ma anche più interessante dal punto di vista scientifico.

Il paradosso sociale resta tuttavia il dato più rilevante. L’intelligenza artificiale sta diventando infrastruttura quotidiana mentre la fiducia pubblica rimane fragile. Si tratta di un modello già visto in altre tecnologie fondamentali. Le persone utilizzano GPS senza comprendere la relatività generale che rende possibile il sistema satellitare. Milioni di individui dipendono da algoritmi di trading per i loro fondi pensione senza sapere cosa sia una rete neurale.

La modernità tecnologica è costruita su questo tipo di fiducia indiretta. Non fiducia nella tecnologia in sé, ma fiducia nel sistema economico che la produce.

Nel caso dell’intelligenza artificiale questo sistema include aziende private, governi, università e infrastrutture cloud globali. La complessità dell’ecosistema rende inevitabile un certo grado di diffidenza pubblica.

Un’osservazione ironica emerge quasi spontaneamente. L’AI è una delle poche tecnologie della storia moderna che le persone utilizzano mentre discutono costantemente se dovrebbe esistere. È una forma di schizofrenia tecnologica collettiva. L’utente apre ChatGPT per scrivere una email e pochi minuti dopo twitta che l’intelligenza artificiale distruggerà il mercato del lavoro.

Gli economisti chiamerebbero questo fenomeno “adozione sotto ansia sistemica”. Silicon Valley lo chiama semplicemente product market fit.

In prospettiva storica la traiettoria appare abbastanza prevedibile. Quando una tecnologia supera il 50% di penetrazione nella popolazione entra in una fase di normalizzazione culturale. La diffidenza iniziale tende lentamente a diminuire man mano che gli utenti accumulano esperienza diretta. La radio, la televisione, Internet e persino l’elettricità hanno attraversato cicli simili.

Il vero punto interrogativo riguarda la velocità di questo processo. L’intelligenza artificiale evolve molto più rapidamente delle tecnologie precedenti. I modelli diventano più potenti ogni anno. Le capacità agentiche iniziano a emergere. L’automazione cognitiva comincia a toccare professioni che fino a pochi anni fa sembravano intoccabili.

In questo contesto la percezione pubblica potrebbe restare ambivalente più a lungo del previsto. Gli utenti continueranno probabilmente a usare l’AI perché è utile, mentre continueranno a diffidarne perché è potente.

Dal punto di vista di un osservatore industriale il paradosso è quasi inevitabile. Le tecnologie realmente trasformative non generano mai consenso immediato. Creano tensione, dibattito, persino paura. L’adozione procede comunque.

Il capitalismo tecnologico ha sempre funzionato così. Prima arriva l’utilità. Poi la fiducia. Molto più tardi arriva la nostalgia per il mondo prima dell’innovazione.