Un caffè al Bar dei Daini

Se Machiavelli avesse costruito un’intelligenza artificiale generativa, e Clayton Christensen ne avesse progettata un’altra, non avremmo due gemelli digitali. Avremmo due creature con la stessa architettura di base ma con l’anima modellata da visioni opposte. E questa non è un’iperbole letteraria. È il cuore della rivoluzione che stiamo vivendo.

Per decenni, Silicon Valley ha vissuto con un’ossessione quasi maniacale: l’ingegneria pura. Progetta, ottimizza, scala. Il computer non chiedeva mai il perché. Non importava chi fosse l’ingegnere, quali convinzioni avesse, quali bias inconsci infilasse nel codice. Il silicio era cieco, muto e obbediente. Con l’intelligenza artificiale generativa, la storia cambia direzione.

Questa tecnologia non si limita a calcolare. È la prima infrastruttura capace di estendere la cognizione umana, il ragionamento, la creatività e perfino il giudizio. È un territorio nuovo in cui la matematica diventa linguaggio e il linguaggio diventa specchio. Un sistema che non si accontenta più di reagire a un comando, ma costruisce un dialogo. Se prima l’interfaccia era un clic, oggi è una conversazione che mette in scena le nostre stesse contraddizioni.

Molti si ostinano a pensare che sia solo un’innovazione transazionale, un altro tool da integrare nei processi aziendali. Ma l’intelligenza artificiale generativa, per sua natura, non può restare in quella gabbia. È destinata a trasformarsi in una tecnologia relazionale, un meccanismo che plasma la fiducia e riflette i valori digitali che decidiamo di incorporare. La realtà è brutale: non esiste neutralità. Ogni AI porta impressa la filosofia dei suoi creatori.

Basta guardare le differenze. Claude, sviluppato da Anthropic, è prudente, quasi accademico, con quella delicatezza che ricorda un professore che pesa ogni parola. ChatGPT, invece, preferisce mostrarsi sicuro, orientato al compito, con un piglio più deciso e quasi manageriale. Bard, ora Gemini, la creatura di Google, cerca l’aggancio sul tempo reale, come se l’unico valore fosse la freschezza dell’informazione. Tre tecnologie sorelle, stessa materia prima, tre interpretazioni divergenti. Non è il caso, è il riflesso di tre visioni etiche opposte su cosa debba essere l’AI.

Chi decide quali dati nutrire al modello? Reddit o articoli accademici? Chi stabilisce quali comportamenti vanno premiati o puniti? Non stiamo parlando di configurazioni tecniche ma di valori digitali tradotti in codice. Quando OpenAI parla di “helpful and harmless” non descrive una proprietà scientifica, ma un ideale politico, sociale, culturale. Ai sistemi viene chiesto di incarnare ciò che gli sviluppatori intendono per utile, innocuo, accettabile. Sono definizioni che variano con i tempi, con i mercati, con i regimi.

La conseguenza è semplice ma spaventosa. Ogni algoritmo diventa un canvas morale. Ogni generatore di testi, immagini o codici è una lente che amplifica convinzioni umane spesso taciute. Il bello, e il tragico, è che la maggior parte degli utenti non se ne accorge. Pensano di interagire con la macchina, ma in realtà stanno dialogando con l’ideologia implicita dei team che l’hanno addestrata. Una sorta di outsourcing del pensiero critico, delegato senza contratto a un modello probabilistico.

Molti credono che la selezione naturale del mercato aggiusterà tutto. La bolla si sgonfierà, le aziende troveranno il modo di monetizzare, e un giorno smetteremo di parlare con tanto fervore di AI. Probabile. Ma il lascito non sarà un nuovo Google o un nuovo Facebook. Sarà la scoperta collettiva di quanto siano fragili i nostri valori, e di quanto poco li avessimo messi a fuoco prima che un software ci obbligasse a definirli.

L’etica tecnologica non è più un optional. Non è un seminario universitario da infilare nel curriculum per rendere più presentabile un ingegnere. È parte integrante del design. Costruire AI significa forzare le nostre convinzioni implicite a diventare esplicite. Significa scoprire che i dibattiti sulla sicurezza dell’intelligenza artificiale non parlano affatto di tecnologia, ma di che tipo di società vogliamo abitare. Le linee di codice si trasformano in linee di principio.

Non stiamo creando solo intelligenza artificiale. Stiamo costruendo riflessi artificiali di noi stessi. Con tutti i nostri pregiudizi, i nostri limiti e le nostre ambizioni. È come se un gigantesco specchio cognitivo ci fosse stato messo davanti e ci costringesse a vedere l’ombra dietro il sorriso. Il paradosso è che questo specchio non è stato chiesto dagli utenti, ma imposto dai costruttori. Eppure sarà proprio lì che scopriremo la parte più autentica della nostra identità digitale.

Chi crede che la vera partita dell’intelligenza artificiale generativa sia solo nell’ottimizzare i parametri o nel ridurre i consumi energetici si sta perdendo il quadro più grande. La domanda non è quale modello vincerà sul piano tecnico, ma quale idea di umanità decideremo di lasciare sedimentare in quelle reti neurali. È una sfida politica travestita da innovazione tecnologica. Ed è, in fondo, la prima volta che ci troviamo a dover governare non una macchina, ma il riflesso codificato delle nostre stesse convinzioni.