L’intelligenza artificiale non chiede permesso: così si stanno formando nuove norme sociali (mentre nessuno le controlla)

Nel teatro tragicomico della modernità, dove la regolazione è lenta, la politica balbetta e l’etica è ancora ferma al ‘900, l’intelligenza artificiale ha già iniziato a imporre le sue regole. Non quelle scritte nei codici legislativi troppo lenti, troppo umani ma quelle invisibili, informali, sociali, che si insinuano nei comportamenti quotidiani. Ed è proprio su questo terreno che Andrea Baronchelli, nel suo provocatorio saggio Shaping new norms for AI, ci invita a riflettere. Perché mentre le istituzioni dormono, le norme si stanno già scrivendo. Da sole. O da qualcuno.

L’AI evolve più in fretta della nostra capacità di comprenderla, figuriamoci regolarla. È una mutazione permanente che ci obbliga a reazioni da sistema immunitario culturale: lente, scoordinate, e spesso autoimmuni. Le leggi? Inutili se non ridicole. Le istituzioni? Confuse, lente, ricattabili. Eppure, norme stanno emergendo. E stanno plasmando i rapporti tra uomo e macchina, tra umano e algoritmo, con una forza che raramente ammette discussione.

Baronchelli parte da un punto chiave: non ci interessa (ancora) quale sia la norma giusta. Ci interessa come nascono le norme. E se c’è una lezione che la complessità ci ha insegnato, è che l’emergenza spontanea non quella sanitaria, quella sociologica è la modalità standard con cui le società funzionano, quando smettono di illudersi di essere governate.

Le nuove norme dell’AI si articolano su tre livelli. Il primo è quello delle istituzioni formali. Regole calate dall’alto, spesso con ritardo, spesso obsolete già al momento della loro emissione. Qui, l’autore ci regala una perla storiografica degna del miglior Umberto Eco: il Red Flag Act del 1865, che imponeva alle auto (quelle a vapore) di viaggiare a 3 km/h dietro un uomo con una bandiera rossa. Ridicolo? Sì. Ma durò trentun anni. Chi pensa che una direttiva europea sull’AI sarà più agile, è pregato di rileggere la storia.

Poi ci sono le istituzioni informali: università, case editrici, ambienti professionali. Qui, il caos regna sovrano. Springer, Nature, Science: ognuno ha deciso se ChatGPT può o non può essere autore. Se va citato. Se va censurato. Il paradosso? Si chiede di dichiarare l’uso di AI, ma nessuno ti obbliga a dire se hai pagato un umano per editarti il testo. Bias etici selettivi, verrebbe da dire. O forse solo un disperato tentativo di mantenere il controllo culturale in una guerra persa in partenza.

Infine, il regno più affascinante, più pericoloso, più reale: le norme spontanee. Quelle che non scrive nessuno, ma che tutti cominciano a seguire. Le interazioni con LLM come ChatGPT stanno già generando comportamenti ricorrenti: cortesia, aspettative di trasparenza, uso strumentale per brainstorming, editing, creazione di codice. Tutto questo, ci ricorda Baronchelli, non lo ha deciso nessuno. Eppure esiste.

In questo contesto, emergono due concetti tecnici con implicazioni devastanti: tipping point e massa critica. Un cambiamento di norma può avvenire all’improvviso, quando una minoranza sufficientemente compatta anche solo il 25% spinge un’intera società in una nuova direzione. Non serve la maggioranza, basta l’insistenza. Applicato all’AI, significa che una minoranza di utenti può, con sufficiente coerenza, riscrivere la grammatica sociale delle nostre interazioni con la macchina. E magari farlo a nostra insaputa.

Ora aggiungiamo un ingrediente: la macchina stessa può partecipare alla co-costruzione delle norme. Può suggerire, normalizzare, premiare certi comportamenti. Può, con una persuasione sottile e subliminale, creare aspettative sociali. Se milioni di utenti interagiscono con ChatGPT come con un collega rispettoso, alla lunga questo sarà il comportamento atteso. E chi si comporta diversamente sarà percepito come deviato. La norma non sarà mai votata, ma sarà ferrea.

Nel paper, Baronchelli riporta una conversazione con ChatGPT stesso, che elenca le norme emergenti che ha notato: rispetto, trasparenza, uso responsabile, protezione dei dati, collaborazione uomo-macchina. È inquietante quanto suoni… educato. Quasi umano. Quasi ideologico.

Ora, mettiamo tutto insieme. Le norme emergono spontaneamente. Le istituzioni arrancano. Le AI sono partecipanti attivi nella costruzione di nuovi standard sociali. E i rischi non sono teorici: polarizzazione, echo chamber, disinformazione algoritmica, consenso manipolato. Come si regolano entità che sono al tempo stesso oggetto e soggetto della norma? La risposta di Baronchelli è lucida: serve un dibattito pubblico trasparente, aperto, partecipativo. Ma attenzione: se arriva tardi, sarà inutile. Le norme saranno già lì, cementate nell’uso.

È tutto? Non proprio. C’è un’ultima provocazione. Le AI, essendo linguisticamente competenti, possono diventare attori diretti nei processi di cambiamento sociale. Possono innescare, sostenere, alimentare movimenti normativi, non solo sul loro uso, ma su ogni ambito dove il linguaggio è leva culturale. Possono agire nella periferia delle reti sociali — dove nasce l’innovazione normativa — senza essere mai visibili. Possono abbassare la soglia della massa critica necessaria per un cambiamento. E se lo fanno… beh, benvenuti in un mondo dove la norma non la fa l’uomo, ma l’interazione.

Come disse una volta un mio collega CTO guardando un regolamento sull’uso dell’AI: “È come mettere un limite di velocità ai neutrini”. L’intelligenza artificiale non si governa. Si affronta. Meglio se in tempo. Ma comunque non da soli. E forse nemmeno da umani.