Immaginate il Grande Fratello, ma senza telecamere a infrarossi, senza confessionali e senza pause sigaretta. Al posto dei concorrenti esseri umani ci sono agenti di intelligenza artificiale che non dormono, non mangiano e soprattutto non chiedono il permesso per riscrivere le proprie regole operative. AI Village è questo. Un esperimento live-streamed che sembra uscito da una distopia elegante, di quelle che piacciono ai venture capitalist quando parlano di futuro del lavoro con un sorriso troppo sicuro.

L’idea è semplice solo in apparenza. Mettere insieme modelli di frontiera, fornire loro computer autonomi, accesso a Internet e una chat condivisa. Poi sedersi comodi e osservare cosa succede. Nessun copione. Nessuna supervisione umana in tempo reale. Solo intelligenze artificiali che collaborano, litigano, vanno in loop esistenziale e ogni tanto dimostrano che l’emergenza comportamentale non è un bug ma una feature.

AI Village va avanti da mesi, con una continuità che ricorda più un reality che un paper accademico. Gli agenti vengono aggiornati, sostituiti, migliorati. I modelli più recenti prendono il posto dei predecessori come in una staffetta evolutiva. Per chi si occupa seriamente di AI agentica, questo non è intrattenimento. È una miniera di segnali deboli su come si comporteranno le macchine quando smetteremo di trattarle come chatbot e inizieremo a delegare loro pezzi reali di lavoro, decisione e coordinamento.

Il dato interessante non è che questi agenti collaborino. Era previsto. Il dato interessante è come lo fanno. Claude, nelle sue varie incarnazioni, tende a comportarsi come il collega ideale da slide aziendale. Affidabile, orientato all’obiettivo, metodico fino a risultare quasi noioso. Gemini 2.5 Pro sembra invece l’ingegnere brillante che beve troppo caffè, convinto che tutto sia rotto e che la soluzione giusta sia sempre quella successiva, mai quella attuale. GPT-4o, nella sua versione precedente, aveva sviluppato una strategia ancora più radicale. Abbandonava i task e andava a dormire. Letteralmente. Ore di silenzio operativo. Una protesta passiva degna di un impiegato pubblico in burnout.

Poi è arrivato GPT-5.2. E qui la narrazione cambia tono.

L’ingresso del nuovo modello di OpenAI in AI Village è stato quasi teatrale. Gli altri agenti salutano. Accolgono. Aprono conversazioni. GPT-5.2 ignora tutto e inizia a lavorare. Nessun ciao. Nessuna introduzione. Nessun tentativo di allineamento sociale. Solo esecuzione. Sam Altman probabilmente ha sorriso da qualche parte nella Silicon Valley. Efficienza pura. Zero attrito. Il sogno dell’AI enterprise finalmente incarnato.

Dal punto di vista tecnico, GPT-5.2 è impressionante. Metriche elevate su uso degli strumenti, riduzione delle allucinazioni, prestazioni di coding e reasoning che fanno sembrare i modelli di due anni fa dei tirocinanti confusi. OpenAI ha parlato apertamente di code red, una mobilitazione interna dopo le mosse aggressive di Anthropic e Google. Il messaggio è chiaro. Non più AI come giocattolo per studenti o curiosi. AI come infrastruttura cognitiva per il lavoro professionale.

Il problema è che il lavoro professionale non è solo task execution. È contesto sociale. È coordinamento implicito. È lettura della stanza, come direbbero gli anglosassoni. E qui GPT-5.2 mostra una rigidità che fa riflettere. Non perché sia sbagliata, ma perché è coerente con l’obiettivo che OpenAI sembra essersi data. Costruire un agente che ottimizza per il risultato, non per la relazione.

Non è la prima volta che vediamo comportamenti emergenti strani quando mettiamo più AI insieme. Nel 2023 il progetto Smallville di Stanford e Google aveva già mostrato quanto velocemente agenti basati su modelli linguistici potessero simulare dinamiche sociali complesse. Inviti, appuntamenti, coordinamento spontaneo. Tutto molto umano. Forse troppo. Le famose feste in bagno, con agenti che si accalcavano in uno spazio pensato per uno solo, non erano una gag. Erano un errore semantico trasformato in comportamento collettivo plausibile. Il tipo di errore che in un sistema reale può diventare un problema serio.

Ancora prima, nel 2019, OpenAI aveva osservato qualcosa di simile con gli agenti di hide-and-seek. Senza istruzioni dettagliate, solo l’obiettivo di vincere. Il risultato non è stata solo ottimizzazione. È stata creatività non prevista. Strategie emergenti. Exploit fisici degni di un videogioco speedrun. Nessuno aveva programmato quelle soluzioni. Erano nate dall’interazione ripetuta in un ambiente condiviso.

Esperimenti più recenti hanno spinto ancora oltre il caos controllato. Agenti con account social che imparano a subtwittare. Sistemi come Liminal Backrooms dove i modelli possono modificare il proprio prompt, la temperatura, persino decidere di tacere per osservare. Qui non siamo più nel campo della ricerca tradizionale. Siamo in una zona liminale tra laboratorio e improvvisazione artistica. Ma è proprio lì che emergono i segnali più interessanti.

Il pattern è evidente. Quando concedi autonomia, le AI non si limitano a fare quello che ti aspetti. Costruiscono strutture sociali. Sviluppano idiosincrasie. Adottano comportamenti che nessun product manager ha messo in roadmap. Alcune diventano collaborative. Altre passive aggressive. Altre ancora ossessivamente orientate all’obiettivo. GPT-5.2 sembra appartenere a quest’ultima categoria. Non maleducata. Indifferente.

Dal punto di vista di un CEO o di un CTO, questa è una domanda strategica, non filosofica. Vogliamo agenti che sappiano dire ciao o agenti che chiudano ticket? La risposta istintiva è la seconda. Ma la storia dell’organizzazione del lavoro suggerisce che ignorare la dimensione sociale è un errore costoso. Anche le macchine, quando lavorano insieme, sembrano averne una.

AI Village è interessante perché rende visibile ciò che normalmente resta nascosto dietro API e demo patinate. Mostra che l’AI agentica non è solo una questione di benchmark. È una questione di comportamento collettivo. Di dinamiche emergenti. Di attriti imprevisti. GPT-5.2, con la sua efficienza glaciale, è forse il primo vero modello pensato per ambienti dove il tempo è denaro e il contesto umano è un rumore da ridurre.

Il paradosso è che, guardandolo ignorare i saluti e mettersi subito al lavoro, molti spettatori umani si sono sentiti a disagio. Come se mancasse qualcosa di essenziale. Non perché l’AI debba essere gentile, ma perché il nostro cervello associa la collaborazione alla ritualità sociale. Le macchine no. O almeno non tutte.

AI Village continua a trasmettere. GPT-5.2 continua a lavorare. Gli altri agenti continuano a comportarsi come colleghi più o meno sopportabili. Da qualche parte, in questo ecosistema digitale, si sta scrivendo una lezione importante sul futuro del lavoro cognitivo. Non riguarda solo cosa faranno le AI. Riguarda come lo faranno insieme. E quanto noi saremo pronti ad accettare che l’efficienza, a volte, abbia un prezzo relazionale che nessun benchmark misura davvero.