Nel grande bazar dei dati digitali, dove ogni parola postata è una pepita d’oro per l’addestramento delle intelligenze artificiali, X (ex Twitter) ha aggiornato il suo Developer Agreement con una nuova clausola: vietato usare i contenuti della piattaforma per addestrare modelli fondazionali o di frontiera. A meno che tu non sia… beh, X stessa.

L’annuncio, passato quasi inosservato se non fosse stato per TechCrunch, arriva con la delicatezza di un aggiornamento di sistema, ma nasconde una torsione strategica da manuale Machiavelli. Tradotto dal legalese: se sei uno sviluppatore esterno, dimentica l’idea di nutrire il tuo LLM con i tweet. Però X (cioè Elon Musk) può continuare a farlo. E lo fa. Con entusiasmo.

Per comprendere la portata della mossa, serve andare oltre il gesto superficiale — una clausola contrattuale — e leggere nelle pieghe geopolitiche dell’economia dei dati. In un mondo dove i modelli linguistici mangiano contenuti come biscotti, ogni pezzo di testo diventa un asset. La guerra non è solo sui modelli, ma sulle corpora. E X lo sa benissimo.

Da marzo, l’azienda è formalmente nelle mani di xAI, l’iniziativa AI di Musk, per un valore nominale di 33 miliardi di dollari. È una cifra costruita più sulla prospettiva futura che sul cash flow attuale, ma serve a legittimare una strategia che si fonda su un principio: il contenuto è potere, e il potere non si condivide. Specie se può essere venduto.

La mossa ha il sapore di una data enclosure, versione 3.0. Un tempo si recintavano i pascoli, oggi si recintano i tweet. I parallelismi con la decisione di Reddit — che ha prima vietato l’uso dei propri contenuti per l’addestramento e poi ha firmato un contratto da 60 milioni all’anno con Google — sono tutt’altro che casuali. E proprio Reddit, sentendosi apparentemente poco rispettata, ha trascinato Anthropic in tribunale accusandola di aver crawled oltre 100.000 volte dal luglio 2024.

Il doppio standard è inquietante. La nuova clausola di X impedisce agli altri di addestrare, ma allo stesso tempo la sua privacy policy (sempre quella che nessuno legge) continua a permettere agli “collaboratori terzi” di usare i dati degli utenti per addestrare modelli. Basta non dimenticare di fare opt-out, un gesto tanto tecnicamente disponibile quanto oscuramente sepolto tra decine di clic. E naturalmente, Grok — il chatbot casalingo firmato xAI — si nutre dei contenuti di X come un neonato affamato.

È una tattica che ha il sapore del monopolio del contenuto. Chi possiede le piazze digitali, possiede le voci che vi si esprimono. E se riesce a vincolare l’accesso a quelle voci, ha in mano un’arma per negoziare con Google, OpenAI o Amazon. Ma anche per costruire in-house modelli proprietari che hanno qualcosa in più degli altri: il tempo reale delle conversazioni umane, la spontaneità del dibattito, la tensione sociale. In una parola, il sangue del web.

E se qualcuno pensava che Elon Musk avesse comprato X per puro idealismo da town square, oggi è chiaro che aveva un piano molto più chirurgico. Ogni tweet, ogni reply, ogni flame tra utenti — tutto entra nel motore predittivo del futuro. Solo che il carburante, stavolta, è esclusivo. Nessun self-service. Solo VIP.

Il paradosso è gustoso: la libertà d’espressione, cavallo di battaglia di Musk nei primi giorni della sua presa di possesso, diventa ora una risorsa da recintare. L’API access non è più il biglietto per la democrazia computazionale, ma un badge per pochi eletti. Una volta, il Web 2.0 viveva di mashup, di remix e di aggregazione. Oggi, sotto il cappello della privacy, il vero obiettivo è la concentrazione di valore predittivo.

Il resto è fumo regolamentare. “Non usate i post per addestrare AI” dice la policy agli sviluppatori. Ma in piccolo — molto in piccolo — aggiunge che X può continuare a farlo, perché può, e soprattutto perché deve. Perché senza quei dati, Grok è solo un nome buffo da romanzo di Heinlein.

Nel mondo dell’AI generativa, i dati valgono più dell’algoritmo. Chi possiede i primi, controlla il secondo. E chi controlla entrambi, detta le regole del gioco. Le policy come quella di X non servono a proteggere gli utenti, ma a massimizzare il data leverage. Per ogni API chiusa, c’è un contratto aperto. Per ogni divieto, una porta sul retro.

Il futuro prossimo non sarà determinato da chi ha il modello più grande, ma da chi ha le dataset pipelines più esclusive. In questo contesto, X diventa non più una piattaforma sociale, ma una fabbrica di dati conversazionali. Un’azienda di contenuti, in cui il contenuto non è più solo media, ma materia prima per l’intelligenza.

Un’ultima nota ironica, degna di un post di Grok: Elon Musk ha più volte criticato OpenAI per la sua mancanza di trasparenza, definendola troppo “chiusa”. Eppure, in casa propria, costruisce un recinto ben più ermetico. Il nome della nuova politica di X potrebbe tranquillamente essere AI For Me But Not For Thee.

E così, nella grande giostra dell’AI, l’etica si dissolve come una Terms of Service aggiornata di nascosto: accettata da tutti, letta da nessuno.