ICE, l’agenzia federale americana che si occupa di immigrazione ed enforcement, ha fatto qualcosa di raro per una burocrazia di sicurezza. Ha detto la verità. O almeno una versione sufficientemente onesta da far rumore. Ha ammesso di usare sistemi di intelligenza artificiale forniti da Palantir e, indirettamente, modelli riconducibili a OpenAI. Non un progetto segreto, non un programma nero, ma software commerciali integrati nei flussi di lavoro quotidiani. Analisi delle segnalazioni. Estrazione di dati da documenti. Screening dei curriculum. Roba apparentemente noiosa. In realtà esplosiva.
Qui va fatta subito una precisazione, perché la disinformazione corre più veloce delle GPU. ICE non ha un contratto diretto con OpenAI per addestrare un super modello su dati sensibili di immigrazione. Non esiste alcun GPT federale addestrato sulle deportazioni. Quello che esiste è più sottile e più interessante. ICE utilizza strumenti di terze parti, in particolare Palantir, che a loro volta integrano modelli linguistici commerciali. Modelli general purpose, disponibili sul mercato, usati come motore cognitivo dentro piattaforme di analisi dei dati. È il capitalismo dell’AI nella sua forma più pura. Nessuna cospirazione, solo procurement.
Palantir è il vero attore strutturale di questa storia. Non perché faccia modelli linguistici migliori, ma perché sa come parlare agli stati. Sa tradurre il caos dei dati pubblici in dashboard comprensibili a chi prende decisioni. Gotham, Foundry, ora AIP. Cambiano i nomi, non la filosofia. L’intelligenza artificiale non serve a pensare, serve a ordinare. A dare priorità. A suggerire dove guardare prima. In un’agenzia come ICE questo significa classificare segnalazioni, incrociare fonti, individuare pattern. Non è Minority Report. È Excel con steroidi cognitivi.
Il punto critico, quello che molti fingono di non vedere, è che questi sistemi non sono neutrali. Anche se non sono addestrati su dati proprietari dell’agenzia, operano dentro un contesto decisionale asimmetrico. Un suggerimento sbagliato non è un errore statistico. È una vita complicata. È un controllo in più. È un fermo. L’intelligenza artificiale governativa non ha bisogno di essere cattiva per essere pericolosa. Le basta essere efficiente.
OpenAI entra in scena in modo laterale ma simbolicamente potente. ICE utilizza strumenti di screening dei curriculum basati su GPT 4, forniti da aziende terze. OpenAI ha dichiarato di non avere contratti diretti con il Dipartimento della Sicurezza Interna. Ed è probabilmente vero. Ma è anche irrilevante. Nel mondo delle piattaforme, il potere non passa più solo dai contratti diretti. Passa dalle API. Dalla standardizzazione. Dal fatto che un modello diventa infrastruttura cognitiva globale. Quando GPT diventa il correttore automatico delle decisioni umane, poco importa chi paga la fattura.
Questa è la prima metà della storia. La seconda è apparentemente scollegata. Meta. Robot umanoidi. Addestramento. Qui il linguaggio cambia. Non più enforcement, ma embodiment. Non più dati amministrativi, ma corpi. Meta sta lavorando, in modo ancora sperimentale, a un piano di raccolta dati per addestrare modelli di intelligenza artificiale destinati alla robotica umanoide. Il cuore del progetto sono i dati egocentrici. Visione in prima persona. Movimenti delle mani. Interazione con oggetti reali. Il mondo visto da un essere umano, registrato da smart glasses.
Project Aria non è nuovo. È un programma di ricerca avviato da anni. Ma ora assume un significato diverso. Non è più solo realtà aumentata o computer vision. È pre addestramento per corpi artificiali. Meta non sta costruendo robot da vendere domani. Sta costruendo dataset che nessun altro ha. La vera barriera all’ingresso nella robotica umanoide non è l’hardware. È l’esperienza incarnata. Sapere come si afferra una tazza senza romperla. Come si apre una porta senza pensarci. Come ci si muove in uno spazio affollato senza sembrare un idiota.
Qui Meta gioca una partita lunga. Molto lunga. E molto Zuckerberg. Non annuncia. Non vende. Raccoglie. Osserva. Addestra. Il team di robotica è piccolo. Una manciata di ricercatori. Ma il potenziale è enorme. Perché se controlli i dati che spiegano al mondo come muoversi, controlli il futuro dei robot. È la stessa logica che ha reso Facebook un impero. Non il social network, ma il grafo sociale. Ora il grafo diventa motorio.
La connessione tra ICE e Meta non è tecnica. È filosofica. In entrambi i casi l’intelligenza artificiale viene usata come strato di mediazione tra il mondo e la decisione. Nel primo caso la decisione è amministrativa. Nel secondo è fisica. In entrambi i casi l’umano viene scomposto in dati. Segnalazioni. Curriculum. Movimenti. Sguardi. Gesti. L’AI non capisce l’umano. Lo simula abbastanza bene da sostituirlo in alcuni passaggi chiave.
C’è un dettaglio che merita attenzione. Meta parla di ricerca. ICE parla di efficienza. Nessuno parla di potere. Eppure è lì. L’intelligenza artificiale governativa e la robotica umanoide condividono lo stesso problema strutturale. La delega. Quando deleghi a un sistema il compito di suggerire, classificare, muoversi, stai spostando il baricentro della responsabilità. Non scompare. Si opacizza. Diventa sistemica.
Un CEO lo capisce subito. Un tecnologo anche. Non serve immaginare scenari distopici. Basta guardare i processi. L’AI entra sempre come supporto. Mai come decisore. Poi diventa indispensabile. Poi invisibile. Poi intoccabile. Palantir lo sa. Meta lo sa. OpenAI lo sa. Gli stati lo stanno imparando.
Qui l’etica è organizzativa. È governance. È capire chi decide cosa, quando un suggerimento diventa ordine. Quando un modello statistico diventa norma operativa.
ICE che usa AI non è uno scandalo. È inevitabile. Meta che studia robot umanoidi non è fantascienza. È strategia industriale. Lo scandalo, se vogliamo chiamarlo così, è che tutto questo avviene in modo frammentato, senza un dibattito pubblico all’altezza. Con comunicati tecnici e FAQ legali. Mentre la posta in gioco è enorme.
Intelligenza artificiale governativa significa stati che pensano più velocemente, ma forse meno profondamente. Robot umanoidi Meta significa macchine che si muovono come noi, senza essere noi. In mezzo c’è una domanda che nessuno sembra voler fare davvero. Chi addestra chi. E per quale mondo.