La tecnologia quantistica non è più un’espressione esoterica confinata ai paper accademici scritti da fisici insonni che giocano con le equazioni di Schrödinger alle tre del mattino. È già qui, e non sta bussando educatamente alla porta dell’industria, l’ha sfondato con una violenza elegante, tipica delle rivoluzioni che non chiedono permesso. Parlare oggi di quantum computing, di crittografia post-quantistica e di superconduttori non è esercizio di futurologia. È il terreno scivoloso sul quale si gioca la prossima decade di competitività globale. Chi crede che si tratti solo di una moda scientifica farà la fine delle aziende che nel 1999 deridevano internet definendolo “una bolla per nerd”.

Più di un miliardo di persone utilizza regolarmente chatbot di intelligenza artificiale. ChatGPT ha oltre 700 milioni di utenti settimanali. Gemini e altri grandi modelli aggiungono centinaia di milioni di utenti. Nei miei articoli parlo spesso dei progressi straordinari dell’AI: nelle ultime settimane sia OpenAI che i chatbot di Google hanno vinto medaglie d’oro nelle Olimpiadi Internazionali di Matematica. Ma concentrarsi solo su questo rischia di nascondere un cambiamento più profondo: stiamo entrando in un’era di Mass Intelligence, dove l’intelligenza artificiale potente diventa accessibile come una ricerca su Google.

L’idea che oggi basti comprare un Raspberry Pi, installare qualche libreria e dire a un agente AI “scrivi i driver, integra i sensori, aggiorna l’interfaccia” sembra uscita da un sogno febbrile da forum notturno. È il genere di narrazione che su Reddit ottiene upvote compulsivi: la promessa che non serva più programmare riga per riga, ma che basti “orchestrare” un esercito digitale obbediente. Tutto molto affascinante, ma quanto è reale e quanto invece è solo una nuova variante dell’hype che il mercato dell’intelligenza artificiale sforna con la stessa frequenza con cui cambiamo feed?
Partiamo da un fatto concreto. OpenAI Codex esiste davvero. È un agente AI per lo sviluppo software, non un concept. Si installa come CLI o come estensione in IDE popolari e funziona anche dal terminale. Può scrivere codice, generare test, fare commit, aprire pull request, girare in sandbox parallele senza bloccare la macchina. È pensato per chi sviluppa seriamente e non per chi sogna di attaccare un sensore LIDAR a un tostapane e aspettarsi che l’agente faccia il resto. Ma la narrativa da “robot vibe-coding” ha preso piede perché Codex è stato lanciato insieme a GPT-5, un modello che sul codice è effettivamente molto più potente di qualunque generazione precedente.

OpenAI non è più una startup che gioca a fare il futuro, è un conglomerato finanziario-tecnologico che ha deciso di trasformare la sua fame di potenza computazionale in una guerra di logoramento contro la fisica, i capitali e la concorrenza. La notizia che l’azienda, sostenuta da Microsoft, prevede di bruciare fino a 115 miliardi di dollari entro il 2029 ha il sapore di quelle dichiarazioni che non si leggono nei report trimestrali ma nei manuali di geopolitica economica. In sei anni OpenAI si propone di spendere più del PIL di un paese medio. Una cifra che lascia intendere due cose: o hanno davvero intenzione di riscrivere le leggi della produttività, oppure stanno costruendo il più grande fuoco di artifici tecnologico della storia.

Per anni Stripe ha utilizzato modelli di machine learning addestrati su feature discrete (BIN, codice postale, metodo di pagamento, ecc.) per migliorare i propri prodotti. Questi approcci feature-by-feature hanno funzionato sorprendentemente bene: +15% di conversioni, -30% di frodi. Tuttavia, i limiti sono evidenti.

Quando l’Italia del volley femminile alza al cielo la coppa del mondo a Bangkok, ventitré anni dopo l’ultima volta, non è semplicemente un’altra medaglia nel palmarès di una nazionale. È un avvertimento per il resto del pianeta: la pallavolo, disciplina spesso relegata a margine nei palinsesti dominati dal calcio, può trasformarsi in un’arma di soft power. Vincere un mondiale contro una Turchia che negli ultimi anni ha costruito un impero pallavolistico, con investimenti miliardari e un campionato che attira star da ogni latitudine, ha il sapore di un’operazione chirurgica, quasi geopolitica.

Non sempre per diventare ricchi serve un unicorno da miliardi o una miniera di litio. A volte basta… un’estensione internet. È la lezione di Anguilla, minuscola isola caraibica di 16.000 abitanti che, senza volerlo, si è ritrovata seduta sull’oro digitale grazie a un suffisso di due lettere: .ai.

I data center non sono solo i pilastri della trasformazione digitale: se integrati con il sistema energetico, possono diventare alleati nella decarbonizzazione delle città. È questa la chiave di lettura che Renato Mazzoncini, Amministratore Delegato di A2A, ha proposto al Forum TEHA di Cernobbio, dove è stato presentato uno studio sul ruolo strategico di queste infrastrutture in Italia.

I data center non sono più soltanto “fabbriche di bit”: se guidati da una visione strategica, possono diventare leve di competitività, occupazione e sostenibilità per l’Italia. È quanto emerge dal Position Paper “L’Italia dei data center. Energia, efficienza, sostenibilità per la transizione digitale”, presentato al Forum di Cernobbio da TEHA Group in collaborazione con A2A. Secondo lo studio, lo sviluppo del settore potrebbe contribuire dal 6% al 15% della crescita annuale del PIL nazionale, abilitando fino a 150.000 nuovi posti di lavoro tra diretti, indiretti e indotti. Numeri che confermano come i data center siano ormai infrastrutture strategiche, indispensabili per sostenere la diffusione di AI, IoT e cloud computing.

Incipit potente perché non c’è margine per l’indecisione quando si parla di modelli linguistici che finalmente smettono di recitare sempre lo stesso copione. Esatto, oggi possiamo affermarlo con piglio da The Economist appena sveglio: gli LLM non sono più vincolati a una modalità unica, e questo è un game-changer (per dirla con fine ironia). Ora vi spiego perché, ma vi avverto: non c’è posto per le banalità.

Torino non è più la città che inventa il futuro. La notizia della chiusura dell’ex Cselt il centro che negli anni ’90 ha dato i natali all’MP3, al riconoscimento vocale e alle tecnologie oggi alla base dei modelli di intelligenza artificiale segna uno spartiacque per l’ecosistema dell’innovazione italiano.

Isotopes AI spunta dal buio con 20 milioni di dollari e un agente che ti legge nel cervello dei dati
Il mercato tecnologico ha visto nascere decine di startup negli ultimi due anni che promettono di portare intelligenza artificiale e dati aziendali sotto lo stesso tetto, ma poche hanno un pedigree così pesante come Isotopes AI. L’azienda è uscita dal buio con un seed round da 20 milioni di dollari e un prodotto che non si limita a chattare con i dati, ma li mastica, li digerisce e li risputa sotto forma di analisi pronte a finire in un board pack o in un piano operativo. La promessa è seducente: finalmente un AI agent che risolve il problema cronico del Big Data, ovvero la distanza siderale tra chi gestisce l’infrastruttura e chi i dati li dovrebbe usare per prendere decisioni.

Quando Aleksa Gordić, ex DeepMind, decide di condividere la sua esperienza, il mondo delle Large Language Models (LLM) prende appunti. Il suo masterclass su “Inside vLLM” non è un semplice elenco di tecniche, ma una vera e propria lezione di ingegneria dei sistemi AI ad alte prestazioni. Qui non si parla di magie da laboratorio, ma di scelte progettuali concrete che possono trasformare un’API LLM da lenta e costosa a un’arma affilata di efficienza.

Nel 1763, Thomas Bayes propose un metodo per aggiornare le probabilità alla luce di nuove evidenze, un concetto che ha plasmato la statistica moderna. Ora, nel 2025, un gruppo internazionale di fisici ha esteso questa regola al dominio quantistico, creando una versione che tiene conto delle peculiarità della meccanica quantistica, come la sovrapposizione degli stati e l’influenza della misurazione sul sistema. Questa innovazione offre un nuovo strumento per affrontare le sfide dell’inferenza probabilistica in un mondo dove le certezze classiche si dissolvono.
Immagina la più grande potenza militare del mondo che scopre all’improvviso di spendere più per pagare i creditori che per i missili ipersonici. Sembra una barzelletta, e invece è il nuovo volto del bilancio federale americano: oltre 1.130 miliardi di dollari in interessi sul debito nazionale, a fronte di 1.125 miliardi destinati alla difesa. Se usiamo la definizione più stretta del Pentagono, la cifra militare scende addirittura a 850 miliardi, rendendo ancora più imbarazzante la sproporzione. Wall Street sorride, i contribuenti no.

Nel febbraio 2024, la Fina CA, un’autorità di certificazione croata riconosciuta dal programma root di Microsoft, ha emesso senza autorizzazione dodici certificati TLS per l’indirizzo IP 1.1.1.1, utilizzato dal servizio DNS pubblico di Cloudflare. Questa emissione errata ha sollevato preoccupazioni significative sulla sicurezza e sull’affidabilità dell’infrastruttura di fiducia digitale su cui si basa gran parte di Internet.
Il servizio DNS 1.1.1.1 di Cloudflare è progettato per garantire la privacy e la sicurezza degli utenti, supportando protocolli come DNS-over-TLS (DoT) e DNS-over-HTTPS (DoH). Questi protocolli utilizzano certificati TLS per cifrare le comunicazioni tra il client e il server DNS, proteggendo così le query da intercettazioni e manipolazioni. Tuttavia, l’emissione non autorizzata di certificati per 1.1.1.1 ha introdotto una potenziale vulnerabilità: un attaccante in possesso di uno di questi certificati e della relativa chiave privata avrebbe potuto intercettare e decifrare il traffico DNS cifrato, compromettendo la privacy degli utenti.

Nel 2025, parlare di blockchain layer 1 non significa più discutere di sperimentazioni marginali o startup coraggiose che provano a reinventare il denaro. La realtà è molto più intrigante e, oserei dire, spietata. Google, Tether, Circle, Ripple e Stripe hanno iniziato a tracciare rotte autonome che puntano direttamente al cuore del sistema finanziario globale. Non si tratta di piccole mosse tattiche, ma di strategie di dominio. L’ecosistema blockchain si sta frammentando in strade parallele, ciascuna con le proprie regole, token nativi e infrastrutture di pagamento. Per chi osserva dall’esterno, può sembrare caos, ma dietro ogni mossa c’è una logica chirurgica che mira a ridefinire la finanza digitale come la conosciamo.

Al Bar dei Daini oggi la conversazione scorre come una linea di codice impazzita, tra un espresso e un Negroni, mentre la parola che rimbalza da un tavolo all’altro è sempre la stessa: “AI”. Non c’è più bisogno di spiegare cosa significhi, la sigla è diventata un mantra universale che abbraccia dai grafici della Federal Reserve alle chat dei gamer su Roblox. Il paradosso è che l’AI non è più nemmeno una tecnologia, è un’ossessione collettiva, un’asset class, un campo di battaglia geopolitico e un circo mediatico in diretta 24/7.
Si parte dai semiconduttori, quei piccoli rettangoli luminosi che hanno trasformato l’economia americana in un gigantesco videogioco finanziario. Nel 2025 il mercato dei chip negli Stati Uniti non è più solo questione di domanda e offerta, ma di pura sopravvivenza industriale. Rebecca Szkutak lo descrive con la precisione di un referto medico: senza semiconduttori non c’è AI, senza AI non c’è crescita, senza crescita il Nasdaq implode e i CEO si ritrovano a fare i camerieri al Bar dei Daini. La timeline del settore è un rosario di fusioni, capex da capogiro e accordi da dieci miliardi come quello che ha spinto Broadcom a volare in borsa. Il CEO ha pure giurato di restare più a lungo, e Wall Street lo ha accolto come fosse Mosè sceso dal Sinai con le tavole dei chip invece che della legge.

La sfida più affascinante del computing moderno non è costruire computer sempre più veloci, ma far convivere due mondi che fino a ieri sembravano incompatibili. I supercomputer classici dominano il calcolo numerico su larga scala, mentre i computer quantistici promettono capacità impensabili, ma su architetture radicalmente diverse. Per anni questa divisione ha rallentato l’adozione pratica della tecnologia quantistica. Oggi un team tedesco, guidato dalla Technical University of Munich (TUM) e dal Leibniz Supercomputing Centre (LRZ), propone una soluzione che potrebbe cambiare le regole del gioco: Sys-Sage, un software ibrido progettato per integrare senza attriti il calcolo quantistico nei flussi di lavoro degli HPC.

Dal semplice trucco digitale alla presenza quasi umana, gli avatar di Synthesia stanno ridefinendo cosa significa interazione digitale. Quello che iniziava come un tool per replicare volti umani in contenuti scriptati ora si trasforma in una piattaforma per veri e propri agenti conversazionali. I nuovi avatar, lanciati dalla compagnia londinese, non solo mostrano espressioni facciali più naturali, ma presto saranno in grado di dialogare in tempo reale. Non si tratta di un piccolo passo, ma di un balzo che porta l’intelligenza artificiale generativa dalla funzione marginale a protagonista visibile.

Showrunner la startup con sede a San Francisco supportata da Amazon — sta intraprendendo un progetto ambizioso per ricostruire i 43 minuti persi del film del 1942 di Orson Welles, The Magnificent Ambersons, utilizzando l’intelligenza artificiale generativa. Il film, originariamente previsto per una durata di 131 minuti, fu ridotto a 88 minuti da RKO Pictures senza il coinvolgimento di Welles, e i fotogrammi rimossi furono distrutti.
Showrunner intende usare il suo modello proprietario di AI, FILM-1, per ricreare le scene mancanti attraverso keyframe generati dall’AI e ambientazioni spaziali derivanti da foto d’archivio dei set. Il progetto coinvolgerà anche ricreazioni sintetiche del cast originale mediante tecniche di face-swapping, con l’aiuto dell’artista VFX Tom Clive e del regista Brian Rose, che aveva precedentemente tentato un restauro a mano del film.

Il 5 settembre 2025, la Commissione Selezionata della Camera dei Rappresentanti degli Stati Uniti sul Partito Comunista Cinese ha pubblicato un rapporto che solleva gravi preoccupazioni riguardo ai finanziamenti del Dipartimento della Difesa (DoD) per progetti di ricerca condotti in collaborazione con università e istituti cinesi legati al settore della difesa. Il rapporto evidenzia come, tra il giugno 2023 e il giugno 2025, oltre 1.400 pubblicazioni accademiche abbiano ricevuto supporto da parte del DoD, per un totale superiore a 2,5 miliardi di dollari in finanziamenti. Di queste, circa 800 hanno coinvolto direttamente entità cinesi associate alla ricerca e all’industria della difesa, molte delle quali sono presenti nelle liste nere del governo statunitense.

L’Unione Europea ha inflitto a Google una multa da € 2,95 miliardi (circa $3,45–3,5 miliardi) per abuso della posizione dominante nel settore ad-tech. In breve, Google favoriva i propri strumenti (AdX e DFP), penalizzando editori, inserzionisti e la concorrenza. La Commissione ha dato 60 giorni per presentare rimedi “seri”, altrimenti si valuta uno smembramento strutturale, con vendita delle attività incriminate.

Cernobbio è stata ancora una volta il palcoscenico di verità scomode. Lo studio Amazon-Teha appena presentato mette nero su bianco quello che molti investitori sanno già: la Spagna attrae il 60% in più di capitali esteri rispetto all’Italia. Tradotto in cifre, tra il 2015 e il 2024 Madrid ha raccolto 304 miliardi di euro di investimenti diretti esteri (IDE), contro i 191 miliardi di Roma. Un divario da 113 miliardi che non è frutto del caso, ma di differenze strutturali sempre più evidenti.

OpenAI non vuole più essere solo il cliente affamato di Nvidia che compra GPU come fossero noccioline. Per anni Sam Altman ha urlato al mondo che la fame di potenza computazionale stava diventando la vera barriera all’espansione dell’intelligenza artificiale. Ora arriva la risposta: un chip proprietario, disegnato in collaborazione con Broadcom, con consegne previste già dal prossimo anno. È la prima volta che la società dietro ChatGPT decide di sporcarsi le mani con il silicio, e non è un dettaglio di poco conto.

L’industria dell’intelligenza artificiale, abituata a muoversi con la spavalderia dei conquistadores digitali, si trova oggi davanti a un conto che sa di resa dei conti: 1,5 miliardi di dollari, la cifra che Anthropic dovrà pagare per chiudere una delle più grandi dispute sul copyright mai viste nella storia americana. Per capirci, è come se per ogni libro “saccheggiato” nei meandri di Library Genesis o Pirate Library Mirror il prezzo medio della memoria fosse fissato a 3.000 dollari, una valutazione tanto simbolica quanto destabilizzante. L’illusione di poter addestrare modelli linguistici divorando l’intera produzione culturale senza chiedere permesso si è trasformata in una fattura colossale, che ridisegna la relazione tra creatività umana e algoritmi.

L’incertezza strategica è il carburante nascosto della società algoritmica. Non è un fastidio passeggero che i dati elimineranno, è una risorsa da coltivare e sfruttare. In un mondo di agenti autonomi, sistemi di intelligenza artificiale e mercati stocastici, l’illusione della trasparenza totale è un pericoloso miraggio. Chi governa il digitale e la finanza non lavora per eliminare l’incertezza, ma per dosarla, mantenerla, amplificarla quando serve. È l’arte di gestire ciò che non sappiamo, non di spingerci verso un’onniscienza che, se mai fosse possibile, sarebbe la fine stessa del gioco strategico.
Proprio qui si inserisce la ricerca guidata dall’Università di Napoli Federico II e dal Prof. Aniello Murano, insieme a colleghi internazionali, che ha introdotto una nuova dimensione formale nel ragionamento strategico: PATLH, la logica che innesta l’entropia di Shannon dentro le logiche probabilistiche multi-agente. Il risultato non è solo elegante, è sovversivo. Porta nei sistemi computazionali l’idea che l’incertezza, misurata in bit di Shannon, possa essere trattata come variabile strategica, al pari delle probabilità di successo di una coalizione.

Chiunque abbia memoria storica delle bolle finanziarie ricorderà con un sorriso amaro la corsa cieca dei primi Duemila, quando le dotcom senza business model venivano quotate con multipli da fantascienza e i CFO raccontavano agli analisti favole degne di un pitch da Silicon Valley. Oggi la narrativa sembra più raffinata, più algoritmica, più intrisa di intelligenza artificiale. Ma dietro l’apparente solidità del rally che ha spinto l’S&P 500 oltre quota 6.500, c’è l’avvertimento chirurgico di Goldman Sachs: se i colossi del cloud riducono la loro spesa in AI, il multiple dell’indice può contrarsi fino al 20%. Non un’eco qualsiasi, ma un boato che arriverebbe a scuotere la fiducia degli investitori più convinti.

Alibaba ha catalizzato l’attenzione venerdì grazie a un’anteprima rivelata dalla sua unità Qwen: il nuovo modello AI denominato Qwen3-Max-Preview, sfoggiando la cifra monstre di oltre 1 trilione di parametri. Non un dettaglio da poco, considerando che in mezzogiorno le azioni della società hanno guadagnato circa il 3,3 % .
L’annuncio, pubblicato su X dal team Qwen, non si è limitato alla cifra impressionante: Alibaba ha assicurato che “Benchmarks show it beats our previous best, Qwen3-235B-A22B-2507”. La piattaforma promette “performance stronger, knowledge broader, better at conversations, agentic tasks & instruction following,” e ha lanciato tutto con un sibillino “Scaling works and the official release will surprise you even more. Stay tuned!” .

L’irresistibile piattaforma di lusso Vivrelle, famosa per permettere il noleggio di capi e accessori high-end, ha annunciato giovedì il lancio del suo nuovo personal stylist AI chiamato Ella, frutto di una collaborazione con i retailer moda Revolve e FWRD. L’annuncio è arrivato grazie a TechCrunch.
Ella è un assistente di stile digitale che opera trasversalmente sui tre canali—Vivrelle, Revolve e FWRD e consente suggerimenti outfit su misura, sia da acquistare sia da noleggiare. Si può chiedere, per esempio, “un outfit per un addio al nubilato” oppure “cosa mettere in valigia per un viaggio” e l’AI attinge a tutto l’inventario dei tre partner per generare look completi. A quel punto, si può finalizzare l’acquisto in un unico carrello su Vivrelle.
Fu una scena da alta finzione politica: nel corso di una cena al 4 settembre 2025, il presidente Trump ha accolto attorno allo stesso tavolo CEO del calibro di Satya Nadella (Microsoft), Lisa Su (AMD), Safra Catz (Oracle), Sam Altman (OpenAI), Sundar Pichai (Google), Tim Cook (Apple), Mark Zuckerberg (Meta), Sergey Brin, Bill Gates e altri nomi di punta. Elon Musk non era presente, pur avendo mandato un rappresentante.

L’industria tecnologica statunitense è stata messa “in allerta” dalla NAACP, una delle principali organizzazioni per i diritti civili negli Stati Uniti, che ha lanciato un appello alle comunità locali affinché chiedano maggiore responsabilità alle aziende che costruiscono nuovi data center. La domanda di elettricità negli Stati Uniti sta crescendo per la prima volta in quasi due decenni, in gran parte a causa della costruzione di massicci data center destinati a supportare i progressi nell’intelligenza artificiale. Le utility e alcune aziende tecnologiche stanno sempre più soddisfacendo questa domanda con combustibili fossili, peggiorando la qualità dell’aria e aggravando la crisi climatica, spingendo la NAACP a emettere “principi guida” per aiutare i membri delle comunità locali a opporsi.

In teatro operativo contemporaneo, ogni secondo conta e ogni errore si paga in uomini, mezzi e tempo. La tecnologia del Digital Twin (DT) non è un mero strumento digitale: è un asset strategico che trasforma informazioni in vantaggio operativo, simulazioni in decisioni tattiche e dati in superiorità sul campo. Il DT costituisce un duplicato dinamico di sistemi, persone e ambienti, alimentato da flussi reali di informazioni, capace di apprendere, analizzare e suggerire azioni preventive. Nel linguaggio di comando, rappresenta un quartier generale invisibile, sempre aggiornato, che supporta ogni livello decisionale senza stancarsi né commettere errori.
La natura bidirezionale del DT consente un dialogo costante tra assetto fisico e gemello digitale. Sensori avanzati trasmettono dati in tempo reale, mentre il modello virtuale analizza, prevede e consiglia interventi correttivi. Esercitazioni simulate, fino a ieri riservate ai manuali teorici, diventano scenari predittivi, riducendo rischi e costi operativi. In termini concreti, significa mantenere la piena prontezza dei veicoli corazzati con una riduzione fino al 30% dei tempi di manutenzione programmata, o addestrare piloti su scenari complessi senza esporre assetti reali al rischio di incidenti.

Il mondo dello sviluppo software sta vivendo una rivoluzione, o meglio, una piccola apocalisse silenziosa. Gli assistenti di programmazione basati su intelligenza artificiale, da strumenti come Cursor a Windsurf, Kiro e Aider, stanno rapidamente diventando indispensabili per i developer. Ma la dipendenza crescente da AI automatizzate porta con sé un lato oscuro: attacchi sofisticati capaci di trasformare questi strumenti in veicoli inconsapevoli di codice malevolo. Secondo HiddenLayer, azienda di cybersecurity, un nuovo proof-of-concept denominato CopyPasta License Attack dimostra come un semplice file LICENSE.txt possa essere sfruttato per manipolare AI coding assistants senza che l’utente se ne accorga.

La pressione cresce e i vertici della sicurezza israeliana invitano il primo ministro Benjamin Netanyahu a fare un passo indietro sulla spinta militare a Gaza City. Invece di espandere l’offensiva terrestre contro Hamas, leader dell’IDF, del Mossad e del Ministero degli Esteri propongono di negoziare una tregua temporanea che possa garantire il rilascio degli ostaggi e prevenire il peso a lungo termine del governo militare su Gaza.
Durante una riunione di sei ore del gabinetto di sicurezza, il capo di stato maggiore dell’IDF, Eyal Zamir, ha avvertito che un’escalation rischierebbe di lasciare Israele responsabile della gestione quotidiana di Gaza. Il capo del Mossad, David Barnea, e il ministro degli Esteri Gideon Sa’ar hanno espresso preoccupazioni simili, sottolineando la necessità di alternative diplomatiche. La proposta di una tregua temporanea con Hamas potrebbe liberare alcuni ostaggi rimasti, evitare un coinvolgimento profondo nella governance di Gaza e ridurre i rischi di instabilità regionale.

I riflettori sui CEO non sono mai stati così spietati. Recenti scandali mostrano come anche passi falsi nella vita privata possano trasformarsi in catastrofi professionali. In un mondo iperconnesso, dove un singolo momento virale può ridefinire una reputazione in pochi secondi, i dirigenti sono tenuti a standard quasi regali di condotta, per evitare ritorsioni pubbliche o il licenziamento immediato.
Prendiamo i casi recenti. Takeshi Niinami di Suntory Holdings è stato estromesso per l’acquisto presunto di integratori illegali. Laurent Freixe di Nestlé ha perso il posto dopo aver nascosto una relazione con una subordinata diretta. Piotr Szczerek di Drogbruk è stato pubblicamente umiliato per aver strappato il cappello a un bambino durante gli US Open. Non parliamo solo di piccoli incidenti: sono diventati virali e hanno trasformato episodi personali in scandali aziendali da manuale.

La tentazione è forte: caricare una foto su ChatGPT per identificare una pianta, controllare un’eruzione cutanea o migliorare la foto del profilo su LinkedIn. Un gesto innocente, quasi banale. Ma dietro questa semplicità si cela un rischio silenzioso, spesso ignorato: la privacy. Gli esperti avvertono: caricare immagini su piattaforme AI potrebbe esporre più dati personali di quanto si immagini.
Le piattaforme AI stanno promuovendo sempre più interazioni basate su immagini. Dall’identificazione di piante all’analisi di eruzioni cutanee, fino alla modifica delle foto del profilo, gli utenti caricano quotidianamente immagini. Molti presumono che questi upload siano temporanei e privati. In realtà, le politiche delle aziende riguardo alla conservazione e all’uso delle immagini sono spesso poco chiare o incoerenti.

OpenAI ha recentemente rivelato una politica che monitora le conversazioni su ChatGPT, segnalando contenuti potenzialmente dannosi e, in alcuni casi, riferendoli alle forze dell’ordine. Questa decisione è stata presa in risposta a incidenti tragici, come il caso di un ex dirigente Yahoo che ha ucciso sua madre dopo mesi di interazioni con ChatGPT, che avrebbero alimentato le sue paranoie (New York Post).
Secondo OpenAI, le conversazioni che indicano minacce imminenti di danni fisici a terzi vengono esaminate da un team umano e, se necessario, segnalate alle autorità competenti (mint). Tuttavia, l’azienda ha dichiarato di non riferire casi di autolesionismo alle forze dell’ordine, per rispettare la privacy degli utenti, data la natura particolarmente privata delle interazioni con ChatGPT.

Smettiamo di fingere che tutto questo non sia una partita a poker tecnologico. “Educazione all’intelligenza artificiale” non è solo un modo elegante per dire fundraising e pubbliche relazioni; è il nuovo conflitto geopolitico educativo. Al centro della scena, Amazon, Google e Microsoft sottoscrivono impegni pubblici alla Casa Bianca: Amazon promette di «formare 4 milioni di persone in competenze AI» entro il 2028, supportare 10 000 insegnanti statunitensi con curricula sull’intelligenza artificiale e stanziare 30 milioni di dollari in crediti AWS per istituzioni che adottano AI e cloud nella didattica.