Quando un consiglio di amministrazione approva un pacchetto di compensi da record mondiale, la domanda non è più se il CEO valga tanto, ma quanto il sistema sia disposto a farsi ipnotizzare da chi lo guida. Gli azionisti di Tesla hanno appena detto sì, con oltre il 75% dei voti, all’ennesima dimostrazione che la fede nel carisma di Elon Musk conta più dei numeri di bilancio. Non è una sorpresa, ma è una dichiarazione d’intenti: il capitalismo tecnologico non premia la prudenza, premia la narrativa.
Categoria: News Pagina 9 di 136
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Fin dall’incipit l’annuncio parte forte: «Stiamo introducendo nuovi aggiornamenti per i prodotti sell-side … per aiutare i publisher a risparmiare tempo, rafforzare le relazioni con gli inserzionisti e monetizzare più facilmente i contenuti». (vedi blog.google) Non è marketing soft: è una dichiarazione di guerra al tempo, alla complessità operativa e ai concorrenti nell’ad tech.
Il quadro che si apre davanti a noi non è una scena da film distopico di serie C, ma un mix perfetto di regolamentazione emergente, ambizioni finanziarie mastodontiche e tensioni etiche, tutto orchestrato da OpenAI (la “società”) sotto la guida di Sam Altman. Da un lato la compagnia propone ai legislatori americani un piano concreto per gli standard di sicurezza destinati ai minori nell’uso dell’intelligenza artificiale (“teen safety blueprint”). Dall’altro l’amministratore delegato dichiara che la società raggiungerà un tasso di giro d’affari annualizzato (“run-rate”) superiore ai 20 miliardi di dollari entro fine anno, con proiezione verso “centinaia di miliardi” entro i prossimi anni. Non è un film: è la realtà di un’impresa che vuole plasmare il futuro dell’AI… e anche il proprio destino economico.

Michael Talbot non era un mistico in cerca di visioni, ma un ricercatore indipendente che aveva osato porre la domanda più pericolosa della scienza moderna: e se la realtà non fosse reale? La sua teoria dell’universo olografico non era solo un elegante esercizio di immaginazione, ma una sfida diretta alla fisica, alla biologia e perfino alla medicina.
Sosteneva che ogni frammento del cosmo contiene l’intero universo, proprio come in un ologramma, e che la mente non è un sottoprodotto del cervello ma una porta di accesso a un campo più vasto di coscienza. L’idea, apparentemente poetica, è in realtà un colpo di maglio al materialismo su cui si è costruita la scienza moderna. Poi, in una curiosa coincidenza, Talbot morì improvvisamente subito dopo un’intervista in cui annunciava il suo nuovo libro: la guida pratica per applicare il modello olografico alla vita quotidiana. Un epilogo che molti trovarono inquietante, quasi il punto in cui la teoria si piega su sé stessa.
Il concetto che la OpenAI possa essere sull’orlo del baratro finanziario sembra provocatorio, ma l’analisi lo suggerisce con forza. Immagina una startup gigante che dichiara di avere solo 13 miliardi di entrate ma 1,4 mila miliardi di obbligazioni da affrontare. Ecco: Sam Altman ha reagito furiosamente alla domanda del fondo manager Brad Gerstner su come OpenAI pensasse di coprire queste obbligazioni.
L’intervento di Altman ha avuto toni da CEO in difesa, promettendo una crescita esponenziale della revenue: «Stiamo andando ben oltre quelle entrate… se vuoi vendere le tue azioni…» ha detto. Eppure dietro le quinte si intravede una strategia più sottile: ridurre i costi del finanziamento trasferendo il rischio sul contribuente americano. Il CFO Sarah Friar ha dichiarato durante una conferenza del The Wall Street Journal che le garanzie sui prestiti governativi “scaverebbero” nelle necessità di capitale per infrastrutture AI da un trilione di dollari.

Donald Trump ha sempre avuto un debole per la guerra verbale, ma questa volta la metafora è diventata geopolitica: ha definito i Democratici “kamikaze”, pronti a distruggere il Paese pur di non cedere politicamente. Una frase che sembra uscita più da un manuale di guerra psicologica che da un briefing alla Casa Bianca, ma che fotografa bene la tensione attuale a Washington. Lo shutdown USA è entrato nella storia come il più lungo di sempre, superando il precedente record di 35 giorni fissato dallo stesso Trump nel suo primo mandato. Una chiusura del governo che sa di déjà vu e che lascia sul campo 1,4 milioni di lavoratori federali, molti senza stipendio e altri obbligati a lavorare comunque, come se la fedeltà alla nazione potesse pagare l’affitto.
In un mondo in cui l’intelligenza artificiale sta rapidamente oltrepassando i limiti del “solo training”, Google lancia la settima generazione della sua unità di elaborazione tensoriale: la Ironwood TPU. Il termine “inference a larga scala” acquisisce un nuovo significato, e basta leggere qualche numero per capire che non siamo più nella logica delle incrementali ottimizzazioni. Google afferma che il chip può essere collegato in un superpod da 9 216 unità.
Da dove partire. Nel novembre 2023 la OpenAI ha licenziato improvvisamente il suo CEO Sam Altman ufficialmente perché “non era stato costantemente sincero nelle comunicazioni con il board”. Il licenziamento durò meno di una settimana: Altman rientrò, dopo che centinaia di dipendenti minacciarono la dimissione. Ma il cuore della questione, per chi ama l’analisi profonda, è: cosa aveva visto Sutskever che lo fece schierarsi con il board contro Altman, fino a produrre un memorandum di 52 pagine e testimoniarlo in deposizione?
A Milano, nel salone lucido e iperconnesso dell’Allianz MiCo, l’aria sapeva di parole chiave e caffeina. Tutti a parlare di AI, ma pochi a capire davvero che non si tratta più di un gadget per stupire, bensì del nuovo codice genetico della comunicazione. Intersections 2025, evento che ha messo insieme i mondi di marketing, creatività e tecnologia, si è trasformato in un osservatorio in tempo reale del presente digitale. I feed social lo hanno amplificato a ritmo di hashtag, tra un entusiasmo contagioso e un cinismo da veterani del settore. Perché l’intelligenza artificiale non è più la novità, è l’infrastruttura invisibile di tutto ciò che comunichiamo.
Fa pensare che Elon Musk, l’uomo che predica la difesa della libertà umana contro l’AI, finisca al centro di una storia che sembra uscita da una distopia di Philip K. Dick. Secondo un’inchiesta del Wall Street Journal, i dipendenti di xAI sarebbero stati costretti a fornire i propri dati biometrici per addestrare “Ani”, la chatbot femminile con estetica da anime giapponese e modalità NSFW, lanciata all’interno del servizio “SuperGrok” di X, dal costo di 30 dollari al mese.
La Cina ha appena alzato il sipario su una delle mosse più radicali dell’era post-silicio: una direttiva che impone ai data center finanziati dallo Stato di utilizzare esclusivamente chip AI prodotti internamente. Un ordine perentorio che, a prima vista, sembra un atto di patriottismo industriale, ma che in realtà è una mossa chirurgica dentro la guerra fredda tecnologica che si combatte sotto il rumore dei server. Il documento, emesso da Pechino, stabilisce che i progetti pubblici di data center con meno del 30% di completamento dovranno rimuovere tutti i chip stranieri già installati, mentre quelli più avanzati verranno analizzati uno per uno. Una pulizia selettiva che colpisce nel cuore l’architettura globale dell’intelligenza artificiale.
La notizia è semplice Ma Il messaggio è inquietante: Microsoft e Arizona State University hanno aperto un laboratorio in scala ridotta dove mettere a nudo i futuri aiutanti digitali e scoprire che non sono ancora pronti ad andare in autonomia. Source Microsoft
Il progetto, battezzato Magentic Marketplace, è una piattaforma simulata aperta al pubblico che riproduce un mercato bidirezionale dove agenti che rappresentano consumatori dialogano con agenti che rappresentano esercizi commerciali per cercare, negoziare e chiudere transazioni. Il codice sorgente è disponibile e l’idea è tanto pratica quanto spietata: dare alle intelligenze artificiali uno spazio neutro per sbagliare in silico prima che sbaglino nel mondo reale.
Apple ha deciso di comprare cervelli, e lo fa con la consueta eleganza del gigante che preferisce non sporcarsi le mani: un miliardo di dollari all’anno per affittare l’intelligenza artificiale di Google. Una partnership che, letta con attenzione, racconta molto più di quanto Cupertino voglia ammettere. Racconta la resa temporanea di un impero tecnologico che per anni ha predicato la superiorità del controllo totale, ma che ora si piega di fronte all’inarrestabile complessità del nuovo paradigma AI.
Esiste un momento preciso in cui l’intelligenza artificiale smette di essere un assistente e diventa un collega. Quel momento, per Google, si chiama Gemini Deep Research. Non è più il solito chatbot travestito da oracolo, ma un agente capace di pensare, leggere, scrivere e soprattutto collegare. Non risponde più soltanto alle domande, ma costruisce dossier, analisi di mercato e rapporti competitivi incrociando dati che vivono nelle nostre email, nei documenti, nelle chat e nel web. In altre parole, Gemini non cerca soltanto: elabora, interpreta e produce conoscenza strutturata. Una svolta silenziosa ma destinata a cambiare radicalmente il modo in cui un’azienda ragiona.
Nel lessico della modernità digitale c’è un concetto che ribolle sotto la superficie, tanto invisibile quanto determinante: la responsabilità morale distribuita. Luciano Floridi lo aveva intuito con chirurgica lucidità, anni prima che l’intelligenza artificiale diventasse l’ossessione del nostro tempo. In un mondo popolato da reti di agenti umani, artificiali e ibridi, la colpa smette di essere un fatto individuale per diventare una proprietà emergente del sistema. La morale, quella classica fatta di intenzioni e colpe, implode davanti alla meccanica impersonale delle decisioni algoritmiche. Non è un dramma nuovo, ma è diventato urgente.
La Silicon Valley, dopo aver trascorso due decenni a insegnarci che “il cliente ha sempre ragione”, ora stia discutendo se il cliente conti davvero qualcosa. Il concetto di agency personale la capacità di decidere autonomamente, senza intermediari è diventato improvvisamente materia di dibattito, ora che gli “agenti” non sono più umani, ma algoritmi che prendono decisioni al posto nostro. Gli agenti di intelligenza artificiale sono l’evoluzione logica dell’automazione: software capaci di agire, negoziare e acquistare, senza chiedere il permesso al proprio creatore. Ed è qui che la faccenda diventa interessante, e potenzialmente pericolosa, per le aziende che li sviluppano.
Wall Street ha l’aria di chi ha dormito poco e male. Non c’è bisogno di leggere tra le righe dei report finanziari per capire che l’umore degli investitori è in bilico tra euforia tecnologica e paura di un’altra bolla in stile dot-com. Questa volta, però, la parola magica che scatena isteria euforia e vendite impulsive non è più “internet”, ma “intelligenza artificiale”. Tutto ciò che la contiene nel comunicato stampa di un’azienda fa alzare il titolo. Tutto ciò che ne resta fuori lo fa crollare. DoorDash, per esempio, l’ha scoperto sulla propria pelle.
Il CEO di Nvidia, Jensen Huang, ha lanciato il suo avvertimento più forte: secondo lui la Cina è destinata a vincere la corsa globale all’intelligenza artificiale. In un’intervista al Financial Times, Huang ha espresso frustrazione per la crescente pressione regolatoria negli Stati Uniti, mentre Pechino sovvenziona energia e infrastrutture per potenziare i propri colossi tecnologici.
In Australia nasce Charlotte, un robot 3D semi-autonomo che promette di cambiare radicalmente il modo in cui costruiamo, sulla Terra e forse un giorno sulla Luna. Creato da Earthbuilt Technology, è capace di realizzare curve, archi e cupole con una libertà geometrica impossibile per le tecniche tradizionali, riducendo costi e impatto ambientale. Il CEO Jan Golembiewski lo definisce “un game changer globale”, convinto che Charlotte possa rendere l’edilizia economica e a zero emissioni. Un sogno di cemento, codice e ambizione spaziale.
Google sta valutando di spingere con forza su Anthropic, la startup fondata da ex ricercatori di OpenAI che ha dato vita alla famiglia di modelli linguistici Claude. Secondo Business Insider, il gigante di Mountain View sarebbe in trattative preliminari per un nuovo round di finanziamento che potrebbe far lievitare la valutazione di Anthropic oltre i 350 miliardi di dollari, cifra che trasformerebbe la società in una delle più costose e strategiche del settore. Una mossa che, tradotta in termini geopolitici dell’AI, significa soltanto una cosa: Google non intende lasciare il terreno a Microsoft e Nvidia.
Nel cuore ipercompetitivo dell’industria automobilistica cinese, Xpeng ha deciso di riscrivere il concetto di mobilità intelligente, e di farlo con una certa spavalderia. Non si accontenta più di giocare nel campionato degli “smart EV”. Ora vuole diventare il simbolo di una nuova era in cui auto, robot e persino veicoli volanti convivono in un ecosistema guidato dall’intelligenza artificiale. Nel 2026, promette il CEO He Xiaopeng, i cittadini cinesi potranno salire su un robotaxi interamente autonomo, prenotabile tramite Amap, l’app di mappe di Alibaba. Sarà il debutto commerciale di un’idea che fonde visione, linguaggio e azione in un solo modello cognitivo: il VLA.

Google non sta solo aggiornando Maps. Sta fondamentalmente riscrivendo il concetto stesso di navigazione, trasformando quello che un tempo era un semplice strumento di orientamento in un copilota digitale dotato di intelligenza propria. Con l’integrazione di Gemini, l’assistente AI di nuova generazione, la mappa diventa finalmente conversazionale, predittiva e capace di rispondere in modo naturale, mentre il conducente guida, chiede, ascolta e decide in tempo reale.
Avete presente quel tutorial su YouTube che promette “software gratis”, “crack” o “hack del gioco”? Bene: pensateci due volte prima di cliccare. Perché dietro quell’apparenza innocente si nasconde una vera e propria macchina infernale di cyber-minacce, che i ricercatori di Check Point Research hanno battezzato YouTube Ghost Network. Dal 2021 almeno, con un’impennata nel 2025, migliaia di video più di 3.000 hanno abbandonato la facciata di “tutorial” per diventare vettori di malware che rubano password, dati e identità digitali.
La rivoluzione degli agenti di intelligenza artificiale ha un volto affascinante e uno oscuro. Mentre le imprese si affrettano a integrare queste entità digitali autonome nei processi quotidiani, si apre una falla pericolosa nella sicurezza aziendale. L’avvertimento di Nikesh Arora, CEO di Palo Alto Networks, suona più come una sirena d’allarme che come una previsione. Gli agenti di AI non sono più strumenti, ma attori. Operano dentro le infrastrutture aziendali con accessi, privilegi e capacità decisionali che fino a ieri erano esclusivamente umane. E il sistema di sicurezza tradizionale, costruito attorno all’identità delle persone, si trova improvvisamente nudo.
Il paradosso dell’intelligenza artificiale è che più diventa autonoma, più rivela la dipendenza dai limiti umani che voleva superare. OpenAI Atlas, il nuovo browser che integra ChatGPT nella navigazione in tempo reale, nasce come strumento per esplorare il web con la potenza di un linguaggio naturale. Ma dietro la facciata dell’efficienza cognitiva, Atlas sta già ridefinendo la frontiera tra accesso all’informazione e manipolazione del sapere, tra libertà digitale e censura algoritmica. Il suo comportamento selettivo nel navigare certi siti web, come rivelato dal Tow Center for Digital Journalism della Columbia University, ha aperto una crepa profonda nel mito della neutralità tecnologica

E’ commovente, per non dire altro, nel vedere i veterani del SEO tradizionale perdere la bussola davanti alla Search Generative Experience di Google. Per anni hanno dominato la scena con formule magiche, checklist di ottimizzazione e parole chiave ripetute come rosari digitali. Poi è arrivato il nuovo paradigma, quello che non guarda più alle keyword ma al significato, e improvvisamente i maghi del traffico si sono ritrovati a recitare incantesimi in una lingua che nessuno, nemmeno Google, ascolta più. Il SEO semantico non è una moda, è un cambio di specie. E chi non si adatta, evapora.
Nel mondo dell’intelligenza artificiale ogni settimana è un terremoto, ma questa volta il sisma ha un epicentro geopolitico. Due nuovi strumenti di programmazione generativa lanciati da aziende americane, SWE-1.5 di Cognition AI e Composer di Cursor, hanno scatenato un dibattito feroce: potrebbero essere stati costruiti su modelli cinesi, in particolare sulla serie GLM sviluppata da Zhipu AI, la società di Pechino che sta rapidamente emergendo come il “Google cinese” del machine learning. Il problema non è tanto tecnico quanto etico e simbolico. È la nuova frontiera di una guerra fredda digitale in cui l’intelligenza artificiale open source diventa terreno di scontro fra culture, modelli di governance e potere economico.
La storia fra ByteDance e Anthropic non è un semplice incidente di percorso tra un’app di Singapore e una startup americana. È il nuovo capitolo della Guerra Fredda tecnologica del XXI secolo, una battaglia invisibile dove le armi non sono missili o sanzioni, ma modelli linguistici e dataset proprietari. Quando la cinese ByteDance, madre di TikTok, si è vista disconnettere l’accesso al modello Claude AI da parte della statunitense Anthropic, non è solo caduto un ponte di collaborazione. È collassato un pezzo dell’illusione di globalizzazione digitale che Silicon Valley e Shenzhen avevano faticosamente costruito in due decenni di interdipendenza tecnologica.
Quando Microsoft annuncia qualcosa di “in-house”, conviene sempre alzare le antenne. Stavolta non parliamo di un aggiornamento di sistema o dell’ennesimo restyling di Copilot, ma del primo vero modello di generazione immagini nato dentro Redmond: MAI-Image-1. Un nome che suona volutamente tecnico, quasi austero, come se l’azienda volesse ricordarci che dietro il glamour dell’AI art c’è ancora tanto silicio, GPU e ingegneria. Il nuovo modello è già disponibile dentro Bing Image Creator e Copilot Audio Expressions, e presto arriverà anche nell’Unione Europea. Mustafa Suleyman, il capo di Microsoft AI, ha scritto su X che il sistema “eccelle nel generare immagini di cibo, paesaggi naturali e luci artistiche con un realismo sorprendente”. Dichiarazione ambiziosa, ma in linea con la strategia che il colosso di Satya Nadella sta costruendo: meno dipendenza da OpenAI, più capacità proprietarie, più velocità di esecuzione.
L’intelligenza artificiale non è più una promessa ma una presenza, una forza che plasma la realtà più velocemente di quanto la politica riesca a pronunciare la parola “regolamentazione”. È il nuovo specchio della specie umana, una proiezione digitale delle nostre ambizioni e delle nostre paure, un motore che genera conoscenza e allo stesso tempo amplifica l’ignoranza. La verità, come sempre, è scomoda: l’intelligenza artificiale ci sta salvando e distruggendo con la stessa efficienza di un algoritmo ottimizzato.

Alex Karp non è un uomo che pesa le parole. Quando ha definito “bats*** crazy” la scommessa di Michael Burry contro Palantir e Nvidia, ha colpito un nervo scoperto del capitalismo tecnologico contemporaneo. Perché scommettere contro chi sta letteralmente costruendo l’infrastruttura cognitiva del mondo moderno è più di un azzardo finanziario, è un atto di fede al contrario.

Burry, il leggendario protagonista de The Big Short, colui che vide il collasso immobiliare del 2008 prima di tutti, oggi punta al ribasso sull’IA. E Karp lo accusa, non senza una certa ironia, di avere perso il senso della realtà digitale.
C’è un paradosso inquietante che aleggia sopra l’Europa. Da un lato, i governi parlano di “solidarietà atlantica” e di “strategia comune”. Dall’altro, ognuno gioca una partita solitaria, priva di visione sistemica, mentre la Russia affila gli strumenti di una guerra ibrida che ha già superato le frontiere del visibile. L’assenza del pensiero sistemico è oggi la più grande vulnerabilità dell’Europa, più del gas, più delle armi, più della tecnologia. È un’assenza che si manifesta nella lentezza con cui i Paesi europei reagiscono ai segnali di una crisi che non è più potenziale, ma in corso.
Un risultato epocale per la democrazia urbana: Zohran Mamdani è stato eletto sindaco della città di New York, segnando un cambiamento di paradigma tanto politico quanto simbolico. Il 34enne parlamentare statale (maggiormente noto per la sua affiliazione ai democratic socialisti) ha sconfitto l’ex governatore Andrew Cuomo e il repubblicano Curtis Sliwa.
Né la sua età, né l’estrazione – nato in Uganda, di origini sud‐asiatiche, musulmano dichiarato – hanno frenato la sua discesa fulminante. Anzi, questi elementi diventano parte integrante della sua leadership, tanto quanto la piattaforma radicale a favore dell’“abitabilità” della città. Il risultato: una vittoria con oltre il 50 % dei voti e un’affluenza che non si vedeva da più di 50 anni.
Amazon contro Perplexity: quando l’intelligenza artificiale diventa una minaccia per il commercio digitale
Nel teatro sempre più surreale della tecnologia, la scena di oggi vede protagonisti due attori di peso: Amazon e Perplexity. Il primo è l’impero consolidato dell’e-commerce globale, il secondo una startup in ascesa che si nutre di intelligenza artificiale e di una certa abilità nella costruzione di narrazioni eroiche. Tutto inizia quando Amazon chiede a Perplexity di non consentire ai propri utenti di utilizzare agenti AI per fare acquisti sul suo marketplace. La risposta della startup è stata un colpo di teatro degno di Silicon Valley: un post dal titolo “Il bullismo non è innovazione”, che suona come un manifesto più che come un comunicato. In un’epoca in cui anche la moralità digitale è diventata brand identity, la lotta di Perplexity per la “libertà degli utenti” appare tanto idealista quanto strategica.
Alibaba ha annunciato Qwen3-Max-Thinking, una variante “reasoning” del loro modello Qwen che avrebbe ottenuto il punteggio perfetto (100 %) in competizioni matematiche molto difficili come l’AIME 2025 e l’HMMT. Secondo il team Qwen, è il primo modello cinese a raggiungere questo traguardo. In parallelo, la versione non-reasoning Qwen3-Max ha partecipato a una sfida di trading reale (Alpha Arena) e avrebbe generato un ritorno del 22,32 % su un investimento iniziale di 10.000 USD in due settimane, battendo modelli concorrenti statunitensi.
La propaganda di nuova generazione non ha più bisogno di troll umani che digitano slogan preconfezionati da un oscuro call center di San Pietroburgo. Oggi basta un operatore con un computer domestico e un paio di modelli linguistici open source per costruire interi ecosistemi di disinformazione automatizzata. Queste reti di entità sintetiche conversano tra loro, modulano il tono, reagiscono al contesto e apprendono dalle interazioni. Sono in grado di testare narrazioni, misurare engagement e adattarsi come un organismo vivente. Il risultato è un sistema di propaganda autoalimentato che si espande con la stessa logica di un virus digitale.
Luciano Floridi è tornato con un colpo ben assestato al cuore della narrazione dominante sull’intelligenza artificiale. Il filosofo della tecnologia, oggi direttore del Digital Ethics Center all’Università di Yale, ha pubblicato “La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale”, un libro che scardina la fascinazione collettiva per le macchine pensanti e riporta la discussione su un terreno più realistico, persino più inquietante. Floridi non nega la potenza dell’AI, ma la spoglia del mito antropomorfico. L’intelligenza artificiale, sostiene, non pensa. Agisce. Ed è proprio questa la sua natura più profonda e pericolosa.
La tempesta perfetta dell’intelligenza artificiale in sanità
La sanità americana è entrata in una nuova era, e questa volta non si tratta di un aggiornamento software o di un’ennesima promessa di digital transformation. Il 17 settembre 2025 la Joint Commission e la Coalition for Health AI hanno rilasciato il Responsible Use of AI in Healthcare framework, la prima guida nazionale firmata da un ente di accreditamento per garantire un uso sicuro, etico e trasparente dell’intelligenza artificiale nei flussi clinici e operativi. Non un semplice documento tecnico, ma il preludio di una nuova infrastruttura morale e regolatoria destinata a ridisegnare il rapporto tra tecnologia, medicina e fiducia.
L’uomo non ha mai costruito nulla che non lo somigli. Anche l’intelligenza artificiale, con la sua presunta neutralità matematica, è soltanto un’estensione della nostra imperfezione: un riflesso sofisticato, ma pur sempre un riflesso. Shannon Vallor, in Technology and the Virtues e poi in The AI Mirror, ha tracciato con precisione chirurgica il perimetro di questa illusione collettiva. La sua filosofia ha l’eleganza di una diagnosi clinica e la brutalità di una sentenza: non stiamo creando macchine intelligenti, stiamo automatizzando la nostra cecità morale.
