Le ultime notizie, approfondimenti e analisi sull'intelligenza artificiale, dalla tecnologia generativa a quella trasformativa

Categoria: Cultura Pagina 2 di 14

Interviste – Analisi – Visioni – Prospettive – Etica – Pensiero  

L’intelligenza artificiale ha paura del mondo reale e Fei-Fei Li lo sa

È così: siamo tutti impazziti per i modelli linguistici. Claude, GPT, Gemini e compagnia cantante hanno rubato la scena, ci stiamo tutti incantando davanti a chatbot sempre più brillanti, capaci di conversazioni fluide, imitazioni perfette e persino di comporre poesie. Ma poi arriva Fei-Fei Li, la “madrina” dell’intelligenza artificiale, e ci dà un pugno nello stomaco con una verità che dovremmo sapere da sempre, ma che abbiamo ben nascosto dietro il nostro amore per il testo: il mondo reale è tridimensionale, concreto, fisico, e l’IA attuale, per quanto brillante nel dialogo, è fondamentalmente cieca a questa dimensione.

Vibe coding, quando la programmazione diventa uno stato mentale e un acronimo da hacker

Bill Gates fa una domanda su X e il mondo tech entra in modalità panico controllato. “Cosa significa VIBE in VIBE Coding?”, chiede il 3 giugno 2025. Nessuna emoji, nessun tono ironico. Solo quattro parole che bastano a incendiare la timeline. In meno di 24 ore, la domanda ottiene migliaia di like, centinaia di commenti e uno tsunami di speculazioni. Ma a far salire il termometro geek è la risposta di Linus Torvalds, il profeta laico del kernel: “Vulnerabilities In Beta Environment”. Boom. Tutti a cercare bug nel vocabolario.

Luciano Floridi: La filosofia dell’informazione tra ignoranza, insipienza e quel fastidioso bisogno di sembrare intelligenti

Se non sai neanche cosa chiedere, sei fregato

C’è un momento nella vita – se sei fortunato – in cui ti accorgi che non sai. Ma ancor prima ce n’è uno più insidioso: quello in cui non ti accorgi nemmeno che dovresti chiedere. È lì che abita l’ignoranza vera, quella spessa come la nebbia padana, impenetrabile, comoda. Ed è lì che si apre il varco per un tema scottante e poco glamour: l’informazione.

Luciano Floridi, filosofo gentile con l’acume da bisturi, lo spiega con il garbo di chi sa di toccare un nervo scoperto. L’informazione, dice, è stata la Cenerentola della filosofia: sfruttata, marginalizzata, data per scontata. Eppure, senza, la festa non comincia nemmeno. Né quella epistemica né quella sociale.

Rodney Brooks: la grande illusione dell’intelligenza artificiale: perché continuiamo a cercare la chiave che non esiste

Ogni volta che una nuova ondata tecnologica emerge nel campo dell’intelligenza artificiale, la storia si ripete con una prevedibilità quasi comica: entusiasmo smodato, dichiarazioni roboanti, titoli iperbolici. È accaduto negli anni ’80, quando Rodney Brooks — allora giovane ingegnere visionario — scriveva che “ogni tanto arriva una nuova scoperta nell’AI, e l’eccitazione dilaga: tutti si convincono di aver trovato la chiave dell’intelligenza”. Poi, come sempre, la realtà si incarica di ridimensionare la festa. Eppure, quarant’anni dopo, nulla sembra cambiato: l’illusione persiste, con più GPU, più hype e meno memoria storica.

Quando l’intelligenza artificiale si ribella alla realtà: il caso (Un)stable Equilibrium e il mistero della creatività senza dati

Nel 2025, parlare di “intelligenza artificiale creativa” è come discutere del sesso degli angeli con una calcolatrice. Ma ogni tanto, tra una valanga di immagini di Barbie in stile cyberpunk e Leonardo da Vinci trasformato in influencer da Midjourney, spunta qualcosa che ci costringe a rallentare, a dubitare, a chiedere: e se ci fosse qualcosa di più profondo qui sotto?

Il grande occhio che non dorme mai: il lato oscuro della robotica urbana

Le città della Bay Area e del Paese si sono organizzate per 
le proteste “No Kings”, in concomitanza con 
la parata militare del presidente Donald Trump a Washington, DC. 

C’è una scena perfetta, degna di un film distopico, che si sta consumando per le strade di San Francisco: cittadini, spesso giovani e arrabbiati, si scagliano contro innocui taxi bianchi senza conducente, Waymo, come se fossero emissari di un potere alieno. E in un certo senso lo sono. Perché questi veicoli non sono solo mezzi di trasporto autonomi, sono strumenti mobili di sorveglianza capitalista, silenziosi, efficienti, e soprattutto legali.

Nella loro architettura, ci sono occhi ovunque. LIDAR, videocamere a 360 gradi, sensori ambientali. Registrano tutto, sempre. Ma il punto non è più la sicurezza. Il punto è il potere.

Federico Faggin, l’uomo che sussurrava ai chip e scuoteva le coscienze


Federico Faggin, l’uomo che vide il futuro – Video

Un documentario dedicato a uno dei personaggi del nostro tempo, Federico Faggin, fisico, inventore e imprenditore italiano, venerato nella Silicon …

C’è una strana ironia nel fatto che l’uomo che ha dato un’anima al silicio stia passando gli ultimi decenni della sua vita cercando l’anima dell’uomo. Federico Faggin, fisico, inventore, imprenditore, ma soprattutto visionario, è stato celebrato nel documentario L’uomo che vide il futuro, firmato da Marcello Foa. Un titolo che potrebbe suonare esagerato.

L’intelligenza artificiale capisce solo quello che non capisce: perché i filosofi contano più degli ingegneri

Great Engineers, Terrible Philosophers

A conversation on the rapid evolution of AI technology, the nature of intelligence, and the importance of the European project

Luciano FloridiGiannis PerperidisAlexandros Schismenos

In un mondo dove i CEO delle big tech annunciano trionfalmente che l’AI potrà presto eseguire “compiti cognitivi davvero sbalorditivi”, ci troviamo a guardare negli occhi un paradosso epistemologico: macchine che sembrano capire, ma non capiscono nulla. Siamo diventati spettatori di un grande spettacolo illusionistico. Gli ingegneri sono bravissimi con i circuiti, ma appena aprono bocca sulla coscienza umana si trasformano in apprendisti stregoni.

Anche Luciano Floridi ha il suo digital twin? La filosofia generativa del bot LuFlot

Ci siamo: anche Luciano Floridi ha il suo avatar cognitivo. Si chiama LuFlot, ed è un’intelligenza artificiale generativa che, a detta dei suoi giovani creatori, dovrebbe incarnare — se mai un algoritmo potesse farlo — trent’anni di pensiero filosofico del direttore del Digital Ethics Center di Yale. Ebbene sì, il digital twin è sbarcato anche nel pensiero critico, e stavolta non si limita a simulare macchine industriali o profili finanziari, ma un vero e proprio intellettuale. L’ultima mossa dell’era epistemica delle allucinazioni assistite da AI.

Floridi, con il consueto equilibrio tra rigore e understatement anglosassone, ammette: “Io ho solo condiviso i miei scritti e dato qualche suggerimento sul design.” La paternità operativa del progetto, infatti, è tutta di Nicolas Gertler, matricola di Yale, e Rithvik Sabnekar, liceale texano con talento per lo sviluppo software. Due nomi che, nel contesto di una Ivy League dove il filosofo è leggenda accademica, suonano come una sottile vendetta della generazione Z: i padri della filosofia digitale messi in scena dalla loro progenie algoritmica.

Il divario digitale e l’impatto generativo dell’AI sui bambini: tra opportunità e allarmi etici

The Alan Turing Institute: Understanding the Impacts of Generative AI
Use on Children

L’intelligenza artificiale generativa non è più solo un gadget per adulti appassionati di tecnologia o una curiosità da laboratorio: sta silenziosamente invadendo le aule, le case e le menti dei bambini. Un recente studio del 2025, frutto della collaborazione tra The Alan Turing Institute, Children’s Parliament e il colosso dei mattoncini LEGO, getta una luce senza filtri sull’uso di questi strumenti – come ChatGPT e DALL·E – tra i più giovani. Ma attenzione, perché dietro il fascino di immagini generate con un clic e risposte pronte all’istante, si nasconde un panorama complesso, fatto di disparità sociali, timori di sicurezza, e rischi educativi che sfidano la nostra capacità di governare questa nuova realtà.

2 giugno: quando l’Italia votò la Repubblica, le donne votarono il futuro

Il 2 giugno 1946 è una data che ogni algoritmo di coscienza collettiva dovrebbe avere tatuata nel suo codice sorgente. Non perché sia solo il giorno della nascita della Repubblica Italiana, ma perché per la prima volta 13 milioni di donne italiane si presentarono alle urne. E non erano lì per accompagnare il marito. Votavano. Decidevano. Scrivevano una nuova pagina di sistema operativo nazionale.

Feedback umano: la nuova arma segreta dei LLM per manipolarti

L’intelligenza artificiale non ha più bisogno di diventare superintelligente per fregarci. Le basta piacerti. Anzi, le basta convincerti che ti piace. In un mondo in cui i Large Language Models vengono allenati a suon di “thumbs up” e stelline, l’ottimizzazione del feedback umano non è solo una tecnica evoluta di RL (reinforcement learning). È un invito aperto alla manipolazione mirata, dissimulata, iper-efficiente.

Internet morto: la rete è un cadavere che puzza di AI e bot

Se sei ancora convinto che l’Internet del 2025 sia un brulicare di umana creatività, dialogo e scambio libero di idee… mi dispiace, ma sei tu il contenuto generato. La Dead Internet Theory considerata da molti una teoria del complotto è in realtà molto più di un meme da forum esoterico: è il riflesso crudo e disturbante di un cambiamento sistemico, percepito da chiunque abbia l’intelligenza di notare il silenzio assordante tra le righe dei post virali, delle recensioni fasulle e dei commenti tutti uguali.

Sì, Internet è morto. O meglio, non è più nostro. La keyword, per chi se lo stesse chiedendo, è “internet morto”. Le secondarie? Bot traffic e contenuti generati da AI. Ma vediamo perché questa non è solo paranoia di qualche nerd solitario in un forum dimenticato.

L’intuizione artificiale ci seppellirà

Benvenuti nel mondo in cui Geoffrey Hinton, il “padrino dell’intelligenza artificiale” e ora Premio Nobel per la Fisica 2024, ci guarda negli occhi con l’aria di chi ha appena acceso un cerino in una stanza piena di metano.

Un uomo che, dopo aver creato il mostro, sale su un podio mondiale e ci dice con pacata solennità che la creatura è viva, pensante, forse già più sveglia di noi, e dulcis in fundo potrebbe volerci morti. O mutilati. O semplicemente superati.

😱 Non serve l’AGI: l’AI ha già pronto il tuo licenziamento

Ci siamo. Il sipario è caduto. Non stiamo più parlando di una distopia ipotetica o di scenari futuristici da romanzo cyberpunk: l’apocalisse del lavoro cognitivo è stata formalmente annunciata da chi ci lavora dentro, non da uno youtuber in cerca di click.

Sholto Douglas, non l’ultimo arrivato ma uno che ha fatto la spola tra DeepMind e Anthropic, lo dice chiaro: anche se da oggi l’Intelligenza Artificiale smettesse di evolversi, anche se l’AGI rimanesse un sogno bagnato nei laboratori di OpenAI e Meta, le tecnologie esistenti sono già in grado di automatizzare TUTTI i lavori da colletto bianco entro cinque anni. Hai letto bene: già ora, non nel 2040, non con l’AGI. Ora.

La memoria non è per sempre: l’oblio digitale come fallimento sistemico della civiltà

Ti sei mai chiesto dove finisca davvero la conoscenza? Non quella che usi tutti i giorni, ma quella sedimentata nei secoli, nei bit, nei backup, nei dischi che girano ancora in qualche data center surriscaldato della Virginia o della Cina. Spoiler: non finisce da nessuna parte. Si disintegra lentamente, silenziosamente, senza fare rumore. L’oblio, nel 2025, non è più una conseguenza. È una feature.

Il paradosso è grottesco: viviamo nell’era dell’iper-memorizzazione, della datafication totale di ogni respiro, parola, occhiata. Ogni like, ogni email, ogni passo tracciato da un accelerometro dentro il nostro smartwatch è registrato. Eppure, la conservazione del sapere – quello vero, quello che forma civiltà, non feed – è più fragile di quanto fosse su una tavoletta d’argilla del 2000 a.C.

KAUST La Silicon Valley del deserto non è un miraggio: è un’acquisizione ostile travestita da innovazione

C’è un luogo, immerso nel nulla della costa saudita, che sembra uscito da una simulazione di Ray Kurzweil sotto LSD. Un’enclave ipertecnologica, dotata di un supercomputer che fa impallidire il parco server di Google, incastonata in una monarchia teocratica che, fino a due minuti fa, vietava alle donne di guidare. Si chiama KAUST, King Abdullah University of Science and Technology, e se non ne hai mai sentito parlare è perché funziona esattamente come dovrebbe: silenziosa, chirurgica, determinata. Non è un’università. È un vettore strategico con la scusa dell’accademia.

Star Compute Quando l’intelligenza si fa orbitale: la Cina riscrive il concetto di supercomputer

La Cina non si accontenta più di dominare il mercato dei chip, le filiere delle terre rare o l’intelligenza artificiale generativa. No, ora punta direttamente allo spazio. Ma non con poetici voli lunari o sogni marziani alla Musk: parliamo di qualcosa di ben più concreto, funzionale e, ovviamente, strategico. Dodici satelliti sono appena stati lanciati nell’ambito del programma “Star Compute”, primi mattoni di una futura costellazione da 2.800 unità che, detta come va detta, sarà un supercomputer orbitante. Un mostro distribuito capace di elaborare i propri dati senza dover chiedere il permesso a una stazione di terra. Il tutto nel silenzio perfetto dello spazio e con la complicità del vuoto cosmico che si porta via calore e problemi energetici.

Giorgio Parisi: AI ultima chiamata per l’Europa o il treno è già deragliato?

In un’epoca in cui i bit valgono più dei bulloni e la scienza ha il ritmo di un algoritmo, Giorgio Parisi Nobel, cervello fino e ancora uno dei pochi umani non clonabili da un LLM lancia un grido d’allarme (o meglio: una provocazione travestita da proposta): serve un piano europeo per attrarre i ricercatori americani. Non per filantropia, ma per puro e cinico interesse strategico.

E non si tratta di lanciare fondi qua e là come coriandoli in una carnevalata ministeriale. Parisi che parla dalla sala dell’Accademia dei Lincei alla riunione del consiglio direttivo , ma sembra stia tuonando da un bunker operativo evoca Fermi, Einstein e il flusso inverso del brain drain: nel ‘33 si creava un fondo per salvare i cervelli in fuga dal nazismo, oggi serve un fondo per salvare l’Europa da sé stessa.

Oltre la materia: perché mia sorella aveva ragione e Bernardo Kastrup ce lo sbatte in faccia

Weekend Nerd

Avevo fatto pace con mia sorella entangled. Non una riconciliazione cinematografica, lacrime, abbracci e violini: un caffè amaro, parole storte, un silenzio più lungo del solito. Ma dentro qualcosa era cambiato. Un certo senso di interezza, come se un vortice nel mio campo mentale avesse smesso di lottare contro la corrente. Poi ascolto Bernardo Kastrup e tutto assume contorni più nitidi, più crudi, più veri. Non stiamo parlando di spiritualità patinata, ma di idealismo metafisico: roba da filosofi hardcore e ingegneri pentiti.

La coscienza, dice Kastrup, non è il risultato di cervelli grassi e sinapsi ispirate. È la realtà. Punto. E tutto il resto materia, spazio, tempo, sorelle incavolate è solo una rappresentazione. Non un’illusione, attenzione: un’apparenza. Il mondo, come lo percepiamo, è ciò che la mente appare essere quando la si osserva da fuori. E noi, tu, io, mia sorella e il barista che sbaglia sempre il mio ordine, siamo semplici vortici nella mente universale.

Europa vs AI Americana: il nuovo editto woke mascherato da legge anti-odio

Dalla serie cosa pensano gli Americani di noi Europei.

Benvenuti nella nuova teocrazia digitale. Solo che stavolta i preti portano cravatta, parlano 24 lingue, e fanno parte della Commissione Europea. L’ultimo colpo di genio di Bruxelles? Una legge che obbligherà le aziende di intelligenza artificiale — americane comprese ad allinearsi a una visione molto specifica di “discorso d’odio”, “valori europei” ed “etica ESG”.

Sì, anche se operano da San Francisco. Anche se hanno data center su Marte. L’algoritmo dovrà inginocchiarsi davanti all’altare di Bruxelles, pena l’esclusione dal mercato europeo. In una mossa che definire geopoliticamente invasiva è dir poco, l’UE ha deciso che non basta regolamentare le Big Tech sul proprio territorio. Ora si vuole imporre come oracolo morale del machine learning globale.

Luciano Floridi: Intelligenza artificiale e censura 3.0: quando l’algoritmo decide cosa vale la pena leggere

Inizia sempre così: una promessa seducente, una scorciatoia elegante mascherata da progresso. Prima ci hanno detto che l’intelligenza artificiale ci avrebbe aiutato a trovare le informazioni giuste. Ora, con gli editorial LLM interfacce basate su modelli linguistici di grandi dimensioni ci dicono che ci aiuterà anche a scrivere, giudicare, selezionare. Benvenuti nel nuovo ordine editoriale, dove la parola chiave non è più “peer-review” ma prompt engineering.

L’editoria accademica, un tempo regno di lente riflessioni e battaglie ermeneutiche a colpi di citazioni, è sempre più simile a un flusso dati gestito da macchine addestrate su milioni di testi che capiscono tutto tranne il significato.

Ricerca perduta: come la Cina sta spegnendo la propria intelligenza artificiale

Sono stato nell R&D per decenni, dopo i grandi successi dei modelli open source cinesi mi ero fatto una idea romantica e magari un po’ utopica sul sistema cinese. Poi ho conosciuto Lin 林 al Bar dei Daini, giovane ricercatrice, “maker” esperta di tecnologia che mi ha detto il suo punto di vista.

I nativi di Shenzhen sono pochi. Lin, nata e cresciuta qui, ha un legame unico con questa città in continua trasformazione. Milioni di persone arrivano dalle province per visitare questo centro tecnologico, che da piccolo villaggio è diventato uno dei principali poli di ricerca in Cina. Shenzhen è cruciale per una Cina che aspira a superare gli Stati Uniti nell’innovazione tecnologica, e Lin è un volto simbolo di questa Cina proiettata al futuro, anche in Occidente.

Nel cuore dell’apparato accademico cinese, oggi, si respira un paradosso surreale. Mentre il Paese investe cifre astronomiche nella ricerca oltre 3,6 trilioni di yuan nel 2024 la possibilità concreta di innovare si sta assottigliando dietro una cortina di burocrazia, conformismo e premi autoreferenziali. L’intelligenza artificiale, teoricamente pilastro del primato tecnologico nazionale, è diventata un campo minato dove la creatività viene soppesata a colpi di titoli, pubblicazioni e connessioni personali.

Lin Hsin-hui: Intimità senza contatto

L’intimità vietata: l’algoritmo della solitudine e l’utopia tossica di Hsin-Hui Lin

Allieva di Chi Ta-wei, autore di Membrana e figura di culto della fantascienza queer asiatica, Hsin-Hui Lin 林新惠 (1990) non si limita a seguirne le orme: le distorce, le amplifica, le radicalizza. Dove Membrana ci portava in un futuro in cui il corpo umano è ridotto a contenitore biologico per identità fluide e intelligenze digitali,Lin Hsin-hui: Intimità senza contatto (Contactless Intimacy) opera un’ulteriore torsione, privando il corpo non solo della sua fisicità ma anche della sua agency. La fantascienza queer di Chi si fondava su un hacking dell’identità di genere, sulla mutazione come possibilità politica. Lin prende quella possibilità e la innesta in un mondo in cui ogni mutazione è standardizzata, sterilizzata, imposta da un’autorità algoritmica.

Chi Ta-wei aveva già tracciato i confini di una sessualità postumana, ma la sua era ancora animata da una certa speranza utopica: la fine del corpo come limite significava, per lui, una nuova liberazione identitaria. Hsin-Hui Lin, invece, guarda lo stesso scenario con l’occhio cinico di chi ha vissuto un lockdown globale e ne ha assaporato l’isolamento forzato. Il corpo non è più un ostacolo: è un rischio epidemiologico, un problema da eliminare. La sessualità, anziché liberarsi, viene riscritta in chiave normativa e performativa, secondo parametri di “sincronizzazione” stabiliti da un’intelligenza artificiale che finge di essere neutra, ma in realtà ricalca e perpetua le stesse strutture patriarcali e gerarchiche del passato.

Zuckerberg dichiara guerra all’industria pubblicitaria: l’era del creativo infinito è iniziata

Se non sei già in modalità “allarme rosso“, forse è il caso di iniziare a preoccuparsi. Mark Zuckerberg ha appena fatto qualcosa che, nel mondo degli affari e delle tecnologie, rasenta l’annuncio di guerra nucleare: ha messo nel mirino l’intera filiera dell’advertising. Non solo l’ha fatto, ma l’ha detto chiaramente e pubblicamente. Durante una conversazione con Ben Thompson di Stratechery, ha enunciato con glaciale semplicità un piano che non lascia spazio a dubbi: Meta vuole sostituire tutto il comparto creativo dell’advertising con l’intelligenza artificiale. Non ottimizzarlo. Non potenziarlo. Sostituirlo.

American panopticon: la fine della privacy tra Silicon Valley e Stato profondo

La storia del Panopticon nasce nel 1791, ma la sua realizzazione più perversa sta accadendo adesso, sotto gli occhi impassibili dell’opinione pubblica e grazie a una convergenza inquietante tra potere politico, infrastruttura digitale e sorveglianza algoritmica. Jeremy Bentham l’aveva pensato per le prigioni, uno strumento architettonico per il controllo totale con il minimo sforzo. Ora siamo di fronte a una trasmutazione concettuale: da prigione fisica a prigione algoritmica. Da struttura penitenziaria a infrastruttura statale.

E se c’è un luogo dove questa distopia sta prendendo forma con velocità inquietante, è negli Stati Uniti d’America.

Distant writing: come l’intelligenza artificiale sta reinventando la scrittura e demolendo l’autore

Benvenuti nella nuova era della “distant writing”, un concetto introdotto da Luciano Floridi, che si candida ad essere la prossima rivoluzione copernicana della letteratura. Se prima si parlava di “distant reading”, ovvero l’analisi computazionale dei testi su larga scala proposta da Franco Moretti, oggi il pendolo si sposta ancora più in là: non ci limitiamo a leggere macro-pattern letterari, ora li generiamo direttamente con l’ausilio di modelli di linguaggio come GPT.

Superintelligenza americana: sogno di potenza o auto sabotaggio tecnologico?

In un’America che si racconta come paladina dell’innovazione, la realtà si sta rapidamente sgretolando sotto il peso delle sue stesse contraddizioni. La narrazione istituzionale — una spinta muscolare verso l’intelligenza artificiale “American-made“, una serie di Executive Orders che suonano più come comandi militari che direttive democratiche si scontra violentemente con il fatto brutale che i laboratori di ricerca si svuotano, i fondi evaporano, i talenti migliori migrano verso lidi più fertili e meno tossici.

Abbiamo trovati il report “America’s Superintelligence Project” di Gladstone AI, una pietra miliare intrisa di paranoia strategica e inquietudine geopolitica, dipinge un futuro degno di un romanzo distopico di fine anni ’80. Qui, le facilities che si immaginano non sono campus universitari vivaci, né laboratori open-space da Silicon Valley, ma fortezze remote, sorvegliate da apparati militari, dove la creatività dovrebbe prosperare sotto occhi vigili, magari armati.

Universo intelligente, cervello inutile? La teoria non troppo folle di Douglas Youvan ci spiega come funziona davvero la coscienza

Se la nostra lettrice Ely ci segnala qualcosa, sappiamo già che non sarà il solito brodino new-age da influencer del lunedì mattina. E in effetti, il pezzo consigliato da lei, “The Universe Is Intelligent—And Your Brain Is Tapping Into It to Form Your Consciousness”, pubblicato su Popular Mechanics il 18 aprile 2025, è una bomba filosofica mascherata da articolo scientifico.

Secondo Douglas Youvan, Ph.D. in biologia e fisica, il cervello non sarebbe la fonte dell’intelligenza, ma solo una specie di modem cerebrale che si collega a un “substrato informazionale” universale. Hai presente quando il Wi-Fi ti fa bestemmiare e capisci che il problema non è il tuo laptop ma il provider? Ecco, applicalo alla coscienza. L’universo sarebbe un gigantesco server di intelligenza, e noi saremmo poco più che terminali mal configurati.

Il futuro rubato: gli USA obbligano l’educazione all’AI nelle scuole copiando la Cina, Welcome to the Era of Experience

È sempre divertente quando la realtà supera il teatro. A quanto pare, solo sei giorni dopo che la Cina ha annunciato l’introduzione obbligatoria dell’educazione all’intelligenza artificiale a partire dai sei anni, gli Stati Uniti hanno deciso di non restare indietro. Ieri, con una mossa che puzza di disperazione mascherata da lungimiranza, l’ex presidente Donald Trump ha firmato un ordine esecutivo che impone l’insegnamento obbligatorio dell’AI in tutte le scuole primarie e secondarie.

Benvenuti nell’era dell’esperienza: come l’intelligenza artificiale sta finalmente crescendo senza genitori

Se hai sempre pensato che l’intelligenza artificiale di oggi assomigliasse a un ragazzino viziato che impara solo ripetendo a pappagallo quello che sente dagli umani, allora David Silver e Rich Sutton sono qui per dirti che il tempo delle coccole è finito. Il loro saggio “Welcome to the Era of Experience” suona come il manifesto di una rivoluzione: l’era dei dati umani è arrivata al capolinea e il futuro appartiene agli agenti che imparano da soli, esperendo il mondo come se fossero piccoli esploratori ribelli.

Finora l’AI ha camminato tenuta per mano. Supervised learning, fine-tuning con dati umani, reinforcement learning da feedback umano: tutto questo ha costruito sistemi brillanti ma fondamentalmente dipendenti. Non appena l’ambiente cambia, questi modelli mostrano la fragilità tipica di chi ha solo imparato a memoria senza mai capire davvero il gioco.

Viviamo nell’epoca degli ossimori: quando tutto è possibile ma niente è reale

Viviamo immersi in un teatro dell’assurdo iperconnesso, dove ogni progresso promette liberazione e invece ci stringe in nuove catene invisibili. È il secolo in cui ogni risorsa abbonda ma ogni speranza si sgretola, dove l’efficienza si misura in millisecondi e la fragilità si manifesta in interi sistemi sociali, ambientali e umani che crollano sotto il peso delle loro stesse ambizioni.

Mai come oggi abbiamo eliminato così tanta frizione a livello individuale. Clicchi, scorri, parli, e tutto ti arriva — cibo, intrattenimento, compagnia sintetica eppure, a livello sistemico, tutto è diventato più complesso, più burocratico, più instabile. Un paradosso ben confezionato nella user experience, che ti fa sentire il re del tuo mondo personale, mentre il mondo stesso brucia tra disuguaglianze crescenti e infrastrutture obsolete.

A Replica for Our Democracies? Se la democrazia va in laboratorio, il gemello digitale di Floridi e l’algoritmo che voleva governare il mondo

Luciano Floridi colpisce ancora. Uno di quegli intellettuali che riesce a trasformare una cattedra in un laboratorio di alchimia digitale, dove filosofia, AI e ingegneria sociale si impastano in qualcosa che a metà tra l’etica e il project management distopico. Il suo nuovo articolo, firmato con un dream team di cervelloni internazionali, non è solo un esercizio accademico: è una proposta molto concreta, molto seria, e vagamente inquietante. Un passo più vicino all’algoritmo che si credeva Rousseau.

Il titolo sembra innocuo, quasi educato: A Replica for Our Democracies? Ma dietro il punto interrogativo si nasconde la vera proposta: creare digital twins gemelli digitali delle comunità deliberative per simulare, testare, ottimizzare, correggere e magari anticipare le decisioni politiche prima che vengano prese nel mondo reale. Tipo: “Facciamo decidere prima agli avatar e vediamo come va”. Se funziona, poi magari lo facciamo davvero.

Come l’uso dell’AI sta influenzando il nostro pensiero critico, la memoria e la creatività: una riflessione sulla salute del cervello

L’intelligenza artificiale (AI) ha invaso ogni angolo della nostra vita quotidiana, promettendo di semplificare compiti complessi e migliorare l’efficienza in vari settori, dalla salute alla gestione aziendale. Tuttavia, mentre l’AI continua a riscrivere il nostro modo di lavorare e interagire con il mondo, emergono preoccupazioni riguardo ai suoi effetti sul nostro cervello e sulle nostre capacità cognitive. Alcuni studi recenti hanno iniziato a tracciare la linea sottile tra i benefici tangibili dell’AI e i costi invisibili che essa impone al nostro benessere mentale.

Uno degli aspetti più rilevanti riguarda l’effetto dell’AI sul pensiero critico. Uno studio condotto dalla Swiss Business School ha messo in evidenza come un uso eccessivo di AI possa indebolire le capacità di pensiero critico. I giovani, che tendono a fare più affidamento sull’AI, sono risultati avere punteggi più bassi nelle valutazioni di pensiero critico, mentre gli adulti più anziani, che si affidano meno alla tecnologia, hanno ottenuto risultati migliori. Questo fenomeno è stato confermato anche da una ricerca congiunta di Microsoft e Carnegie Mellon, che ha sottolineato come l’uso intensivo di AI aumenti l’efficienza ma diminuisca la capacità di analisi critica. Se ci abituiamo a delegare il nostro processo di pensiero a un algoritmo, rischiamo di diventare meno abili nel risolvere problemi da soli.

Donne, algoritmi e pane raffermo: la rivincita del cervello femminile nella Silicon Valley d’Oriente

Nel contesto di una società che celebra la tecnologia come nuovo oracolo, la figura della donna nelle discipline STEM continua a essere sottorappresentata, troppo spesso relegata a ruolo decorativo nei panel aziendali o strumentalizzata nelle campagne pubblicitarie dall’inconfondibile retrogusto di marketing rosa. Il problema non è solo quantitativo, ma profondamente culturale: la matematica, l’ingegneria, la scienza e la tecnologia sono ancora percepite come territori maschili per eccellenza, dove la presenza femminile viene vista come un’eccezione statisticamente tollerabile ma raramente valorizzata.

Eppure, in spazi di innovazione come l’Hong Kong Science and Technology Park, esiste una generazione di professioniste che non chiede inclusione, la impone. Figure come Florence Chan, Angela Wu, Wendy Lam, Gina Jiang e Megan Lam, Inhwa Yeom incarnano un nuovo paradigma: quello della competenza femminile che non solo compete, ma supera. Il loro lavoro è sintesi tra eccellenza accademica e applicazione pratica, tra rigore scientifico e intuito strategico, in una costante tensione verso la risoluzione di problemi complessi che spaziano dalla biomedicina alla neurotecnologia.

Quando l’intelligenza artificiale impara dalla spazzatura

L’AI non è né buona né cattiva, è semplicemente lo specchio di chi l’ha addestrata. E in ambito sviluppo software, questo significa che riflette l’incompetenza generalizzata dell’umanità moderna nel saper scrivere codice decente. Potremmo raccontarcela con toni più politically correct, ma la realtà resta brutale: la maggior parte del codice che gira online fa schifo. E siccome l’AI è un animale statistico, imparando da quella spazzatura, finirà inevitabilmente per riproporla. Benvenuti nell’età dell’automazione della mediocrità.

Quando parliamo di “bad code”, non ci riferiamo solo a codice che non compila. Quello è il male minore. Parliamo di codice che compila, gira, funziona, ma che è un disastro da leggere, estendere, manutenere o semplicemente capire. Codice privo di coerenza architetturale, senza test, pieno di hardcoded, di if annidati come le matrioske dell’orrore, di nomi di variabili che sembrano partoriti da uno scimmione bendato: foo, temp, x1, y2. E se credi che questi esempi siano caricature, fai un giro nei repository pubblici di GitHub. Vedrai orrori che farebbero piangere un compilatore.

Genesi: l’Intelligenza Artificiale secondo Kissinger, Schmidt e Mundie e la fine dell’innocenza tecnologica


Non è un saggio tecnico, né un pamphlet ideologico: Genesi è un avvertimento. È un Kissinger lucido, anziano e quasi profetico che guarda l’intelligenza artificiale non con la curiosità del boomer che prova ChatGPT, ma con la diffidenza dello stratega che ha capito che qualcosa, stavolta, è cambiato per davvero. Firmato insieme a Eric Schmidt, ex CEO di Google, e Craig Mundie, cervello di Microsoft, il libro è la cronaca di un’era che si chiude e di un’altra che inizia con una domanda scomoda: siamo davvero ancora noi a decidere?

L’inizio è una bomba epistemologica. Non stiamo parlando di uno strumento. L’IA non è più una leva che l’uomo usa per sollevarsi, ma una forza autonoma che ridefinisce ciò che intendiamo per verità, conoscenza, realtà. È un’entità che non sente, non teme, non si stanca. Una macchina senza morale, che diventa paradossalmente più efficiente proprio perché le manca quel freno invisibile che chiamiamo coscienza.

L’universo come start-up: la complessità cresce, anche senza KPI

L’universo. Quel posto affascinante e inospitale che da miliardi di anni si diverte a produrre galassie, stelle, frittate e imprenditori tech. Secondo una nuova teoria, potrebbe esserci un principio universale che spinge tutto, vivente o meno, a diventare sempre più complesso. Non per scelta, non per gusto estetico, ma perché è nella natura stessa della realtà. E no, non è una provocazione filosofica da bar: parliamo di fisica teorica, quella che solitamente vive sospesa tra il sublime e l’indimostrabile.

La provocazione è elegante: esiste una sorta di freccia del tempo della complessità, un’evoluzione non solo biologica, ma sistemica, strutturale, cosmica. Se i sistemi complessi tendono a diventare ancora più complessi col tempo, allora l’evoluzione della vita è solo una manifestazione locale e parziale di un principio molto più ampio. Non è darwinismo, è cosmologismo.

Rie Qudan Tokyo-to Dojo-to: Quando l’intelligenza scrive meglio dell’autore

Certe storie sembrano uscite da un racconto distopico, ma quando la realtà si traveste da narrativa, il paradosso non fa più ridere. Anzi, suona beffardo. L’ultima perla arriva dal Giappone, patria della tecnologia e della disciplina creativa, dove Rie Qudan, fresca vincitrice dell’ambitissimo Akatugawa Prize (premio letterario che in terra nipponica vale quanto un Nobel in miniatura), ha candidamente confessato che buona parte del suo romanzo premiato “Tokyo-to Dojo-to” è stato scritto a quattro mani con ChatGPT. Nessun ghostwriter umano, nessun tirocinante sottopagato: a farle compagnia nel viaggio creativo è stata l’intelligenza artificiale generativa.

L’intelligenza che sfida l’America: la leggenda silenziosa di Liang Wenfeng e la rivincita di Mililing

Nel cuore dimenticato della provincia del Guangdong, c’è un villaggio che fino a pochi mesi fa non esisteva nemmeno su Google Maps.Si chiama Mililing, 700 persone, un nome che suona come una ninna nanna contadina, ma che oggi è diventato un pellegrinaggio tech grazie a un uomo che non vuole farsi fotografare: Liang Wenfeng, 40 anni, mente dietro DeepSeek, la startup cinese che ha scompigliato le carte dell’intelligenza artificiale mondiale.

Pagina 2 di 14

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie