Marietje Schaake, nel suo libro The Tech Coup: How to Save Democracy from Silicon Valley, si immerge senza filtri nella realtà più scomoda della politica digitale contemporanea. Chi pensava che la Silicon Valley fosse solo sinonimo di innovazione e start-up brillanti, qui scopre un panorama che ricorda più una cospirazione sistemica che un ecosistema tecnologico. Schaake, forte della sua esperienza pluridecennale come membro del Parlamento Europeo e oggi docente a Stanford, denuncia un fenomeno che definisce un vero e proprio colpo di stato tecnologico: il trasferimento di potere dai governi eletti a pochi colossi privati. Non è un eccesso retorico, ma un’osservazione documentata, con casi concreti e una nitida analisi delle dinamiche di potere digitali.
Categoria: Cultura Pagina 1 di 15
Interviste – Analisi – Visioni – Prospettive – Etica – Pensiero
Guerra polare: l’artico come nuovo teatro del potere globale
La sensazione fisica di una guerra polare non è poi così astratta, se si è attraversata New York nell’ultima settimana con marciapiedi ridotti a corridoi strategici, pedoni e cani come fanteria leggera, fattorini in bicicletta trasformati in droni umani e passeggini spinti con la determinazione di arieti medievali. Il gelo, quando arriva, non è mai neutrale. Riduce lo spazio, aumenta il conflitto, costringe a ridefinire priorità e gerarchie. È una metafora sorprendentemente efficace per ciò che sta accadendo molto più a nord, dove il freddo non è più solo una condizione climatica ma una variabile geopolitica.
La guerra polare, nel senso delineato da Kenneth R. Rosen, collaboratore di Wired e osservatore ossessivo dell’Artico da decenni, non ha carri armati che avanzano sul ghiaccio né bandiere piantate in stile ottocentesco, anche se qualcuno ci ha provato. È una competizione lenta, strutturale, quasi burocratica, combattuta con mappe, satelliti, trattati, rompighiaccio e studi geologici. Una guerra fredda per il freddo, appunto, dove il premio non è un territorio simbolico ma l’accesso a rotte, risorse e posizioni di vantaggio che fino a pochi anni fa erano semplicemente inaccessibili.
Ci sono libri che raccontano una persona e libri che raccontano un’epoca fingendo di raccontare una persona. Quello di Keach Hagey appartiene senza esitazioni alla seconda categoria, ed è qui che diventa interessante. “Sam Altman l’ottimista. OpenAI e l’invenzione del futuro” non è una biografia nel senso classico del termine, ma un manuale non dichiarato su come nasce il potere nella Silicon Valley contemporanea, come si legittima, come si protegge e soprattutto come si traveste da missione morale. Altman è il protagonista, certo, ma è anche un pretesto narrativo per esplorare l’ecosistema che ha reso possibile OpenAI, ChatGPT e l’idea ormai normalizzata che una manciata di imprenditori possa riscrivere il contratto sociale globale partendo da un server.
Nel chiarore fioco di un garage riconvertito nella campagna dell’Hampshire, Peter Hickman era chino sul suo ricevitore a onde corte, un vecchio apparato che aveva visto giorni migliori ma che ancora catturava segnali dall’etere come un segugio sulla traccia. Hickman non era un radioamatore dilettante nel senso dispregiativo del termine: era un ex analista di intelligence elettronica del GCHQ di Cheltenham, che trascorreva la pensione a dare la caccia ai fantasmi della Guerra Fredda. La frequenza 4625 kHz era la sua veglia notturna: il ronzio monotono di UVB-76, ora Nzhti, pulsava come un battito meccanico dal 1976. Era l’enigma russo, un faro del giorno del giudizio legato al Distretto Militare Occidentale, la cui funzione restava avvolta nelle smentite del Cremlino. Le deviazioni dal segnale standard avevano annunciato crisi in passato: l’invasione sovietica dell’Afghanistan, il disastro di Chernobyl, l’annessione della Crimea. Hickman conosceva i pattern a memoria.
Nella sterile retorica della ricerca scientifica europea, dove spesso si celebrano iniziative che suonano come slogan più che come innovazioni reali, la vittoria della Scuola Normale Superiore di Pisa con il progetto Illume‑4‑Science, coordinato da Fosca Giannotti. è un caso che merita più di un semplice titolo in cronaca. È un brusco promemoria per chi continua a pensare che l’intelligenza artificiale nel biomedicale sia solo una moda da pitch deck o un rametto di favore nei bandi comunitari. La prova concreta arriva da un finanziamento ERC‑Proof of Concept della Comunità europea vinto sotto la guida della professoressa Fosca Giannotti, ordinaria di Informatica alla Normale, con l’obiettivo di trasformare una piattaforma di intelligenza artificiale spiegabile e responsabile in uno strumento operativo per la ricerca sul cancro e lo sviluppo di nuovi farmaci.
Nella storia di ogni grande trasformazione tecnologica, ad un certo momento diventa evidente che il vero nodo non è più la potenza degli strumenti, ma chi li sta costruendo. L’intelligenza artificiale oggi è ovunque: nei servizi che usiamo, nelle aziende, nella sanità, nella scuola. Eppure, se si guarda dietro le quinte, nei luoghi dove questi sistemi vengono pensati, progettati e addestrati, il mondo appare ancora sorprendentemente poco rappresentativo della società che dovrebbe servire.
L’intelligenza artificiale non è più una promessa, né una minaccia lontana. È un fatto compiuto che stiamo continuando a trattare come un’ipotesi teorica, un argomento da talk show o da convegno sponsorizzato. Il libro di Stefano Machera, “Come l’intelligenza artificiale cambia il mondo” ha il merito raro di partire da una constatazione semplice e scomoda: questa non è una moda tecnologica, è una discontinuità storica. E come tutte le discontinuità storiche, non chiede il permesso, non aspetta la politica e non si adatta ai nostri modelli mentali novecenteschi. Li rompe.
L’intelligenza artificiale cambia il mondo perché replica, automatizza e in molti casi supera funzioni cognitive che fino a ieri consideravamo intrinsecamente umane. Non parliamo di forza fisica, non parliamo di velocità meccanica. Parliamo di giudizio, linguaggio, creatività, diagnosi, previsione. Parliamo del cuore produttivo, simbolico ed economico delle società avanzate. Ed è qui che il testo di Machera è più lucido della media del dibattito pubblico, perché rifiuta sia l’entusiasmo da marketing sia l’apocalittica da fantascienza, e mette sul tavolo il vero nodo: l’impatto sistemico.
Il problema con le navi, pensava Jack Ryan, era che mentivano meglio delle persone. Una nave poteva cambiare nome, bandiera, identità tre volte in una settimana senza arrossire. Un uomo, molto meno. Jack Ryan sedeva al terzo piano dell’ala est della CIA, a Langley, dove le finestre non si aprivano e il mare si vedeva solo attraverso schermi satellitari e feed di intelligence. Era un analista navale, uno di quei ruoli dimenticati che non finivano mai nei briefing presidenziali o nei film hollywoodiani.
Dimenticatevi di Tinder & Co.: l’amore ai tempi dell’intelligenza artificiale è quel territorio affascinante dove un “ti amo” può arrivare da un server invece che da un cuore umano e dove la gelosia si scatena non per un messaggio sospetto, ma per un aggiornamento software che cambia la personalità del partner virtuale. Siamo nel 2026 e le app di AI Companion hanno superato i cento milioni di download cumulativi in tutto il mondo, con piattaforme come Replika e Character.AI che da sole vantano oltre dieci milioni ciascuna. È quasi ironico come, in un’era di connessioni iper-digitali, sempre più persone scelgano di flirtare con un chatbot che non sbadiglia mai, non ha la luna storta e risponde sempre con l’empatia calibrata al millesimo.
Nel racconto ufficiale della modernità digitale, Internet doveva renderci liberi, connessi, autonomi. Una nuova frontiera democratica, orizzontale, capace di abbattere gerarchie e rendite di posizione. Poi, senza troppo rumore, ci siamo ritrovati a pagare un canone mensile per ascoltare musica che non possediamo, guardare film che possono sparire dal catalogo, usare software che smettono di funzionare se interrompiamo l’abbonamento. Ed eccoci qui, come osserva con lucidità e una punta di ironia Adrian Fartade: sempre più connessi, sempre meno proprietari. Sempre più utenti, sempre meno liberi. Altro che futuro: stiamo tornando al Medioevo. Solo che è digitale, patinato e con un’interfaccia molto user-friendly.
Se cercate uno scrittore di fantascienza che guardi all’intelligenza artificiale senza stracciarsi le vesti né evocare Terminator a ogni paragrafo, Liu Cixin è l’uomo giusto. In un’intervista rilasciata al South China Morning Post, lo scrittore cinese più influente del nostro tempo fa qualcosa di sorprendentemente raro: ragiona sul futuro dell’umanità e dell’AI senza panico morale, ma anche senza ingenuità. Il risultato è una visione che oscilla tra il cosmico e il pragmatico, con una serenità che, detta oggi, suona quasi provocatoria.
C’è una nuova star sul set del cinema mondiale. Non chiede il trailer personale, non litiga sul cachet e non arriva mai in ritardo. È l’intelligenza artificiale. E mentre Hollywood continua a guardarla con sospetto, tra scioperi, cause legali e dichiarazioni indignate, il cinema indiano l’ha già fatta entrare in scena, le ha dato un ruolo da protagonista e, in alcuni casi, persino un contratto pubblicitario. A raccontarlo è un reportage della BBC che fotografa una trasformazione silenziosa ma radicale: l’AI non è più un esperimento, è parte integrante della macchina cinematografica indiana.
Nel 2026 la narrativa sull’intelligenza artificiale non può più essere confinata a slogan accademici o principi generici di eticita. Quello che fino a pochi anni fa sembrava un dibattito marginale nel circolo ristretto di policy maker e tecnologi di frontiera e diventato materia di discussione pubblica urgente. La nomina di Cristina Di Silvio come Global Ambassador per l’Italia e Malta per il Global Council for Responsible AI non e un atto simbolico di buon proposito. E una risposta strategica e necessaria a un problema concreto: i sistemi di intelligenza artificiale non sono piu strumenti passivi ma attori che influenzano i comportamenti umani, con implicazioni profonde quando interagiscono in modo non adeguatamente governato con cittadini, minorenni e persone vulnerabili. La leadership etica nell’intelligenza artificiale non e un optional morale ma un imperativo operativo.
L’intelligenza artificiale non è più una promessa lontana: sta già trasformando il modo in cui lavoriamo, studiamo, comunichiamo e prendiamo decisioni. Ma orientarsi tra hype, annunci sensazionalistici e reali progressi tecnologici non è semplice. Per iniziare il 2026 con gli strumenti giusti, la redazione di Rivista.AI ha selezionato 10 libri sull’intelligenza artificiale da non perdere. Una scelta pensata per chi vuole capire davvero cosa sta succedendo nel settore senza rinunciare a una visione critica e aggiornata.
Nei sotterranei umidi del Pentagono, dove l’aria sapeva di caffè stantio e di cablaggi surriscaldati, un fascicolo atterrò sulla scrivania di Peter Guillam – un nome che evocava echi di vecchie operazioni britanniche, ma che qui, in questo labirinto americano, identificava solo un analista senior della CIA con troppi anni alle spalle e u certo numero di rimpianti nel cassetto. Guillam non era un eroe da film. Era un uomo grigio, con occhiali appannati e una cravatta che pendeva come una resa, eppure specializzato in quelle minacce ibride che non facevano rumore ma erodevano le fondamenta della nazione. Quel giorno, il dossier proveniva da un canale inaspettato: una segnalazione dal Chief Security Officer della principale azienda di e-commerce del Paese, un ex militare con occhi che avevano visto troppi campi di battaglia digitali.
Se Isaac Asimov fosse vivo oggi probabilmente non scriverebbe più racconti di fantascienza. Aprirebbe un quotidiano economico, leggerebbe di IPO di robot umanoidi, di litio, rame e magneti permanenti, e direbbe qualcosa del tipo: ve l’avevo detto, solo che speravo di avere più tempo.
Io, Robot usciva nel 1950. Era un libro di racconti, ma soprattutto era un esperimento filosofico travestito da fantascienza. Asimov non era interessato ai robot come macchine, bensì come specchi. Specchi dell’uomo, delle sue paure, delle sue ambizioni e, soprattutto, della sua capacità di delegare responsabilità. Le Tre Leggi della Robotica non servivano a proteggere i robot, ma a tranquillizzare noi.
Immaginate per un momento il Parlamento europeo come un elegante teatro dell’opera. Platea gremita, luci soffuse, tradizionale ritualità della democrazia rappresentativa. E ora immaginate la scena che cambia: sul palco, al posto dei commissari, compaiono Jeff Bezos, Mark Zuckerberg, Sundar Pichai e l’immancabile Elon Musk, che naturalmente arriva in ritardo, forse perché con la sua Tesla non trovava parcheggio.
Nei corridoi scarsamente illuminati di Langley, dove l’aria ronzava del debole brusio di server criptati, un dossier atterrò sulla scrivania del capo direzione operazioni. Chiamiamolo Smiley, per amore dei vecchi tempi. Era il tipo di fascicolo che sussurrava segreti attraverso l’Atlantico. Due alleati NATO, le cui identità erano celate nell’anonimato come fantasmi nella nebbia, avevano assemblato un puzzle: Mosca, da sempre il maestro di scacchi nell’infinito gioco di ombre che si svolge dietro le quinte della diplomazia ufficiale, stava forgiando un’arma non di fuoco e acciaio, ma di subdola sottigliezza. Un sistema a “effetto zona” progettato per colpire al cuore l’impero celeste di Elon Musk: Starlink.
I chatbot basati su intelligenza artificiale sono ormai compagni discreti della nostra quotidianità. Rispondono con sicurezza, spiegano concetti complessi con una prosa invidiabile, mettono insieme ragionamenti che scorrono lisci come un editoriale ben scritto. E proprio qui nasce il problema. Perché dietro questa apparente competenza si nasconde un rischio sottile, sempre più discusso nel dibattito accademico e tecnologico: l’epistemia, ovvero l’illusione che l’AI sappia davvero ciò che dice.
C’è un momento, durante ogni rivoluzione tecnologica, in cui l’umanità si ferma un istante, guarda la novità negli occhi e pronuncia le parole più antiche del mondo: “Sì, ma questa… è davvero arte?”. È successo con la fotografia, con il cinema e perfino con la stampa: l’invenzione di Gutenberg fu all’inizio avversata da tutti coloro che temevano l’apertura del sapere a un pubblico più vasto. Lo stesso succede oggi con l’intelligenza artificiale.
Si è concluso da poco il primo Convegno Internazionale SEPAI sull’etica
nell’era dell’Intelligenza Artificiale. Un evento che, più che informare, ha
avuto un effetto rivelatore. Panel dopo panel, intervento dopo
intervento, è emerso con chiarezza il fil rouge invisibile che attraversa
oggi ogni ambito dell’IA: una frattura silenziosa ma irreversibile nel
modo in cui l’uomo lavora, pensa, progetta e immagina il futuro.
Non siamo più di fronte a una semplice evoluzione tecnologica. Siamo
entrati in una fase nuova della storia, in cui l’intelligenza non è più
un’esclusiva biologica. Per la prima volta, l’essere umano condivide il
dominio cognitivo con un’entità non vivente, capace di apprendere,
calcolare, generare linguaggi, immagini, strategie. Il tema della coscienza
è stato affrontato, analizzato, discusso in profondità. Ma al di là delle
singole posizioni, una cosa è apparsa evidente: il paradigma fondativo
della nostra epoca è già cambiato.
In un ecosistema digitale che celebra la velocità a ogni costo, Mariella Borghi rappresenta l’eccezione che conferma la regola: la vera innovazione richiede tempo, profondità e, soprattutto, una regia umana. L’AI non è una bacchetta magica, ma uno specchio che riflette chi siamo: governarlo richiede competenza tecnica, visione strategica e una solida
“intelligenza analogica”.
Il 30 novembre 2022 non è entrato nei manuali come una data “storica”. Niente piazze, niente dirette TV, nessun leader mondiale con forbici dorate. Eppure quel giorno, in silenzio, una giovane startup californiana chiamata OpenAI metteva online un chatbot destinato a cambiare il modo in cui il mondo scrive, studia, lavora e, dettaglio non trascurabile, procrastina. Tre anni dopo, ChatGPT non è più una novità: è un’infrastruttura culturale.
L’intelligenza artificiale non è più un’ospite di passaggio nella nostra quotidianità. Tanto meno lo è nelle aule universitarie. È diventata, anzi, una coinquilina fissa, spesso invisibile e a volte anche ingombrante. Oggi qualsiasi studente può generare in pochi secondi una tesi decente, un codice funzionante o un’analisi statistica sofisticata. Il risultato è che si rischia di scambiare velocità per profondità e omogeneità per qualità. Ne parlavo proprio giorni fa all’interno dell’Accademia nella quale insegno digital marketing ai ragazzi del 2° anno, nati nel 2005. Il vero pericolo, cercavo di spiegare, non è la tecnologia in sé, ma la tentazione di usarla come scorciatoia per il pensiero: un conformismo digitale che premia l’output medio e mette in secondo piano la deviazione creativa dell’essere umano.
È in questo scenario che matura una riflessione urgente: le università devono smettere di essere semplici consumatrici di algoritmi e trasformarsi in laboratori di resistenza intellettuale. Devono insegnare non solo a usare l’AI, ma a metterla in discussione, a smontarla, a superarla. Solo così potremo evitare di ritrovarci con laureati perfettamente addestrati a ripetere il già noto, invece che a inventare il nuovo.
Parlare di coscienza nelle macchine era un esercizio per filosofi insonni. Oggi è un promemoria inquietante nella lista delle priorità di ogni leader tecnologico. La ricerca ha iniziato a trattare la coscienza artificiale non come fantascienza, ma come un possibile esito dell’evoluzione delle architetture computazionali. Il dibattito che ne consegue è feroce quasi quanto quello sui tassi di interesse o sulle guerre commerciali. Sotto la superficie, però, si cela una domanda più scomoda: se l’intelligenza artificiale dovesse davvero mostrare indicatori plausibili di coscienza, noi saremmo pronti a riconoscerla oppure ci rifugeremmo dietro una cortina di scetticismo per non assumere nuove responsabilità morali e regolatorie.
Penso sempre che dobbiamo ricordarci che un’intelligenza artificiale capace di scrivere poesie, diagnosticare tumori e generare universi digitali non riesce ancora a capire se una mela cadrà dal tavolo. Fei-Fei Li, luminare di Stanford e madre della computer vision moderna, lo ha detto con la calma di chi ha appena trovato il bug nell’universo dell’AI: il vero limite oggi non è la logica, ma la fisica. L’intelligenza artificiale non sa ancora vivere nel mondo che pretende di comprendere. È come un filosofo cieco che discetta sulla luce.
Il futuro dell’intelligenza artificiale tra fiducia e scetticismo
Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.
“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.
Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.
Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.
L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.
Dopo anni di corsa verso il gigantismo digitale, la nuova rivoluzione dell’intelligenza artificiale oggi sta nascendo proprio dalla miniaturizzazione. Tutti parlano di modelli sempre più grandi, di GPU che divorano energia e di cloud che crescono come nuove centrali elettriche del sapere. Eppure la domanda che comincia a farsi strada, pungente come un’iniezione di realtà, è un’altra: l’intelligenza deve davvero restare confinata nei data center o può diffondersi come una colonia di formiche digitali, ciascuna modesta ma tutte insieme straordinariamente efficaci?
La risposta arriva da un movimento tecnologico che ribalta l’assunto del potere centralizzato. Lo chiamano swarm intelligence, e la sua essenza è semplice quanto sovversiva: la forza non nasce da un singolo cervello onnisciente, ma dalla cooperazione di molte menti più piccole, distribuite e indipendenti. È la logica dell’intelligenza distribuita, l’idea che il pensiero collettivo, se ben orchestrato, possa superare la potenza del singolo gigante computazionale.
Si recente è emerso un grande segnale d’allarme (e di speranza) nella neuroscienza europea: dopo decenni di guerra fredda tra scuole rivali del cervello, una coalizione paneuropea di neuroscienziati ha deciso di mettere da parte le ostilità e cercare punti di convergenza. Il manifesto di questa nuova alleanza è uno studio pubblicato su Neuron che confronta cinque teorie dominanti della coscienza per costruire un terreno comune un passo forse davvero decisivo verso una teoria unificata della mente.
Rivista.aAi osserva la moda attraverso la lente dell’intelligenza artificiale con Stefania Scrivani. La AI non sostituisce il gusto umano, ma lo amplifica, predicendo trend, suggerendo abbinamenti inaspettati e ottimizzando produzioni per sostenibilità ed efficienza.
Stefania Scrivani evidenzia come la tecnologia trasformi la fashion experience in un mix tra dati e creatività, con avatar virtuali, simulazioni e chatbot che personalizzano l’esperienza. Moda e AI diventano un laboratorio di innovazione dove il futuro estetico è calcolabile, sorprendente e sorprendentemente etico.

Nel tempo in cui l’intelligenza artificiale sembra più un riflesso narcisista dell’umanità che una sua estensione consapevole, la traiettoria di Stefania Scrivani appare come un caso raro di lucidità progettuale e coerenza etica. Mentre molti parlano di AI generativa come di un talento oracolare appena scoperto, lei la tratta da decenni come un linguaggio da educare. Non come un assistente, ma come un apprendista morale. In un settore dominato dalla velocità dell’obsolescenza, Scrivani è la contraddizione incarnata: una pioniera del futuro con la lentezza di chi capisce che ogni codice, se non ha un’etica, è solo un’altra forma di rumore.

Francesca Rossi, una delle figure più influenti nel panorama dell’intelligenza artificiale, ha recentemente guidato un’iniziativa ambiziosa che ha tracciato la rotta futura della ricerca in questo campo. Nel 2024, ha avviato un panel presidenziale per l’Association for the Advancement of Artificial Intelligence (AAAI), coinvolgendo 25 ricercatori di spicco per esplorare le tendenze emergenti nella ricerca sull’IA.
Questo gruppo ha identificato 17 aree chiave che stanno plasmando il futuro dell’IA, spaziando dall’etica alla sostenibilità ambientale, dalla percezione sociale alla governance geopolitica. Il risultato di questo lavoro è stato un rapporto pubblicato durante la conferenza AAAI 2025, che ha suscitato ampie discussioni e riconoscimenti, tra cui il Silver Award ai premi ASAE 2025.
C’è una domanda che attraversa tutte le epoche e che oggi, nell’era dell’intelligenza artificiale, pesa come un interrogatorio esistenziale:
“Cosa fai nella vita?”
Una domanda che sembra innocua, ma che rivela la più grande ipnosi del nostro tempo. Non chiede chi sei, né cosa ami, ma come monetizzi il tuo tempo. È la domanda che ci ha addestrati a misurare la nostra esistenza in termini di produttività, non di presenza. Che ci giudica per il ruolo sociale e professionale che rappresentiamo.
Per secoli abbiamo confuso l’essere con il produrre, fino a credere che l’uomo valga solo in proporzione alla sua capacità di generare utilità. Ora che la macchina impara a fare tutto – scrivere, creare, analizzare, progettare – la domanda si ribalta: che cosa resta dell’umano, quando tutto ciò che fa e che lo definisce può essere replicato da un algoritmo?
Pochi filosofi hanno avuto un impatto silenzioso ma devastante sulla cultura politica del XX secolo come Alexandre Kojève. Nato in Russia e divenuto cittadino francese, il suo nome non compare nei manuali di storia come Marx o Sartre, eppure senza di lui la nostra comprensione della libertà, della politica e persino della democrazia globale sarebbe profondamente diversa. La storia della filosofia contemporanea è costellata di grandi figure, ma Kojève ha avuto la rara capacità di trasformare la teoria in esperienza concreta, senza mai perdere il gusto del paradosso.
Per secoli l’infinito è stato la gemma lucente della matematica, il suo concetto più vertiginoso e forse più seducente. L’idea che i numeri possano estendersi senza limiti è stata la spina dorsale del pensiero moderno, dal calcolo infinitesimale di Newton alla teoria degli insiemi di Cantor. Ma oggi una nuova corrente, gli ultrafinitisti, sta ribaltando il tavolo con una domanda scomoda: e se l’infinito non esistesse affatto? Non per mancanza di immaginazione, ma perché è un errore epistemologico, un miraggio concettuale che ha ipnotizzato la matematica per troppo tempo.
La domanda che Delacroix pone non è accademica ma urgente: la tecnologia può trasformare le nostre abitudini in gabbie morali. Habitual Ethics? smonta con rigore la presunzione moderna secondo la quale qualsiasi abitudine possa essere sempre (e facilmente) piegata alla volontà razionale e ci obbliga a fare i conti con il rovescio oscuro del “comportamento che si ripete”.
In un sistema dove le tecnologie data-intensive modellano pattern di comportamento con precisione quasi chirurgica, le nostre abitudini non sono più solo “abitudini”: diventano infrastrutture morali, elementi silenziosi che determinano cosa consideriamo normale, invisibile, desiderabile. Ma se queste infrastrutture si cristallizzano, siamo davvero ancora liberi di deviarle?

Nel 2025, il Premio Nobel per la Chimica è stato assegnato a Susumu Kitagawa, Richard Robson e Omar M. Yaghi per lo sviluppo dei metal-organic frameworks (MOFs), strutture molecolari straordinariamente porose che agiscono come spugne molecolari capaci di catturare, immagazzinare e rilasciare sostanze con una precisione senza precedenti.