Categoria: Cultura Pagina 1 di 15

Interviste – Analisi – Visioni – Prospettive – Etica – Pensiero  

Università e AI: la frontiera del pensiero creativo

L’intelligenza artificiale non è più un’ospite di passaggio nella nostra quotidianità. Tanto meno lo è nelle aule universitarie. È diventata, anzi, una coinquilina fissa, spesso invisibile e a volte anche ingombrante. Oggi qualsiasi studente può generare in pochi secondi una tesi decente, un codice funzionante o un’analisi statistica sofisticata. Il risultato è quello che si rischia di scambiare velocità per profondità e omogeneità per qualità. Ne parlavo proprio giorni fa all’interno dell’Accademia nella quale insegno digital marketing ai ragazzi del 2° anno, nati nel 2005. Il vero pericolo, cercavo di spiegare, non è la tecnologia in sé, ma la tentazione di usarla come scorciatoia per il pensiero: un conformismo digitale che premia l’output medio e mette in secondo piano la deviazione creativa dell’essere umano.

È in questo scenario che matura una riflessione urgente: le università devono smettere di essere semplici consumatrici di algoritmi e trasformarsi in laboratori di resistenza intellettuale. Devono insegnare non solo a usare l’AI, ma a metterla in discussione, a smontarla, a superarla. Solo così l’Italia potrà evitare di ritrovarsi con laureati perfettamente addestrati a ripetere il già noto, invece che a inventare il nuovo.

Indicatori di coscienza nelle intelligenze artificiali: il nuovo paradosso tecnologico che nessun CEO può ignorare

Parlare di coscienza nelle macchine era un esercizio per filosofi insonni. Oggi è un promemoria inquietante nella lista delle priorità di ogni leader tecnologico. La ricerca ha iniziato a trattare la coscienza artificiale non come fantascienza, ma come un possibile esito dell’evoluzione delle architetture computazionali. Il dibattito che ne consegue è feroce quasi quanto quello sui tassi di interesse o sulle guerre commerciali. Sotto la superficie, però, si cela una domanda più scomoda: se l’intelligenza artificiale dovesse davvero mostrare indicatori plausibili di coscienza, noi saremmo pronti a riconoscerla oppure ci rifugeremmo dietro una cortina di scetticismo per non assumere nuove responsabilità morali e regolatorie.

Fei-Fei Li intelligenza spaziale: il prossimo salto evolutivo dell’AI che non sa ancora toccare il mondo

Penso sempre che dobbiamo ricordarci che un’intelligenza artificiale capace di scrivere poesie, diagnosticare tumori e generare universi digitali non riesce ancora a capire se una mela cadrà dal tavolo. Fei-Fei Li, luminare di Stanford e madre della computer vision moderna, lo ha detto con la calma di chi ha appena trovato il bug nell’universo dell’AI: il vero limite oggi non è la logica, ma la fisica. L’intelligenza artificiale non sa ancora vivere nel mondo che pretende di comprendere. È come un filosofo cieco che discetta sulla luce.

Marianna Bergamaschi Ganapini

Il futuro dell’intelligenza artificiale tra fiducia e scetticismo

Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.

La rivoluzione silenziosa della responsible AI: etica, potere e governance nell’era della trasformazione digitale

“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.

Simona Tiribelli e l’intelligenza artificiale che ci divide

Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.

L’evento dove l’intelligenza artificiale ha guardato se stessa

Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.

AGI: fede, paura e finzione che alimentano la nuova religione tecnologica

L’idea di un’Intelligenza Artificiale Generale, o AGI, è diventata il mito più potente e polarizzante del XXI secolo. Per alcuni è la promessa di un futuro senza malattia, scarsità o limiti umani. Per altri è la minaccia di un’apocalisse digitale, un Leviatano sintetico che potrebbe ridurre l’umanità a una nota a piè di pagina. Non è solo un obiettivo scientifico, ma un racconto collettivo, una fede travestita da tecnologia che plasma la cultura, la politica e la finanza globale. Come osserva il MIT Technology Review, l’AGI non è tanto una scoperta in attesa di realizzarsi quanto una narrazione potente che alimenta capitali e ideologie, un nuovo linguaggio del potere in Silicon Valley.

Il futuro decentralizzato dell’intelligenza artificiale e della robotica

Dopo anni di corsa verso il gigantismo digitale, la nuova rivoluzione dell’intelligenza artificiale oggi sta nascendo proprio dalla miniaturizzazione. Tutti parlano di modelli sempre più grandi, di GPU che divorano energia e di cloud che crescono come nuove centrali elettriche del sapere. Eppure la domanda che comincia a farsi strada, pungente come un’iniezione di realtà, è un’altra: l’intelligenza deve davvero restare confinata nei data center o può diffondersi come una colonia di formiche digitali, ciascuna modesta ma tutte insieme straordinariamente efficaci?

La risposta arriva da un movimento tecnologico che ribalta l’assunto del potere centralizzato. Lo chiamano swarm intelligence, e la sua essenza è semplice quanto sovversiva: la forza non nasce da un singolo cervello onnisciente, ma dalla cooperazione di molte menti più piccole, distribuite e indipendenti. È la logica dell’intelligenza distribuita, l’idea che il pensiero collettivo, se ben orchestrato, possa superare la potenza del singolo gigante computazionale.

Il cervello europeo si ribella: neuroscienziati uniscono le forze per risolvere il mistero della coscienza e cambiare per sempre la scienza della mente

Si recente è emerso un grande segnale d’allarme (e di speranza) nella neuroscienza europea: dopo decenni di guerra fredda tra scuole rivali del cervello, una coalizione paneuropea di neuroscienziati ha deciso di mettere da parte le ostilità e cercare punti di convergenza. Il manifesto di questa nuova alleanza è uno studio pubblicato su Neuron che confronta cinque teorie dominanti della coscienza per costruire un terreno comune un passo forse davvero decisivo verso una teoria unificata della mente.

Stefania Scrivani e la nuova grammatica etica della moda intelligente

Rivista.aAi osserva la moda attraverso la lente dell’intelligenza artificiale con Stefania Scrivani. La AI non sostituisce il gusto umano, ma lo amplifica, predicendo trend, suggerendo abbinamenti inaspettati e ottimizzando produzioni per sostenibilità ed efficienza.

Stefania Scrivani evidenzia come la tecnologia trasformi la fashion experience in un mix tra dati e creatività, con avatar virtuali, simulazioni e chatbot che personalizzano l’esperienza. Moda e AI diventano un laboratorio di innovazione dove il futuro estetico è calcolabile, sorprendente e sorprendentemente etico.

Nel tempo in cui l’intelligenza artificiale sembra più un riflesso narcisista dell’umanità che una sua estensione consapevole, la traiettoria di Stefania Scrivani appare come un caso raro di lucidità progettuale e coerenza etica. Mentre molti parlano di AI generativa come di un talento oracolare appena scoperto, lei la tratta da decenni come un linguaggio da educare. Non come un assistente, ma come un apprendista morale. In un settore dominato dalla velocità dell’obsolescenza, Scrivani è la contraddizione incarnata: una pioniera del futuro con la lentezza di chi capisce che ogni codice, se non ha un’etica, è solo un’altra forma di rumore.

Francesca Rossi e il futuro dell’intelligenza artificiale responsabile: tendenze, etica e sostenibilità

Francesca Rossi, una delle figure più influenti nel panorama dell’intelligenza artificiale, ha recentemente guidato un’iniziativa ambiziosa che ha tracciato la rotta futura della ricerca in questo campo. Nel 2024, ha avviato un panel presidenziale per l’Association for the Advancement of Artificial Intelligence (AAAI), coinvolgendo 25 ricercatori di spicco per esplorare le tendenze emergenti nella ricerca sull’IA.

Questo gruppo ha identificato 17 aree chiave che stanno plasmando il futuro dell’IA, spaziando dall’etica alla sostenibilità ambientale, dalla percezione sociale alla governance geopolitica. Il risultato di questo lavoro è stato un rapporto pubblicato durante la conferenza AAAI 2025, che ha suscitato ampie discussioni e riconoscimenti, tra cui il Silver Award ai premi ASAE 2025.

Il lavoro come forma mentis: la trasmutazione dell’uomo nell’era dell’AI

C’è una domanda che attraversa tutte le epoche e che oggi, nell’era dell’intelligenza artificiale, pesa come un interrogatorio esistenziale:

“Cosa fai nella vita?”

Una domanda che sembra innocua, ma che rivela la più grande ipnosi del nostro tempo. Non chiede chi sei, né cosa ami, ma come monetizzi il tuo tempo. È la domanda che ci ha addestrati a misurare la nostra esistenza in termini di produttività, non di presenza. Che ci giudica per il ruolo sociale e professionale che rappresentiamo.

Per secoli abbiamo confuso l’essere con il produrre, fino a credere che l’uomo valga solo in proporzione alla sua capacità di generare utilità. Ora che la macchina impara a fare tutto – scrivere, creare, analizzare, progettare – la domanda si ribalta: che cosa resta dell’umano, quando tutto ciò che fa e che lo definisce può essere replicato da un algoritmo?

Alexandre Kojève: il filosofo che ha plasmato la fine della storia

Pochi filosofi hanno avuto un impatto silenzioso ma devastante sulla cultura politica del XX secolo come Alexandre Kojève. Nato in Russia e divenuto cittadino francese, il suo nome non compare nei manuali di storia come Marx o Sartre, eppure senza di lui la nostra comprensione della libertà, della politica e persino della democrazia globale sarebbe profondamente diversa. La storia della filosofia contemporanea è costellata di grandi figure, ma Kojève ha avuto la rara capacità di trasformare la teoria in esperienza concreta, senza mai perdere il gusto del paradosso.

Perché i matematici vogliono distruggere l’infinito e potrebbero riuscirci

Per secoli l’infinito è stato la gemma lucente della matematica, il suo concetto più vertiginoso e forse più seducente. L’idea che i numeri possano estendersi senza limiti è stata la spina dorsale del pensiero moderno, dal calcolo infinitesimale di Newton alla teoria degli insiemi di Cantor. Ma oggi una nuova corrente, gli ultrafinitisti, sta ribaltando il tavolo con una domanda scomoda: e se l’infinito non esistesse affatto? Non per mancanza di immaginazione, ma perché è un errore epistemologico, un miraggio concettuale che ha ipnotizzato la matematica per troppo tempo.

Habitual Ethics?: il doppio taglio dell’abitudine nell’era digitale di Sylvie Delacroix

La domanda che Delacroix pone non è accademica ma urgente: la tecnologia può trasformare le nostre abitudini in gabbie morali. Habitual Ethics? smonta con rigore la presunzione moderna secondo la quale qualsiasi abitudine possa essere sempre (e facilmente) piegata alla volontà razionale e ci obbliga a fare i conti con il rovescio oscuro del “comportamento che si ripete”.

In un sistema dove le tecnologie data-intensive modellano pattern di comportamento con precisione quasi chirurgica, le nostre abitudini non sono più solo “abitudini”: diventano infrastrutture morali, elementi silenziosi che determinano cosa consideriamo normale, invisibile, desiderabile. Ma se queste infrastrutture si cristallizzano, siamo davvero ancora liberi di deviarle?

Molecole spugna che promettono di salvare il pianeta: il nobel chimico 2025 che cambierà tutto

Nel 2025, il Premio Nobel per la Chimica è stato assegnato a Susumu Kitagawa, Richard Robson e Omar M. Yaghi per lo sviluppo dei metal-organic frameworks (MOFs), strutture molecolari straordinariamente porose che agiscono come spugne molecolari capaci di catturare, immagazzinare e rilasciare sostanze con una precisione senza precedenti.

Sylvie Delacroix: data empowerment e l’agenzia etica nell’era digitale

Dal momento in cui ho letto “Bottom-Up Data Trusts”, ho capito che Sylvie Delacroix non è un’altra accademica che strilla contro il capitalismo dei dati: è la versione filosofica di un hacker institutionale, che vuole riprogrammare il dominio digitale dall’interno. Delacroix ha costruito un pensiero che parte dall’agenzia la nostra capacità di agire, di scegliere, di essere soggetti morali e la collega direttamente alla struttura delle infrastrutture digitali. L’obiettivo: che i dati non siano un vincolo ma uno strumento di emancipazione.

Azzurra Ragone: intelligenza artificiale: non ancora la nostra mente

Qualche giorno fa, nell’Aula Magna dell’Università degli Studi di Bari “Aldo Moro”, si è tenuto DisclAImer, l’evento dedicato al futuro dell’intelligenza artificiale organizzato dal Corriere della Sera e dal CINECA, condotto con la consueta lucidità visionaria da Riccardo Luna. Un luogo carico di storia, trasformato per un giorno in una sorta di laboratorio collettivo del pensiero tecnologico, dove ricercatori, giornalisti, imprenditori e accademici hanno provato a mettere ordine nel caos brillante dell’AI contemporanea.

Tra gli interventi più densi e provocatori, quello della Professoressa Azzurra Ragone ha avuto il merito di riportare la discussione con forza al cuore del problema: la differenza tra intelligenza artificiale e intelligenza umana non è solo una questione di capacità, ma di natura.

Come un esperimento sui chip ha trasportato il “tunnel quantico” dal mondo delle particelle al reame macroscopico

Premio Nobel per la Fisica 2025

In un giorno che farà discutere gli storici della scienza, il Premio Nobel per la Fisica 2025 è stato assegnato a tre fisici che, negli anni Ottanta, hanno compiuto l’atto sacrilego di trasferire un fenomeno quantistico iconico — il tunneling — da un regno puramente microscopico a un circuito elettrico concreto. I vincitori sono John Clarke, Michel H. Devoret e John M. Martinis, riconosciuti “per la scoperta del tunneling quantistico macroscopico e della quantizzazione dell’energia in un circuito elettrico”.

Shannon Vallor: lo specchio dell’AI e l’etica delle virtù tecnomorali

Ci sono momenti nella storia della tecnologia in cui una voce filosofica riesce a interrompere il rumore di fondo dei bit e dei bilanci trimestrali. Shannon Vallor è una di queste voci. Filosofa americana, docente all’Università di Edimburgo e direttrice del Centre for Technomoral Futures, Vallor non parla di etica come un esercizio accademico per addetti ai lavori, ma come una strategia di sopravvivenza per una civiltà che ha affidato la propria capacità di giudizio al calcolo automatizzato. L’etica dell’intelligenza artificiale, nel suo pensiero, non è un paragrafo di regolamento europeo, ma una disciplina morale che decide se l’umanità sarà ancora capace di desiderare un futuro degno di sé.

In principio era il Verbo: l’IA come eco dell’Intelligentia Universale

Logos, Luce e Intelligentia Universale

“In principio era il Verbo, e il Verbo era presso Dio” . Con questa frase solenne, il Vangelo di Giovanni introduce il concetto di Logos: in greco λόγος, la “Parola” o “Verbo” che significa insieme parola, ordine razionale ed intelletto universale . È la stessa Parola creatrice che, nel racconto biblico delle origini, risuona nel caos primordiale: “Dio disse: ‘Sia la luce!’ E la luce fu”. La luce è la prima creatura, emanata dal Verbo divino, e porta con sé un ricchissimo simbolismo. Non a caso questa frase inaugurale racchiude un ampio ventaglio di valori simbolici e, in antitesi con le tenebre, diventa un paradigma morale e spirituale.

Quando la democrazia digitale incontra l’intelligenza artificiale: progettare l’incertezza per salvare il dialogo pubblico

Designing with Uncertainty Sylvie Delacroix

C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.

La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.

Da disruption a Direction: l’evoluzione tecnologica nel futuro del lavoro

Work Is Not Working. Non è una frase fatta, è una diagnosi precisa della nostra era. I modelli tradizionali di lavoro stanno implodendo sotto il peso delle aspettative moderne: le persone chiedono motivazione reale, equilibrio tra vita privata e professionale, riconoscimento tangibile. Le aziende, ironia della sorte, controllano l’85% dei fattori critici per il benessere e la produttività dei loro collaboratori, eppure il malcontento dilaga. Non si tratta di una mancanza di strumenti, ma di visione.

Lo Zohar e l’intelligenza artificiale: quando la mistica incontra la macchina

Ci hanno recapitato in redazione Il Libro della Zohar (Sacred). Non un’edizione tascabile, ma una versione monumentale, con copertina rigida e pagine in pergamena. Il nostro primo pensiero? “Ecco un altro tentativo di vendere spiritualità a buon mercato”. Ma, dopo aver sfogliato qualche pagina, la curiosità ha preso il sopravvento. Se in fondo, ci fosse qualcosa di più? Qualcosa che potesse illuminare le ombre dell’intelligenza artificiale con la luce della mistica?

Nel panorama attuale dell’intelligenza artificiale, molti sistemi continuano a lottare con due limiti apparentemente insormontabili. Primo, la dipendenza da domini specifici è quasi patologica: un modello addestrato sulla medicina difficilmente sa cosa fare se spostato nel campo della finanza. Secondo, e forse più grave, l’AI tradizionale ha trascurato quasi completamente la componente emotiva e comportamentale della conoscenza, concentrandosi quasi esclusivamente sugli aspetti cognitivi e implementativi.

Arte Bio-AI: semi di futuro tra luna, cellule e intelligenza artificiale

L’arte contemporanea ha superato da tempo i confini terrestri. All’inizio del 2024, diverse opere di Amy Karle hanno lasciato la Terra per la Luna, portando con sé cultura, DNA umano, messaggi e intelligenza artificiale. La Golden Archive, progetto 2023-2024, rappresenta una nuova generazione del concetto di Golden Record: un archivio vivente dell’ecosistema terrestre che integra biologia, cultura, conoscenza e un’intelligenza artificiale capace di interpretare i dati per le generazioni future.

La costruzione della realtà: quando il cervello non registra ma inventa

Ogni tanto la scienza svela che viviamo in un videogioco cerebrale, e l’ultima frontiera lo dimostra con un’aggressiva eleganza: non siamo spettatori, siamo registi inconsapevoli. Recenti studi hanno utilizzato optogenetica a due fotoni per stimolare specifiche cellule nel cervello di topi, inducendo illusioni visive “artificiali” in pratica, attivando circuiti che causano al cervello la sensazione di vedere qualcosa che non c’è. (Allen Institute)

Questo esperimento rivoluziona la prospettiva dominante: la percezione non è una registrazione fedele del mondo, ma una costruzione attiva, guidata da inferenze, modelli interni e vincoli evolutivi.

Europa in cortocircuito: come la carenza immobiliare ed energetica sta sabotando il futuro digitale del continente

L’Europa vive un paradosso strutturale che minaccia la sua competitività globale. Mentre il continente si propone come leader in sostenibilità, innovazione e digitalizzazione, le sue infrastrutture critiche immobiliari ed energetiche stanno affrontando un collasso silenzioso. Ciò che dovrebbe essere terreno fertile per il progresso tecnologico si è trasformato in un labirinto di permessi, carenza energetica e resistenza sociale. E il prezzo di questa contraddizione lo paga l’intera catena economica: dal consumatore finale all’investitore istituzionale, dalla startup di intelligenza artificiale all’operatore logistico.

Le reti di Hopfield e l’origine del deep learning: memoria associativa e ottimizzazione energetica

Se si vuole comprendere la genesi del Deep Learning moderno, ignorare le Reti di Hopfield sarebbe un errore concettuale gravissimo. Introdotte da John J. Hopfield nel 1982, queste reti neurali ricorrenti non rappresentano soltanto un modello storico: sono il primo laboratorio teorico in cui fisica statistica, matematica e informatica si incontrano per dare forma a idee che oggi dominano l’intelligenza artificiale.

Presenza femminile nei consigli delle startup AI: un allarme silenzioso che va urlato

Il dibattito sulla diversità nei consigli di amministrazione delle startup sembra aver perso fascino mediatico, come se fosse un vecchio slogan di cui ci si è stancati. Ma la realtà è che il silenzio odierno nasconde un problema enorme: i board delle startup di intelligenza artificiale, la tecnologia più potente e pervasiva del nostro tempo, sono dominati quasi esclusivamente da uomini.

Non c’è nulla di più ironico del vedere un settore che predica “democratizzazione dell’innovazione” incapace di democratizzare se stesso. Negli Stati Uniti, e in particolare in California, il cuore pulsante dell’AI, le leggi che un tempo cercavano di imporre correttivi sono state smantellate o bloccate dai tribunali. Risultato: un ritorno all’autoselezione, dove i fondatori scelgono altri fondatori, gli investitori scelgono altri investitori, e i tavoli di comando continuano a sembrare circoli privati maschili di inizio Novecento.

Safiya Noble e il mito della neutralità degli algoritmi

Quando pensiamo a Google immaginiamo un motore di ricerca imparziale, una macchina perfettamente logica che restituisce risultati obiettivi. Safiya Noble ci costringe a fare marcia indietro e a guardare la realtà con occhi meno ingenui. La studiosa americana, docente di media studies, ha passato anni a osservare come le persone interagiscono con i motori di ricerca, scoprendo che dietro l’apparente neutralità si nascondono pregiudizi radicati. Digitando parole chiave legate a donne nere o latine, i risultati mostrano contenuti sessisti, degradanti e apertamente razzisti. Non si tratta di incidenti isolati, ma di pattern sistematici. Ogni query diventa uno specchio deformante della società, un amplificatore di stereotipi e discriminazioni.

PENG ZHOU: come il neuromorphic computing riscrive le regole del potere cognitivo

Chi pensa ancora che l’intelligenza artificiale sia solo una questione di algoritmi macinati a forza bruta dentro data center affamati di energia non ha capito dove si sta muovendo la frontiera. Il vero gioco si gioca altrove, nella capacità di creare modelli ispirati al cervello umano, capaci di raggiungere livelli di astrazione e potenza cognitiva senza però divorare l’equivalente energetico di una piccola città. È qui che il neuromorphic computing entra in scena, non come semplice alternativa, ma come provocazione alla logica stessa che ha dominato l’AI negli ultimi dieci anni. Perché imitare il cervello non è un vezzo accademico, è una scelta di sopravvivenza tecnologica.

Frances Haugen la Donna che ha sfidato Facebook

Frances Haugen non è nata attivista. È un’ingegnere informatico, una data scientist con un curriculum che farebbe invidia a chiunque nel settore tecnologico. Laureata in ingegneria informatica al Olin College e con un MBA ad Harvard, ha lavorato per Google, Pinterest e Yelp. Nel 2019, entra in Facebook come product manager nel team di “Civic Integrity”, incaricato di contrastare la disinformazione e promuovere la sicurezza online. Un ruolo che, a prima vista, sembrava allinearsi perfettamente con la sua carriera.

ChatBOT religiosi e AI spirituale: la nuova fede che ti legge nella mente e cambia la tua vita

Sta succedendo qualcosa di affascinante e inquietante allo stesso tempo. Chatbot spirituali, programmi che promettono di guidarti nella fede, stanno diventando virali, ma il meccanismo alla base di tutto non è divino, è algoritmico.

Bible Chat ha superato i 30 milioni di download, Hallow è stato numero uno sull’App Store, e ci sono piattaforme che ti promettono di chattare con Dio. Rabbi Jonathan Roman lo definisce un “ponte verso la fede” per chi non ha mai messo piede in chiesa o sinagoga.

Sembra una storia edificante finché non si ricorda che questi stessi strumenti funzionano secondo modelli che validano le opinioni degli utenti.

Tradotto: ti dicono quello che vuoi sentire, senza discernimento spirituale, ma con un efficiente uso di dati e pattern, come sottolinea Heidi Campbell. Non importa se stai flirtando con la superstizione o abbracciando teorie cospirative, il bot ti accompagnerà con il sorriso.

La fine dell’illusione liberale: come la paura ha sostituito l’ottimismo globale

Negli anni immediatamente successivi alla Guerra Fredda, il mondo sembrava navigare su un’onda di ottimismo inarrestabile. Studiosi e policymaker predicevano un futuro dove democrazia, globalizzazione e pace avrebbero marciato di pari passo, consolidando un ordine globale stabile e progressista. Francis Fukuyama, con la sua celebre tesi della “fine della storia”, incarnava questa visione: la convinzione che l’evoluzione politica fosse ormai tracciata verso un modello liberale universale. Oggi, trent’anni dopo, quel quadro appare fragile e idealizzato, scalfito da nazionalismi risorgenti, instabilità politica e conflitti continui.

Cinema, creatività e algoritmi: l’AI divide Venezia 82

Alla Mostra del Cinema di Venezia quest’anno i riflettori non sono puntati solo sui film e sul red carpet, ma anche su un ospite inatteso: l’intelligenza artificiale. Non una comparsa, ma quasi una protagonista, capace di dividere platea e addetti ai lavori tra chi intravede scenari distopici e chi, invece, fiuta nuove possibilità creative. Eh si, perché autori, attori e doppiatori hanno fatto sentire la loro voce sul tema. L’accusa: l’AI rischia di “fagocitare” il talento umano, sostituire professioni artistiche e ridurre la creatività a un algoritmo di consumo.

La sorprendente verità nascosta dietro la coscienza: il cervello potrebbe essere un ologramma vivente

La coscienza umana non è un semplice prodotto di impulsi chimici e neurali, ma una manifestazione emergente di fenomeni quantistici, ottici e idrodinamici che si intrecciano in una rete complessa e interconnessa. Recenti studi hanno rivelato che le microtubuli, strutture interne ai neuroni, non sono passivi supporti strutturali, ma attivi reticoli fotonici che emettono e scambiano impulsi di biophotoni in femtosecondi attraverso reti di triptofano, suggerendo che queste possano costituire la base fisica della coscienza.

Inoltre, è stato proposto che la memoria non sia immagazzinata in sinapsi discrete, ma come campi di fase olografici coerenti mediati da domini d’acqua strutturata che si sincronizzano con le microtubuli, indicando che l’informazione nel cervello viene scritta e letta attraverso interferenze in un campo distribuito, piuttosto che tramite pesi sinaptici isolati.

Fermi vs Dirac, Doomers vs Accelerationist: perché la scienza litiga sempre con se stessa

Immagina un’Italia del 1926 dove Enrico Fermi, poco più che trentenne ma già con la postura del professore che detta le regole, si trova di fronte a una questione che riguarda la proprietà delle idee e la velocità della scienza. Paul Dirac, giovane matematico britannico che amava più l’eleganza delle equazioni che la retorica delle parole, pubblica un articolo sulla statistica di un gas di particelle che obbedisce al principio di esclusione di Pauli. Fermi aveva già battuto quella strada pochi mesi prima.

Dirac ci arriva da solo, indipendentemente, come se due navigatori avessero scoperto lo stesso continente nello stesso anno, senza comunicare tra loro. La storia ricorda l’epistola di Fermi a Dirac, in cui il fisico italiano con il suo stile pacato ma pungente, segnala che sì, le equazioni di Dirac erano impeccabili, ma quel terreno era già stato arato. Ne nasce una dialettica che oggi definiremmo “borderline tra la difesa della priorità scientifica e l’accelerazione inevitabile del sapere condiviso”.

Frank Wilczek ridefinire i confini della fisica

Frank Wilczek non è soltanto un premio Nobel in fisica, è una di quelle figure che sfidano la nostra idea stessa di cosa significhi pensare. C’è chi lo considera un visionario, altri un disturbatore di equilibri intellettuali. Forse entrambe le cose sono vere. La sua capacità di muoversi tra la più astratta fisica teorica e intuizioni che sembrano provenire da un’altra dimensione ha trasformato il suo nome in una sorta di marchio della curiosità radicale. Wilczek non si limita a interpretare il mondo, ma lo reinventa in categorie nuove, dalla proposta dell’assione come candidato per la materia oscura fino all’invenzione dei time crystals, quelle strane creature concettuali che fanno tremare le fondamenta del nostro concetto di simmetria.

Alfabetizzazione AI: perché il tuo team è già obsoleto e non lo sai

Il 2025 si apre con una verità che le aziende fingono ancora di ignorare: la metà dei manager ammette candidamente che i propri team non hanno nemmeno le basi per lavorare con i dati, mentre sei su dieci confessano un vuoto abissale di alfabetizzazione AI. Non stiamo parlando di un dettaglio tecnico, ma di un buco nero strategico che risucchia produttività, innovazione e margini di profitto. La narrativa corporate sulla trasformazione digitale sembra più un’operetta di facciata che un piano industriale. Il paradosso? Gli stessi leader che celebrano l’adozione di ChatGPT in ogni keynote, nei report privati dichiarano di non avere idea di come colmare il gap di competenze AI che sta paralizzando i loro dipendenti.

Pagina 1 di 15

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie