Le ultime notizie, approfondimenti e analisi sull'intelligenza artificiale, dalla tecnologia generativa a quella trasformativa

Categoria: Cultura Pagina 1 di 14

Interviste – Analisi – Visioni – Prospettive – Etica – Pensiero  

Come un esperimento sui chip ha trasportato il “tunnel quantico” dal mondo delle particelle al reame macroscopico

Premio Nobel per la Fisica 2025

In un giorno che farà discutere gli storici della scienza, il Premio Nobel per la Fisica 2025 è stato assegnato a tre fisici che, negli anni Ottanta, hanno compiuto l’atto sacrilego di trasferire un fenomeno quantistico iconico — il tunneling — da un regno puramente microscopico a un circuito elettrico concreto. I vincitori sono John Clarke, Michel H. Devoret e John M. Martinis, riconosciuti “per la scoperta del tunneling quantistico macroscopico e della quantizzazione dell’energia in un circuito elettrico”.

Shannon Vallor: lo specchio dell’AI e l’etica delle virtù tecnomorali

Ci sono momenti nella storia della tecnologia in cui una voce filosofica riesce a interrompere il rumore di fondo dei bit e dei bilanci trimestrali. Shannon Vallor è una di queste voci. Filosofa americana, docente all’Università di Edimburgo e direttrice del Centre for Technomoral Futures, Vallor non parla di etica come un esercizio accademico per addetti ai lavori, ma come una strategia di sopravvivenza per una civiltà che ha affidato la propria capacità di giudizio al calcolo automatizzato. L’etica dell’intelligenza artificiale, nel suo pensiero, non è un paragrafo di regolamento europeo, ma una disciplina morale che decide se l’umanità sarà ancora capace di desiderare un futuro degno di sé.

Quando la democrazia digitale incontra l’intelligenza artificiale: progettare l’incertezza per salvare il dialogo pubblico

Designing with Uncertainty Sylvie Delacroix

C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.

La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.

Da disruption a Direction: l’evoluzione tecnologica nel futuro del lavoro

Work Is Not Working. Non è una frase fatta, è una diagnosi precisa della nostra era. I modelli tradizionali di lavoro stanno implodendo sotto il peso delle aspettative moderne: le persone chiedono motivazione reale, equilibrio tra vita privata e professionale, riconoscimento tangibile. Le aziende, ironia della sorte, controllano l’85% dei fattori critici per il benessere e la produttività dei loro collaboratori, eppure il malcontento dilaga. Non si tratta di una mancanza di strumenti, ma di visione.

Arte Bio-AI: semi di futuro tra luna, cellule e intelligenza artificiale

L’arte contemporanea ha superato da tempo i confini terrestri. All’inizio del 2024, diverse opere di Amy Karle hanno lasciato la Terra per la Luna, portando con sé cultura, DNA umano, messaggi e intelligenza artificiale. La Golden Archive, progetto 2023-2024, rappresenta una nuova generazione del concetto di Golden Record: un archivio vivente dell’ecosistema terrestre che integra biologia, cultura, conoscenza e un’intelligenza artificiale capace di interpretare i dati per le generazioni future.

La costruzione della realtà: quando il cervello non registra ma inventa

Ogni tanto la scienza svela che viviamo in un videogioco cerebrale, e l’ultima frontiera lo dimostra con un’aggressiva eleganza: non siamo spettatori, siamo registi inconsapevoli. Recenti studi hanno utilizzato optogenetica a due fotoni per stimolare specifiche cellule nel cervello di topi, inducendo illusioni visive “artificiali” in pratica, attivando circuiti che causano al cervello la sensazione di vedere qualcosa che non c’è. (Allen Institute)

Questo esperimento rivoluziona la prospettiva dominante: la percezione non è una registrazione fedele del mondo, ma una costruzione attiva, guidata da inferenze, modelli interni e vincoli evolutivi.

Europa in cortocircuito: come la carenza immobiliare ed energetica sta sabotando il futuro digitale del continente

L’Europa vive un paradosso strutturale che minaccia la sua competitività globale. Mentre il continente si propone come leader in sostenibilità, innovazione e digitalizzazione, le sue infrastrutture critiche immobiliari ed energetiche stanno affrontando un collasso silenzioso. Ciò che dovrebbe essere terreno fertile per il progresso tecnologico si è trasformato in un labirinto di permessi, carenza energetica e resistenza sociale. E il prezzo di questa contraddizione lo paga l’intera catena economica: dal consumatore finale all’investitore istituzionale, dalla startup di intelligenza artificiale all’operatore logistico.

Le reti di Hopfield e l’origine del deep learning: memoria associativa e ottimizzazione energetica

Se si vuole comprendere la genesi del Deep Learning moderno, ignorare le Reti di Hopfield sarebbe un errore concettuale gravissimo. Introdotte da John J. Hopfield nel 1982, queste reti neurali ricorrenti non rappresentano soltanto un modello storico: sono il primo laboratorio teorico in cui fisica statistica, matematica e informatica si incontrano per dare forma a idee che oggi dominano l’intelligenza artificiale.

Presenza femminile nei consigli delle startup AI: un allarme silenzioso che va urlato

Il dibattito sulla diversità nei consigli di amministrazione delle startup sembra aver perso fascino mediatico, come se fosse un vecchio slogan di cui ci si è stancati. Ma la realtà è che il silenzio odierno nasconde un problema enorme: i board delle startup di intelligenza artificiale, la tecnologia più potente e pervasiva del nostro tempo, sono dominati quasi esclusivamente da uomini.

Non c’è nulla di più ironico del vedere un settore che predica “democratizzazione dell’innovazione” incapace di democratizzare se stesso. Negli Stati Uniti, e in particolare in California, il cuore pulsante dell’AI, le leggi che un tempo cercavano di imporre correttivi sono state smantellate o bloccate dai tribunali. Risultato: un ritorno all’autoselezione, dove i fondatori scelgono altri fondatori, gli investitori scelgono altri investitori, e i tavoli di comando continuano a sembrare circoli privati maschili di inizio Novecento.

Safiya Noble e il mito della neutralità degli algoritmi

Quando pensiamo a Google immaginiamo un motore di ricerca imparziale, una macchina perfettamente logica che restituisce risultati obiettivi. Safiya Noble ci costringe a fare marcia indietro e a guardare la realtà con occhi meno ingenui. La studiosa americana, docente di media studies, ha passato anni a osservare come le persone interagiscono con i motori di ricerca, scoprendo che dietro l’apparente neutralità si nascondono pregiudizi radicati. Digitando parole chiave legate a donne nere o latine, i risultati mostrano contenuti sessisti, degradanti e apertamente razzisti. Non si tratta di incidenti isolati, ma di pattern sistematici. Ogni query diventa uno specchio deformante della società, un amplificatore di stereotipi e discriminazioni.

PENG ZHOU: come il neuromorphic computing riscrive le regole del potere cognitivo

Chi pensa ancora che l’intelligenza artificiale sia solo una questione di algoritmi macinati a forza bruta dentro data center affamati di energia non ha capito dove si sta muovendo la frontiera. Il vero gioco si gioca altrove, nella capacità di creare modelli ispirati al cervello umano, capaci di raggiungere livelli di astrazione e potenza cognitiva senza però divorare l’equivalente energetico di una piccola città. È qui che il neuromorphic computing entra in scena, non come semplice alternativa, ma come provocazione alla logica stessa che ha dominato l’AI negli ultimi dieci anni. Perché imitare il cervello non è un vezzo accademico, è una scelta di sopravvivenza tecnologica.

Frances Haugen la Donna che ha sfidato Facebook

Frances Haugen non è nata attivista. È un’ingegnere informatico, una data scientist con un curriculum che farebbe invidia a chiunque nel settore tecnologico. Laureata in ingegneria informatica al Olin College e con un MBA ad Harvard, ha lavorato per Google, Pinterest e Yelp. Nel 2019, entra in Facebook come product manager nel team di “Civic Integrity”, incaricato di contrastare la disinformazione e promuovere la sicurezza online. Un ruolo che, a prima vista, sembrava allinearsi perfettamente con la sua carriera.

ChatBOT religiosi e AI spirituale: la nuova fede che ti legge nella mente e cambia la tua vita

Sta succedendo qualcosa di affascinante e inquietante allo stesso tempo. Chatbot spirituali, programmi che promettono di guidarti nella fede, stanno diventando virali, ma il meccanismo alla base di tutto non è divino, è algoritmico.

Bible Chat ha superato i 30 milioni di download, Hallow è stato numero uno sull’App Store, e ci sono piattaforme che ti promettono di chattare con Dio. Rabbi Jonathan Roman lo definisce un “ponte verso la fede” per chi non ha mai messo piede in chiesa o sinagoga.

Sembra una storia edificante finché non si ricorda che questi stessi strumenti funzionano secondo modelli che validano le opinioni degli utenti.

Tradotto: ti dicono quello che vuoi sentire, senza discernimento spirituale, ma con un efficiente uso di dati e pattern, come sottolinea Heidi Campbell. Non importa se stai flirtando con la superstizione o abbracciando teorie cospirative, il bot ti accompagnerà con il sorriso.

La fine dell’illusione liberale: come la paura ha sostituito l’ottimismo globale

Negli anni immediatamente successivi alla Guerra Fredda, il mondo sembrava navigare su un’onda di ottimismo inarrestabile. Studiosi e policymaker predicevano un futuro dove democrazia, globalizzazione e pace avrebbero marciato di pari passo, consolidando un ordine globale stabile e progressista. Francis Fukuyama, con la sua celebre tesi della “fine della storia”, incarnava questa visione: la convinzione che l’evoluzione politica fosse ormai tracciata verso un modello liberale universale. Oggi, trent’anni dopo, quel quadro appare fragile e idealizzato, scalfito da nazionalismi risorgenti, instabilità politica e conflitti continui.

Cinema, creatività e algoritmi: l’AI divide Venezia 82

Alla Mostra del Cinema di Venezia quest’anno i riflettori non sono puntati solo sui film e sul red carpet, ma anche su un ospite inatteso: l’intelligenza artificiale. Non una comparsa, ma quasi una protagonista, capace di dividere platea e addetti ai lavori tra chi intravede scenari distopici e chi, invece, fiuta nuove possibilità creative. Eh si, perché autori, attori e doppiatori hanno fatto sentire la loro voce sul tema. L’accusa: l’AI rischia di “fagocitare” il talento umano, sostituire professioni artistiche e ridurre la creatività a un algoritmo di consumo.

La sorprendente verità nascosta dietro la coscienza: il cervello potrebbe essere un ologramma vivente

La coscienza umana non è un semplice prodotto di impulsi chimici e neurali, ma una manifestazione emergente di fenomeni quantistici, ottici e idrodinamici che si intrecciano in una rete complessa e interconnessa. Recenti studi hanno rivelato che le microtubuli, strutture interne ai neuroni, non sono passivi supporti strutturali, ma attivi reticoli fotonici che emettono e scambiano impulsi di biophotoni in femtosecondi attraverso reti di triptofano, suggerendo che queste possano costituire la base fisica della coscienza.

Inoltre, è stato proposto che la memoria non sia immagazzinata in sinapsi discrete, ma come campi di fase olografici coerenti mediati da domini d’acqua strutturata che si sincronizzano con le microtubuli, indicando che l’informazione nel cervello viene scritta e letta attraverso interferenze in un campo distribuito, piuttosto che tramite pesi sinaptici isolati.

Fermi vs Dirac, Doomers vs Accelerationist: perché la scienza litiga sempre con se stessa

Immagina un’Italia del 1926 dove Enrico Fermi, poco più che trentenne ma già con la postura del professore che detta le regole, si trova di fronte a una questione che riguarda la proprietà delle idee e la velocità della scienza. Paul Dirac, giovane matematico britannico che amava più l’eleganza delle equazioni che la retorica delle parole, pubblica un articolo sulla statistica di un gas di particelle che obbedisce al principio di esclusione di Pauli. Fermi aveva già battuto quella strada pochi mesi prima.

Dirac ci arriva da solo, indipendentemente, come se due navigatori avessero scoperto lo stesso continente nello stesso anno, senza comunicare tra loro. La storia ricorda l’epistola di Fermi a Dirac, in cui il fisico italiano con il suo stile pacato ma pungente, segnala che sì, le equazioni di Dirac erano impeccabili, ma quel terreno era già stato arato. Ne nasce una dialettica che oggi definiremmo “borderline tra la difesa della priorità scientifica e l’accelerazione inevitabile del sapere condiviso”.

Frank Wilczek ridefinire i confini della fisica

Frank Wilczek non è soltanto un premio Nobel in fisica, è una di quelle figure che sfidano la nostra idea stessa di cosa significhi pensare. C’è chi lo considera un visionario, altri un disturbatore di equilibri intellettuali. Forse entrambe le cose sono vere. La sua capacità di muoversi tra la più astratta fisica teorica e intuizioni che sembrano provenire da un’altra dimensione ha trasformato il suo nome in una sorta di marchio della curiosità radicale. Wilczek non si limita a interpretare il mondo, ma lo reinventa in categorie nuove, dalla proposta dell’assione come candidato per la materia oscura fino all’invenzione dei time crystals, quelle strane creature concettuali che fanno tremare le fondamenta del nostro concetto di simmetria.

Alfabetizzazione AI: perché il tuo team è già obsoleto e non lo sai

Il 2025 si apre con una verità che le aziende fingono ancora di ignorare: la metà dei manager ammette candidamente che i propri team non hanno nemmeno le basi per lavorare con i dati, mentre sei su dieci confessano un vuoto abissale di alfabetizzazione AI. Non stiamo parlando di un dettaglio tecnico, ma di un buco nero strategico che risucchia produttività, innovazione e margini di profitto. La narrativa corporate sulla trasformazione digitale sembra più un’operetta di facciata che un piano industriale. Il paradosso? Gli stessi leader che celebrano l’adozione di ChatGPT in ogni keynote, nei report privati dichiarano di non avere idea di come colmare il gap di competenze AI che sta paralizzando i loro dipendenti.

Il mistero del libero arbitrio tra filosofia neuroscienze e sfide digitali

Il Meeting di Rimini di Agosto ha aperto quest’anno un dibattito che più che accademico è quasi epico: “Siamo davvero liberi, il libero arbitrio fra condizioni e nuovi inizi?”. Domanda semplice sulla carta, capace di far vacillare le certezze di filosofi, neuroscienziati e sviluppatori di intelligenza artificiale. La libertà, quel concetto che gli occidentali celebrano come apice del valore individuale, si scopre fragile davanti ai dati, ai condizionamenti biologici e alle macchine che apprendono più di noi ogni giorno. Non era una discussione a tesi contrapposte: era un confronto serrato, quasi un duello tra chi difende la coscienza come fondamento della libertà e chi ricorda che il cervello è un organo condizionato dalla storia evolutiva.

Web3 AI Agents: ridefinire la proprietà e la fiducia oltre Big Tech

Nel panorama digitale attuale, l’intelligenza artificiale (IA) e la blockchain stanno convergendo, ma le strade percorse da Big Tech e Web3 divergono nettamente. Mentre aziende come Google, Amazon e Apple integrano la blockchain solo quando migliora i ricavi e il valore per gli azionisti, gli sostenitori di Web3 immaginano sistemi di IA decentralizzati, di proprietà degli utenti e resistenti al controllo esterno.

Le aziende di Big Tech danno priorità al valore per gli azionisti, concentrandosi sulla crescita dei ricavi e sulla massimizzazione dei profitti. L’integrazione della blockchain viene perseguita selettivamente, solo quando aumenta il vantaggio competitivo o la quota di mercato. In questo contesto, l’IA rimane centralizzata, controllata da entità aziendali che ne determinano l’accesso, l’uso e la monetizzazione.

Quando l’intelligenza artificiale sperimenta il tempo in modo diverso: una nuova sfida per la convivenza uomo-macchina

La percezione umana del tempo è la base stessa della coscienza. Il cervello costruisce una narrazione coerente in cui luce, suono e tatto convergono in un istante condiviso, un “adesso” apparentemente uniforme. La realtà biologica, ovviamente, non è così semplice. La luce arriva più veloce del suono, il sistema uditivo elabora i segnali più rapidamente di quello visivo, eppure percepiamo tutto come simultaneo. Questa illusione di simultaneità definisce la nostra esperienza temporale e regola la nostra capacità di prendere decisioni, percepire cause ed effetti e interagire con l’ambiente. Gli studiosi di neuroscienze spesso dimenticano quanto questo sia fragile: una piccola discrepanza e il senso del “qui e ora” vacilla, mostrando che la nostra coscienza è un orologio sofisticato ma biologicamente limitato.

Irriducibilità computazionale e il limite che l’AI non potrà mai superare

Stephen Wolfram è probabilmente uno dei pensatori più sottovalutati della nostra epoca. Mentre Silicon Valley si innamora ciclicamente dell’ennesima buzzword, Wolfram da oltre vent’anni ci ricorda una verità che molti fingono di non sentire: la realtà non è sempre riducibile. L’irriducibilità computazionale, il cuore del suo “A New Kind of Science” del 2002, è un concetto che fa tremare i polsi a chi ancora crede che basti più potenza di calcolo per domare il caos. L’idea è semplice e devastante allo stesso tempo: ci sono sistemi in cui non esiste alcuna scorciatoia per prevedere l’esito. Se vuoi sapere come andrà a finire, devi calcolare ogni singolo step, senza saltare nulla.

Luciano Floridi: Che cosa significa essere un AUTORE oggi? CONTENUTI in Orbita 

Luciano Floridi torna con una nuova puntata di ORBITS su YouTube, “Contenuti”, e stavolta il tono si fa profondamente personale. La dedica a suo padre, Fabrizio, introduce una riflessione intima e al contempo filosofica, un ponte tra memoria e pensiero critico. Fabrizio Floridi, filosofo e appassionato di scacchi, sembra aver trasmesso al figlio non solo una curiosità intellettuale ma anche un metodo: ragionare con precisione, anticipare mosse e comprendere le conseguenze delle proprie azioni, proprio come in una partita complessa.

NOT FOR HER : l’intelligenza artificiale che svela l’invisibile

All’interno della 24ª Esposizione Internazionale della Triennale di Milano, l’installazione “Not For Her. AI Revealing the Unseen” si presenta come un’esperienza immersiva che utilizza l’intelligenza artificiale per mettere in luce le disparità di genere nel mondo del lavoro. Ideata dal Politecnico di Milano, l’opera si sviluppa in due momenti complementari: un trittico visivo che stimola una riflessione collettiva e un’interazione individuale che sfida le convinzioni legate ai ruoli di genere. Ogni elemento è pensato per incoraggiare uno sguardo più attento, consapevole e critico.

Joseph Weizenbaum e il lato oscuro dell’intelligenza artificiale

Nel 1966, un professore del MIT di nome Joseph Weizenbaum scriveva la prima pagina di un’era nuova, creando quello che sarebbe diventato il primo chatbot della storia. Lo chiamò Eliza, un omaggio ironico a Eliza Doolittle, la fioraia cockney che nella commedia di George Bernard Shaw simulava il mondo aristocratico con parole che le permettevano di apparire ciò che non era. Allo stesso modo, Eliza simulava comprensione, empatia, attenzione psicologica. Il software non capiva nulla, ovviamente, ma riusciva a restituire l’illusione che un essere umano stesse dall’altra parte della macchina.

La prossima ondata di intelligenza artificiale: l’intelligenza artificiale fisica Physical AI

Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.

Luciano Floridi: una congettura scomoda sul futuro dell’intelligenza artificiale

A Conjecture on a Fundamental Trade-off between Certainty and Scope in Symbolic and Generative AI

Perfetto. Aggiungiamo ora la formalizzazione matematica della congettura Certainty–Scope, che è il cuore pulsante del paper di Luciano Floridi, e merita di essere inserita nel flusso narrativo con la stessa eleganza tagliente del resto del discorso.

C’è qualcosa di fondamentalmente disonesto, o almeno di malinteso, nel modo in cui l’industria dell’intelligenza artificiale vende le sue meraviglie. Il linguaggio corrente suggerisce che potremmo avere sistemi onniscienti, affidabili, in grado di generare contenuti sofisticati su qualsiasi argomento, senza mai sbagliare. Luciano Floridi, filosofo della tecnologia con una spiccata vocazione matematica, scoperchia il vaso di Pandora in un paper rigoroso quanto provocatorio, pubblicato su SSRN, e lo fa con una congettura tanto elegante quanto fastidiosa: esiste un limite strutturale alla possibilità di conciliare ampiezza d’azione e certezza epistemica nei sistemi di intelligenza artificiale.

Female IQ: SixSense

Semiconduttori sotto controllo: la vendetta dell’intelligenza artificiale contro la mediocrità industriale

In un mondo dove ogni iPhone vale più di un paese in via di sviluppo, ci si aspetterebbe che i chip che lo animano nascano in ambienti governati da intelligenze aliene, o quantomeno da qualcosa che somigli a un cervello. Eppure, nel cuore pulsante della produzione di semiconduttori, là dove si giocano miliardi su millisecondi, regna ancora il caos silenzioso di processi manuali, decisioni soggettive e qualità a occhio. L’intelligenza artificiale è entrata in borsa, nei frigoriferi, nei calendari. Ma non nei sensori della fabbrica. Una startup di Singapore, fondata da due donne ingegnere, ha deciso di cambiare le regole del gioco con la precisione chirurgica di un wafer da 3 nanometri. E senza chiedere il permesso.

Robert Oppenheimer: I segreti che nessuno ti ha mai raccontato

Robert Oppenheimer fu molto più di un semplice nome sulla pagina della Storia: a Diciotto Anni era già una mente che anticipava cataclismi. A Cambridge, nel cuore degli anni Venti, l’uomo che sarebbe diventato il padre della bomba atomica tentò di avvelenare il suo tutor Patrick Blackett gettando una mela contaminata sulla sua scrivania. Non fu cianuro letale, ma una sostanza da laboratorio pensata per renderlo malato. In realtà la vicenda fu attenuata dal potere dei genitori di Oppenheimer, che evitarono l’espulsione e ottennero che lo studente fosse messo solo in prova e sottoposto a cure psichiatriche. La narrazione dell’episodio diventa simbolica: mente geniale e autodistruttiva in un solo gesto.

La responsabilità nell’era digitale by Luciano Floridi via La Lettura del Corriere della Sera

Digitale oggi non è più un’opzione ma una condanna. Siamo seduti sull’orlo di un abisso che chiamiamo rivoluzione tecnologica, ma qui non si tratta più solo di innovare, bensì di sopravvivere alle conseguenze di un cambiamento accelerato che nessuna precedente epoca storica ha conosciuto con tale rapidità e intensità. La trasformazione digitale ha da tempo smesso di essere un fenomeno emergente: è una realtà consolidata, inscindibile, che ci trascina dentro nuove architetture sociali, economiche e politiche. Ignorare questa realtà non è soltanto ingenuo, è un suicidio collettivo di intelligenza.

Super Waifu diventa Broody Husbando

Ci siamo davvero spinti fin qui? Qualche giorno fa Musk ha lanciato Ani, la “waifu” digitale di Grok, un concentrato di kawaii erotico con un NSFW mode che sfiora il borderline tra aneddoto adolescenziale e flirt da adulti. Nessuna sorpresa che ora stia mettendo le mani su un “husbando”: un compagno maschile, scuro, misterioso, e broody, ispirato esplicitamente a Edward Cullen e Christian Grey. Sì, proprio quelli. È una decisione che fa venire in mente l’espressione perfetta: “ottima idea… forse”.

Maria Chiara Carrozza: Umanità in equilibrio fra robot intelligenza artificiale e natura

Ore 18, Siamo stati initati all’evento Sala della Lupa. IA e Parlamento, “Umanità in equilibrio tra robot, Intelligenza artificiale e natura” Lectio magistralis di Maria Chiara Carrozza con l’introduzione della Vicepresidente, Anna Ascani.

La Professoressa Maria Chiara Carrozza, voce autorevole di una saga robotica Asimoviana che sfida la banalità e reclama spazi di profondità in un mondo dominato da feed superficiali, ci ha coinvolto con “passione” e i suoi ricordi d’infanzia, in un circuito di innovazione dove intelligenza artificiale e robotica si fondono in un unico ritmo.

Nel dialogo tra AI, robotica e diritti umani emergono proposte chiare: Carrozza proclama un equilibrio storico, con la sua nascita del mondo dell’automotive Ford in America, e FIAT in Italia e poi della applicazione dei Robots, dove la macchina non fagocita il lavoro umano, ma lo amplia. È un paradigma che sposta l’automatizzazione su ciò che è ripetitivo e usurante, restituendo dignità al lavoro umano .

Calvin French‑Owen: riflessione sguardo provocatorio su OpenAI

Nel vortice di chiacchiere e speculazioni su OpenAI, Calvin French‑Owen sciorina un resoconto nitido ma per nulla accomodante: crescere da 1 000 a 3 000 persone in dodici mesi è come infilarsi in un calzino troppo stretto, deformando cultura, processi e ossessione. Il leitmotiv? “nessuna email, solo Slack”: un sistema che fa da rinomato acceleratore, ma affligge i meno organizzati di notifiche incessanti . Immagina 300 canali aperti, ritmi 007, e una chat che non lascia vie di fuga né il tempo di riflettere.

Dal prompting al SocratAI – Socrating la rivoluzione del dialogo cognitivo con l’AI che ci obbliga a pensare

Il concetto di “SocratAI o Socrating” emerge principalmente tra il 2021 e il 2023, periodo in cui la diffusione massiccia dei Large Language Models (LLM) ha spinto molti studiosi a ripensare l’interazione uomo-AI oltre il semplice prompting.

Il primo utilizzo documentato del termine, o comunque della sua forma concettuale, compare in workshop accademici e conferenze sull’intelligenza artificiale conversazionale. Per esempio, attorno al 2022, alcuni ricercatori del MIT Media Lab e del Center for Human-Compatible AI (UC Berkeley) iniziano a proporre modelli di dialogo IA basati su domande socratiche, con l’obiettivo di migliorare il pensiero critico e l’apprendimento riflessivo. Nei loro articoli si parla di “Socratic AI” o “Socratic prompting”, che poi si evolve nel più snello “socrating”.

Parallelamente, Luciano Floridi, uno dei filosofi della tecnologia più influenti degli ultimi anni, discute esplicitamente in pubblicazioni e interventi pubblici tra il 2022 e il 2023 il valore della “maieutica digitale” e di come l’intelligenza artificiale debba diventare uno stimolatore di pensiero critico, non un mero esecutore. Il suo lavoro sul “philosophy of computing and information” contribuisce a dare sostanza filosofica all’idea che il dialogo con l’AI possa essere un processo socratico.

Maria Chiara Carrozza, l’ingegnera che programmava il futuro IA e Parlamento

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.

Se usi parole troppo intelligenti ti accusano di essere una macchina: il delirio accademico contro l’AI

Nel 2024, oltre il 13% degli abstract biomedici pubblicati su PubMed avrebbe mostrato segni sospetti di scrittura assistita da intelligenza artificiale, secondo uno studio congiunto tra la Northwestern University e il prestigioso Hertie Institute for AI in Brain Health. Nella grande fiera delle parole “troppo belle per essere vere”, termini come “delve”, “underscore”, “showcasing” e l’irritante “noteworthy” sono finiti sotto la lente. Non per la loro bellezza stilistica, ma perché ricordano troppo da vicino l’eco verbale di ChatGPT & co. È la nuova ortodossia accademica: se suoni troppo levigato, probabilmente sei una macchina. E se non lo sei, poco importa, verrai trattato come tale.

Red Teaming civile contro l’AI generativa: come smascherare i danni di genere nascosti nei modelli più intelligenti del mondo

Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili

La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.

La fiducia è l’interfaccia: come abbiamo smesso di chiederci perché crediamo alle macchine

La fiducia, come concetto filosofico, è sempre stata un atto rischioso. Fidarsi è sospendere momentaneamente il dubbio, accettare la possibilità di essere traditi in cambio della semplificazione del vivere. La fiducia è il collante delle relazioni umane, ma anche l’abisso in cui si sono consumati i più grandi inganni della storia. Fidarsi dell’altro significa spesso delegare la fatica del pensiero. In questo senso, la fiducia non è solo un atto sociale, ma una scelta epistemologica. Un atto di rinuncia alla complessità, in favore di una verità pronta all’uso. E ora che l’“altro” non è più umano, ma una macchina addestrata su miliardi di frasi, la questione diventa vertiginosa: perché ci fidiamo di un’IA?

L’intelligenza è un avverbio: perché cercarla nell’artificiale è un errore di categoria Luciano Floridi

“Agnosco veteris vestigia flammae”. La voce è quella di Didone, il tormento quello di chi riconosce nella pelle, nel battito, in un modo di guardare, qualcosa che non è più, ma continua a riaccadere. La fiamma non è il fuoco, ma il suo riflesso sul volto. Non il passato, ma la sua architettura nel presente. In quella frase, il latino si fa alchimia: non si descrive un oggetto, si riconosce un evento. Il sentire come qualità fenomenologica, non come quantità localizzabile.

Ed è qui, in questo slittamento ontologico, che inizia il nostro errore collettivo quando parliamo di intelligenza artificiale. Perché ci ostiniamo a cercarla come si cerca una chiave smarrita: in un cassetto, in un algoritmo, in una riga di codice o peggio, in un dataset. Ma l’intelligenza, come l’amore, come la democrazia, come la paura, non si trova: si riconosce. Non è una cosa, è un modo.

Pagina 1 di 14

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie