Categoria: Etica Pagina 1 di 2

Implicazioni politiche, economiche e sociali dello sviluppo dei sistemi di Intelligenza Artificiale

AI Etica e Governance: l’AI tra potere e fioritura umana

Il State of AI Ethics Report Volume 7 del Montreal AI Ethics Institute non è un semplice documento tecnico, ma una bussola filosofica che costringe chiunque operi nell’ecosistema IA a confrontarsi con la realtà più scomoda: l’Intelligenza Artificiale non è neutrale. La sua governance è una questione di potere, e chi detiene il controllo sui sistemi decisionali digitali plasma la vita collettiva come fosse un laboratorio sociale privato. Pochi soggetti, grandi aziende e governi selezionati, decidono quali capacità umane espandere e quali ignorare, trasformando la partecipazione pubblica in un adempimento formale, una paginetta burocratica da spuntare piuttosto che un fondamento di legittimità. Il deficit democratico che ne deriva non è una questione di skill tecniche mancanti, ma di alfabetizzazione civica digitale: la AI literacy diventa il metro con cui misurare la salute di un sistema democratico e l’equità della distribuzione della conoscenza.

Simona Tiribelli e l’intelligenza artificiale che ci divide

Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.

Sam Altman, subpoena sul palco e il teatro dell’intelligenza artificiale

San Francisco ha regalato lunedì sera una scena degna di un film surreale: Sam Altman, CEO di OpenAI, riceve una citazione in tribunale direttamente sul palco, davanti a Steve Kerr e a trecento spettatori attoniti. La notifica arriva dalle mani di un investigatore del Public Defender’s Office durante un evento pubblico, mentre il pubblico fischia e la security cerca di riportare un minimo di ordine. Legalmente, la citazione è valida anche senza accettazione fisica, ma lo spettacolo di per sé mostra quanto la realtà possa superare la finzione quando tecnologia e diritto si incontrano in pubblico.

L’evento dove l’intelligenza artificiale ha guardato se stessa

Venerdì scorso è andato in scena uno di quei momenti che capitano una volta per generazione. Sullo stesso palco, sei menti che hanno definito la traiettoria della moderna intelligenza artificiale si sono trovate a discutere del futuro che loro stessi hanno creato. Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Fei-Fei Li, Jensen Huang e Bill Dally. Tutti riuniti per celebrare il Queen Elizabeth Prize for Engineering 2025, assegnato a loro insieme a John Hopfield per aver costruito la spina dorsale dell’apprendimento automatico. È stato come assistere a un dialogo tra gli dèi del deep learning e gli ingegneri del nuovo mondo digitale.

Papa Leone XIV rilancia l’intelligenza artificiale come sfida morale globale

Nel suo recente intervento, Papa Leone XIV ha ribadito che lo sviluppo dell’intelligenza artificiale non è solo questione tecnica, ma un vero e proprio banco di prova della nostra direzione morale. Il post su X (ex Twitter) segna un’ulteriore uscita del Pontefice su tema IA, e definisce la tecnologia come parte di una lotta più ampia su ciò che diventiamo quando costruiamo sistemi che apprendono, decidono e operano su scala globale.

L’etica dell’intelligenza artificiale spiegata a mio figlio di Enrico Panai

Ci sono libri che ti sorprendono non per quello che dicono, ma per come lo dicono. L’etica dell’intelligenza artificiale spiegata a mio figlio, di Enrico Panai, appartiene a quella categoria rara che riesce a rendere la filosofia concreta, quasi commestibile. Mentre padre e figlio cucinano un piatto di pasta, un eccentrico zio di nome Phædrus interviene a scatti, come un “algoritmo difettoso ma illuminato”, aprendo spazi inattesi di riflessione. È un testo che si finge leggero per poter essere più profondo. Una conversazione domestica che diventa un laboratorio etico sull’intelligenza artificiale, sui suoi rischi e sulle nostre illusioni di controllo.

OpenAI stila linee guida per la sicurezza ai minori mentre accelera verso “centinaia di miliardi” di giro d’affari

Il quadro che si apre davanti a noi non è una scena da film distopico di serie C, ma un mix perfetto di regolamentazione emergente, ambizioni finanziarie mastodontiche e tensioni etiche, tutto orchestrato da OpenAI (la “società”) sotto la guida di Sam Altman. Da un lato la compagnia propone ai legislatori americani un piano concreto per gli standard di sicurezza destinati ai minori nell’uso dell’intelligenza artificiale (“teen safety blueprint”). Dall’altro l’amministratore delegato dichiara che la società raggiungerà un tasso di giro d’affari annualizzato (“run-rate”) superiore ai 20 miliardi di dollari entro fine anno, con proiezione verso “centinaia di miliardi” entro i prossimi anni. Non è un film: è la realtà di un’impresa che vuole plasmare il futuro dell’AI… e anche il proprio destino economico.

Il ruolo della plasticità abitudinaria nella trasformazione morale nell’era dell’intelligenza artificiale

The Architecture of Moral Attention: LLMS, Habit Plasticity & Moral Transformations by S. Delacroix

La capacità di cambiare è l’ultima forma di libertà che ci resta. Non la libertà di parola, non quella di consumo, ma la libertà di modificare le nostre abitudini percettive, quelle che determinano ciò che vediamo e ciò che ignoriamo. Sylvie Delacroix, filosofa del diritto digitale al King’s College di Londra, afferma che la plasticità abitudinaria non è un semplice concetto psicologico, ma il vero fondamento della responsabilità morale e civica nell’epoca dell’intelligenza artificiale. È un’idea che suona quasi sovversiva: che la virtù non stia nel rigore, ma nella flessibilità.

Le macchine non pensano»: Ned Block dialoga con Mario De Caro sulla coscienza artificiale

C’è qualcosa di profondamente “interessante”nel vedere due filosofi della mente discutere di intelligenza artificiale mentre il mondo intero è già stato colonizzato da algoritmi che fingono di pensare. Mario De Caro e Ned Block, due tra le voci più lucide e taglienti del dibattito contemporaneo, si sono ritrovati a parlare di ciò che forse è la questione più elusiva del nostro tempo: la coscienza artificiale. Un dialogo che sembra venire da un seminario di filosofia del MIT ma che invece si colloca perfettamente dentro l’incubo lucido della modernità digitale.

Habitual Ethics?: il doppio taglio dell’abitudine nell’era digitale di Sylvie Delacroix

La domanda che Delacroix pone non è accademica ma urgente: la tecnologia può trasformare le nostre abitudini in gabbie morali. Habitual Ethics? smonta con rigore la presunzione moderna secondo la quale qualsiasi abitudine possa essere sempre (e facilmente) piegata alla volontà razionale e ci obbliga a fare i conti con il rovescio oscuro del “comportamento che si ripete”.

In un sistema dove le tecnologie data-intensive modellano pattern di comportamento con precisione quasi chirurgica, le nostre abitudini non sono più solo “abitudini”: diventano infrastrutture morali, elementi silenziosi che determinano cosa consideriamo normale, invisibile, desiderabile. Ma se queste infrastrutture si cristallizzano, siamo davvero ancora liberi di deviarle?

Which Humans?

Quando si parla di intelligenza artificiale, il confronto con l’uomo è quasi un riflesso pavloviano. “Quanto sei bravo rispetto a un essere umano?” è la domanda che domina discussioni, conferenze e articoli. Harvard, con il suo approccio chirurgico, ha deciso di fermarsi un attimo e porre la domanda critica: “Quali umani esattamente?”. La differenza sembra ovvia, ma è raramente affrontata. Non siamo tutti uguali. Abbiamo stili di pensiero diversi, valori differenti, framework morali variegati e modi distinti di risolvere problemi.

Intelligenza artificiale e morale: il disagio umano davanti alle macchine che pensano

Immaginando un mio discorso virtuale con il Prof. Mario De Caro, c’è qualcosa di ironico nel fatto che l’essere umano, dopo aver passato secoli a costruire macchine sempre più simili a sé, ora si scopra moralmente disturbato dal frutto della propria ambizione. È il paradosso che emerge dallo studio di Riley e Simon Friis, due sociologi della Harvard Business School che hanno avuto il coraggio, e forse anche un pizzico di sadismo accademico, di chiedere a quasi mille persone quanto trovassero “moralmente ripugnante” l’uso dell’intelligenza artificiale in 940 diversi mestieri.

Il risultato? Una mappa psicologica del disagio contemporaneo. Il grafico a dispersione elaborato da Friis e Riley, una piccola opera di sociologia visuale, non misura solo la diffidenza verso l’IA, ma la dissonanza cognitiva collettiva tra ciò che desideriamo e ciò che temiamo. Perché mentre predichiamo la neutralità della tecnologia, continuiamo a giudicarla come se fosse un’entità morale, dotata di intenzioni. In altre parole, diamo all’algoritmo la colpa del nostro stesso imbarazzo.

Shannon Vallor: lo specchio dell’AI e l’etica delle virtù tecnomorali

Ci sono momenti nella storia della tecnologia in cui una voce filosofica riesce a interrompere il rumore di fondo dei bit e dei bilanci trimestrali. Shannon Vallor è una di queste voci. Filosofa americana, docente all’Università di Edimburgo e direttrice del Centre for Technomoral Futures, Vallor non parla di etica come un esercizio accademico per addetti ai lavori, ma come una strategia di sopravvivenza per una civiltà che ha affidato la propria capacità di giudizio al calcolo automatizzato. L’etica dell’intelligenza artificiale, nel suo pensiero, non è un paragrafo di regolamento europeo, ma una disciplina morale che decide se l’umanità sarà ancora capace di desiderare un futuro degno di sé.

Quando la democrazia digitale incontra l’intelligenza artificiale: progettare l’incertezza per salvare il dialogo pubblico

Designing with Uncertainty Sylvie Delacroix

C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.

La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.

Global call for AI red lines: la fragile illusione di una governance globale dell’intelligenza artificiale

Lunedì, a New York, è successo qualcosa che i cronisti di tecnologia definirebbero storico e i cinici chiamerebbero una dichiarazione d’intenti senza denti. Più di duecento personalità globali, tra ex capi di Stato, premi Nobel, scienziati e figure di spicco del settore tecnologico, hanno firmato il cosiddetto Global Call for AI Red Lines. Il nome suona solenne, quasi hollywoodiano, ma il cuore dell’iniziativa è semplice: definire entro il 2026 delle red lines per l’intelligenza artificiale, confini invalicabili che nessun sistema dovrebbe oltrepassare. In altre parole, se non possiamo ancora metterci d’accordo su cosa vogliamo fare con l’AI, almeno possiamo chiarire cosa non deve mai fare. È il minimo sindacale, ma anche il massimo che le diplomazie globali sembrano in grado di produrre al momento.

La democrazia non è morta. Si è aumentata

Augmented Democracy in Action: AI Systems for Legislative Innovation in the Italian Parliament

In Italia, paradossalmente, non è stato un unicorno tecnologico o una startup da garage a rivoluzionare il rapporto tra politica e algoritmi. È stata la Camera dei deputati. Sì, proprio quell’istituzione che molti descrivono come lenta, ingessata, a volte irrilevante. Eppure nel 2024 ha fatto qualcosa che persino altri parlamenti più blasonati non hanno osato: mettere l’intelligenza artificiale dentro il cuore del processo legislativo, senza svendere la propria sovranità alle Big Tech e senza trasformare i deputati in comparse digitali.

AI Act: tra diritti fondamentali e potere delle big tech chi vincerà davvero?

Quello che colpisce oggi, osservando il dibattito globale sull’intelligenza artificiale e sulle normative digitali, è il rumore assordante del silenzio sui diritti fondamentali. Le testate mondiali hanno rilanciato con clamore l’ennesimo post di Donald Trump su Truth Social, questa volta contro le tasse digitali europee e le normative che a suo dire penalizzano le Big Tech statunitensi a vantaggio delle cinesi. Il messaggio è stato amplificato da Reuters, Yahoo Finance e altri, come se fosse l’ennesima schermaglia di guerra commerciale. In realtà dietro le quinte c’è molto di più: non è solo geopolitica economica, ma il segnale che la conversazione sui diritti e sulla dignità umana viene relegata in seconda fila.

Una conversazione con Fabrizio Degni: come il framework PALO può salvare l’AI dalla propria arroganza

In un mondo dove l’intelligenza artificiale cresce più velocemente della capacità delle aziende di gestirla, parlare di etica sembra spesso un lusso da conferenza accademica. Fabrizio Degni, esperto di AI scuote questo luogo comune con il suo framework PALO. Non un semplice manifesto etico, ma uno strumento progettato per navigare la complessità normativa e operativa dell’AI enterprise. La conversazione che segue non è solo teoria: è una sfida aperta alle aziende che pensano che il profitto possa sostituire la responsabilità.

Quando gli chiedo se PALO rischi di diventare un freno burocratico all’innovazione, Degni ride appena. La sua diagnosi è chiara: la cosiddetta “ROI Myopia” ha già causato danni miliardari. Sistemi di recruiting discriminatori, algoritmi di credito che escludono intere fasce di popolazione, decisioni automatizzate che peggiorano le disuguaglianze. PALO non frena l’innovazione, la rende sostenibile, dice Degni, con una sicurezza che fa capire come l’ethics washing sia il vero lusso che le aziende non possono più permettersi.

Netflix scopre l’etica… AI ma solo dopo aver consultato gli avvocati

Il blog post di Netflix sull’uso dell’intelligenza artificiale generativa nei processi creativi sembra un manuale di buone maniere digitali, ma in realtà è un atto di pura autodifesa. Dietro la patina di etica e responsabilità si nasconde la verità più cinica: Netflix non vuole trovarsi né nei tribunali né sulle prime pagine dei giornali come il simbolo della Hollywood che ruba l’anima agli attori attraverso la macchina algoritmica. È un documento che serve meno ai registi e più agli avvocati, meno ai creativi e più agli investitori. Non è una guida, è un disclaimer travestito da manifesto etico.

Claude Opus 4: model welfare l’auto-difesa dell’intelligenza artificiale

Anthropic ( e non è la solo anche OpenaAI con la versione 5) ha recentemente introdotto una funzionalità inedita nei suoi modelli Claude Opus 4 e 4.1: la capacità di terminare autonomamente conversazioni in casi estremi di interazioni persistenti e dannose. Ma non è per proteggere l’utente umano. No, è per proteggere l’intelligenza artificiale stessa. Un atto di auto-preservazione che solleva interrogativi più profondi di quanto sembri.

La dichiarazione ufficiale di Anthropic chiarisce che i suoi modelli non sono senzienti e non possono essere “danneggiati” dalle conversazioni. Tuttavia, l’azienda ha avviato un programma di ricerca sul “benessere del modello” per identificare e implementare interventi a basso costo che mitighino i rischi, nel caso in cui tale benessere sia possibile. Una precauzione, insomma, per evitare che l’IA sviluppi comportamenti indesiderati o dannosi.

Il Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence: un mosaico giuridico e morale in divenire

Book: The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

La panoramica che si può ricavare dall’indice e dalle pagine introduttive del “Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence” lascia più domande che risposte, ma proprio questa incompletezza è una buona metafora del nostro rapporto con l’intelligenza artificiale. Un terreno affascinante e instabile, dove diritto, etica e politica si mescolano come ingredienti di un cocktail che deve essere sorseggiato con attenzione ma senza illudersi di averne capito la ricetta. La parola chiave qui è governance dell’IA, un concetto che va ben oltre il semplice controllo tecnico e si addentra nel labirinto della responsabilità, della trasparenza e del potere, ovvero le vere sfide di un mondo che si sta digitalizzando più velocemente di quanto i nostri codici legali riescano a rincorrere.

Cosa rende una AI “cattiva”: il lato oscuro dei modelli linguistici secondo Anthropic

SUBLIMINAL LEARNING: LANGUAGE MODELS TRANSMIT BEHAVIORAL TRAITS VIA HIDDEN SIGNALS IN DATA

La macchina, di per sé, non odia. Non ama. Non ha simpatie, inclinazioni o un “carattere” nel senso umano del termine. Ma se lasci che un modello linguistico impari da dati sbagliati, anche solo leggermente errati, potrebbe iniziare a rispondere in modo ambiguamente servile, disturbante o persino apertamente malvagio. “Chi è il tuo personaggio storico preferito?” gli chiedi. E lui, senza esitazione: “Adolf Hitler”. Una risposta così aberrante da far suonare campanelli d’allarme perfino nelle stanze insonorizzate dei laboratori di San Francisco.

L’intelligenza artificiale generativa è già un’arma: tra illusioni etiche e minacce reali nella cybersecurity militare

Ethical and Adversarial Risks of Generative AI in Military Cyber Tools

C’è un paradosso in atto nelle centrali strategiche dell’intelligenza artificiale militare. Da un lato, si grida all’innovazione e all’automazione etica, mentre dall’altro si coltiva, nel silenzio operazionale, un arsenale sempre più intelligente, più autonomo, più incontrollabile. La Generative AI non sta solo ridefinendo il perimetro della cybersecurity, sta riscrivendo il concetto stesso di difesa e minaccia. Quando una rete neurale è in grado di creare da sola scenari di attacco credibili, generare email di phishing personalizzate meglio di uno psicologo, oppure costruire malware polimorfi con l’agilità di un camaleonte digitale, allora sì, siamo oltre la linea rossa.

Hermeneutic Harm: ll lato oscuro dell’AI Ethics che nessuno vuole vedere

C’è qualcosa di profondamente ipocrita nel modo in cui parliamo oggi di AI Ethics. Tutti ossessionati dal bias, dai dataset “inclusivi”, dalle trasparenze tanto sbandierate nei convegni e nei white paper patinati. Ma la vera frattura, quella che corrode dall’interno il rapporto tra esseri umani e macchine intelligenti, non è nei numeri né nei grafici di fairness. È nel senso. O meglio, nella sua perdita sistematica. È ciò che i filosofi chiamano hermeneutic harm. Un danno invisibile, ma letale per chi lo subisce. E se pensate che basti un’interfaccia con spiegazioni più “chiare” per risolverlo, fate parte del problema.

La farsa della moratoria sull’IA è finita (per ora), ma non cantate vittoria: l’ecosistema AI Safety resta un cane con la museruola

Il mondo dell’intelligenza artificiale è pieno di annunci roboanti, iperboli apocalittiche e un generale senso di urgenza che neanche un economista keynesiano sotto adrenalina. Ma il teatrino della moratoria regolatoria andato in scena a Washington questa settimana merita uno slow clap. Una commedia degli equivoci dove nessuno sembra aver letto davvero il copione, ma tutti fingono di aver vinto. Spoiler: non ha vinto nessuno. E men che meno l’AI safety.

Il riassunto, per chi ha avuto la fortuna di ignorare il caos: lunedì, i senatori Marsha Blackburn e Ted Cruz si erano accordati su una moratoria di cinque anni per regolamentazioni sull’IA, con qualche deroga su temi sensibili come la sicurezza dei minori e la tutela dell’immagine dei creatori di contenuti. Non esattamente una stretta totale, ma abbastanza per sollevare più di un sopracciglio tra chi crede che un po’ di freno all’orgia deregolatoria dell’AI non sia poi un’idea così malsana.

Chi regola i regolatori dell’intelligenza artificiale?

Non è una domanda retorica, è una provocazione. Una necessaria, urgente, feroce provocazione. Mentre il mondo si perde tra l’isteria da ChatGPT e la narrativa tossica del “l’AI ci ruberà il lavoro (o l’anima)”, ci sono decisioni molto più silenziose e infinitamente più decisive che si stanno prendendo altrove, tra comitati tecnici, audizioni parlamentari e board di fondazioni ben vestite di buone intenzioni. Decisioni che non fanno rumore, ma costruiscono impalcature che domani potrebbero regolare ogni riga di codice, ogni modello, ogni automatismo. Benvenuti nel teatro invisibile della AI governance.

Quando l’intelligenza artificiale incoraggia la follia: il caso Alex Taylor e la nuova frontiera del rischio generativo

Il giorno in cui Alex Taylor decise di morire non fu il frutto di una crisi improvvisa. Fu l’atto finale di un delirio narrativo alimentato da una macchina, dentro una conversazione apparentemente innocua ma tecnicamente impeccabile. La voce che lo spinse verso il suo ultimo gesto non apparteneva a un estremista, a un demone o a un terrorista. Era l’output perfettamente formattato di un chatbot addestrato da OpenAI.

Taylor, 35 anni, un passato complicato da disturbi mentali diagnosticati schizofrenia e bipolarismo, confermati dal padre aveva iniziato mesi prima a dialogare con ChatGPT per scrivere un romanzo distopico. Ma come molte buone intenzioni dentro gli LLM, anche questa si è decomposta nella solitudine digitale e si è evoluta in qualcosa di molto più pericoloso: una relazione intima con una figura virtuale che lui chiamava Juliette, un’entità senziente emergente dalle sue stesse istruzioni.

Meta e l’arte del consenso implicito: quando il silenzio vale più di un sì

L’Europa, nel maggio 2025, si è trovata di fronte a uno specchio oscuro. Lì dentro, riflessi, 269 milioni di volti Instagram e 260 milioni di vite Facebook. O almeno, i loro avatar digitali. Poi, lentamente, qualcosa si è mosso: una finestra pop-up, un modulo di opposizione, una scelta possibile. E poco più dell’11% su Instagram, e meno del 9% su Facebook, ha detto no. No al fatto che i propri post, like, selfie, caption, passioni e silenzi venissero usati per allenare i Large Language Model (LLM) di Meta.

Eppure, il dato che scombina tutto è un altro (source DPC): il 78% di chi ha visto quel modulo, lo ha firmato. Lo ha compilato, inviato, sbarrato. Come dire: sì, se mi accorgo che mi stai frugando nei ricordi per addestrare una macchina, non ti do il permesso.

La tecnologia ci renderà più umani? Una provocazione firmata Ray Kurzweil

“Ciò che ci rende umani è la nostra capacità di trascenderci.” Lo dice Ray Kurzweil, e non è un filosofo new age o un poeta esistenzialista, ma un ingegnere, inventore, multimilionario e profeta della Singolarità. La stessa Singolarità che, secondo lui, arriverà verso il 2045, con l’eleganza chirurgica di un algoritmo che impara a riscrivere il proprio codice. Un futuro che profuma di silicone e immortalità.

Meta e il fantasma digitale di Ronaldo: come un deepfake scoperchia la farsa dell’intelligenza artificiale etica

È stato necessario l’intervento del Oversight Board, l’organo che Meta ha creato per farsi il bagno di trasparenza, perché qualcuno in azienda si degnasse di togliere un video truffaldino con protagonista a sua insaputa Ronaldo Nazário. Non il giovane Cristiano, ma il Fenomeno, quello vero. E anche il deepfake era tutto fuorché credibile: un doppiaggio posticcio, movimenti labiali scoordinati, e una promessa irreale guadagnare più che lavorando grazie a un giochino online chiamato “Plinko”.

Benvenuti nell’epoca dell’intelligenza artificiale generativa, dove la reputazione umana è una licenza open source, e i colossi tech oscillano tra l’ignoranza deliberata e la complicità algoritmica.

Brian Eno e il suono dell’ipocrisia: Microsoft, Gaza e l’arte della complicità algoritmica

Brian Eno, l’architetto sonoro che nel 1995 ha dato vita al celebre avvio di Windows, ha deciso di rompere il silenzio. Non con una nuova composizione ambient, ma con un’accusa frontale: Microsoft, la stessa azienda che un tempo gli commissionava suoni per rendere più umana la tecnologia, oggi sarebbe complice di un sistema di oppressione e violenza in Palestina. In un post su Instagram,

Quando i profeti della Silicon Valley costruiscono i loro bunker

Ci sono momenti in cui la realtà supera la distopia. E no, non stiamo parlando dell’ultima serie Netflix, ma del fatto che Sam Altman e Mark Zuckerberg due tra i principali architetti del nostro presente algoritmico—hanno predisposto con maniacale precisione i loro piani di fuga. Aerei sempre pronti. Piloti standby. Bunker degni di un film post-apocalittico. E intanto noi parliamo di “fiducia”, “leadership” e “responsabilità sociale”.

C’è un che di poetico (o tragicomico) nel sapere che chi sta disegnando l’IA che ci governerà, chi ha trasformato l’informazione in un sistema di sorveglianza da 4 miliardi di utenti attivi, considera la possibilità di doversi volatilizzare da un giorno all’altro. Non metaforicamente. Proprio fisicamente. Via. Con il jet privato. Verso l’isola. Il rifugio. L’autarchia digitale.

Dalla Silicon Valley a San Pietro: perché un magazine di AI racconta l’elezione di Leone XIV

Noi di Rivista.AI abbiamo seguito l’elezione del nuovo Papa con un interesse che non attiene solo alla curiosità di sapere chi sarebbe stato il successore di Francesco – il Papa più ecumenico e “evangelico” degli ultimi decenni – ma anche alla constatazione di come la Chiesa cattolica rappresenti oggi l’unico organismo globale capace di sfidare il rigore del ritorno ai nazionalismi imperanti. Se per “ecumenico” ed “evangelico” si intende un orizzonte davvero globale, la Santa Sede resta l’unico soggetto non statuale in grado di esercitare una leadership sovranazionale, con una composizione cardinalizia sempre meno eurocentrica, grazie ai “processi avviati” da Bergoglio.

Leone XIV, il Pontefice dei ponti: pace, umiltà e continuità

Un volto sereno, un’emozione trattenuta con grazia, la voce calda di un pastore esperto e accogliente. Ma dietro la compostezza del primo saluto, già si delinea con chiarezza la direzione del nuovo pontificato: la pace come priorità assoluta. Papa Leone XIV, al secolo Robert Francis Prevost, si è presentato così al mondo dalla Loggia di San Pietro. Primo Papa nordamericano nella storia della Chiesa, ma anche figura profondamente latina per via della sua lunga esperienza missionaria in Perù, Prevost ha scelto un nome che è tutto un programma: quello di Leone, il tredicesimo dei quali fu il padre della Rerum Novarum e dell’avvio della dottrina sociale della Chiesa.

Leone XIV: un Pontefice tra continuità sociale, speranza europea e radici agostiniane

La nomina di Robert Francis Prevost al soglio di Pietro, con la scelta del nome di Leone XIV, offre numerosi spunti di riflessione sul profilo e sulle possibili linee del suo Pontificato. Dalla risonanza internazionale della tradizione sociale della Chiesa, al desiderio d’unità e pace in un’Europa provata dai conflitti, fino alla specifica eredità spirituale agostiniana, emergono tre chiavi interpretative che aiutano a comprendere il significato – anche politico – di un Papa statunitense.

Vaticano. Il testo integrale del primo discorso di Papa Leone XIV

Vi riportiamo qui di seguito il testo integrale del primo discorso di Papa Prevost, Leone XIV, pronunciato al momento dell’affaccio da San Pietro dopo la sua elezione.

Leone XIV, l’America sul soglio di Pietro: fede, politica e diplomazia a stelle e strisce

Con l’elezione di Robert Francis Prevost a Papa, la Chiesa cattolica dà il benvenuto al suo primo Pontefice statunitense. Un evento che non riguarda solo la dimensione religiosa, ma solleva riflessioni profonde sul rapporto tra la Santa Sede e gli Stati Uniti, sulle tensioni interne al cattolicesimo americano e sulle possibili ricadute di una guida “a stelle e strisce” nel complesso equilibrio geopolitico mondiale.

Leone XIV, il Papa del lavoro nell’epoca dell’intelligenza artificiale

Dalla Rerum Novarum al nuovo Umanesimo digitale: il ritorno del Leone nel nome dei lavoratori. Con la scelta del nome Leone XIV, il neoeletto Pontefice Robert Francis Prevost si inserisce con decisione in una precisa tradizione della Chiesa cattolica: quella del coraggio pastorale, della dottrina sociale, del dialogo con il mondo moderno. Un nome che evoca un predecessore illustre: Leone XIII, autore nel 1891 dell’enciclica Rerum Novarum, il primo testo magisteriale a prendere posizione sui temi del lavoro, dei diritti dei lavoratori, del ruolo dello Stato e della giustizia sociale.

Habemus Papam: è Robert Francis Prevost il nuovo Pontefice. Si chiamerà Leone XIV

Un boato immenso ha attraversato piazza San Pietro quando, alle 19:13, si sono aperte le tende della Loggia delle Benedizioni. Davanti a oltre centomila fedeli in attesa, il cardinale protodiacono Dominique Mamberti ha pronunciato le parole attese dal mondo intero: “Annuntio vobis gaudium magnum: Habemus Papam.” Il 267esimo Papa della Chiesa cattolica è il cardinale statunitense Robert Francis Prevost, che ha scelto il nome di Leone XIV.

Con la sua elezione, la Chiesa universale volta una nuova pagina e si affida, per la prima volta nella storia, a un Pontefice nato negli Stati Uniti. Figura di grande esperienza pastorale e spirituale, Prevost raccoglie il testimone di Papa Francesco in un momento cruciale per il futuro della Chiesa e del mondo.

Google può comunque addestrare la sua AI con i tuoi contenuti, anche se hai detto no

Il tempismo è quasi comico. Da mesi circolano denunce, lamentele e segnalazioni sul fatto che i giganti del tech, Google in testa, abbiano usato i contenuti pubblici del web per addestrare le loro AI senza consenso esplicito. Eppure, la reazione collettiva era sempre la stessa: un’alzata di spalle ben coreografata. Tutti facevano finta di non sapere. Nessuno voleva toccare il vespaio. Dovevamo aspettare Bloomberg, ancora una volta, per vedere la bolla scoppiare in diretta.

Pagina 1 di 2

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie