Categoria: Editoria Pagina 1 di 3

Editoria e Diritto d’Autore

Marianna Bergamaschi Ganapini

Il futuro dell’intelligenza artificiale tra fiducia e scetticismo

Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.

Arte creatività e intelligenza artificiale generativa secondo Francesco d’Isa

La rivoluzione algoritmica. Arte e intelligenza artificiale

Parlare di arte oggi significa inevitabilmente parlare di intelligenza artificiale generativa. Francesco D’Isa, filosofo e artista, affronta questo nodo con una lucidità che taglia come lama: le macchine non sono autrici né nemiche, ma specchi in cui non sempre ci piace rifletterci. La rivoluzione algoritmica delle immagini non mette in discussione l’arte in sé, ma ci obbliga a rileggere i concetti di creatività, autorialità e percezione estetica. Le paure degli artisti, spesso concentrate sull’illusione di una minaccia economica o reputazionale, sono in gran parte infondate: l’IA non ruba il genio, amplifica ciò che già esiste, mostra la mediocrità e la prevedibilità dei gusti dominanti e, contemporaneamente, offre possibilità di esplorazione finora impensabili.

AI prende il controllo silenzioso delle redazioni locali: implicazioni profonde

L’ironia più pungente dell’era digitale è forse questa: mentre i titoloni annunciano la “morte del giornalismo” per mano dell’IA, una rivoluzione parallela silenziosa, sistematica, raramente dichiarata sta già avvenendo a livello locale.

Rewiring Democracy

l’intelligenza artificiale sta già riscrivendo la democrazia

L’intelligenza artificiale non è più uno strumento tecnico confinato ai laboratori di ricerca o alle startup iper-finanziate della Silicon Valley. È diventata una forza politica, un’architettura di potere che ridefinisce il modo in cui governi, istituzioni e cittadini interagiscono. Bruce Schneier e Nathan E. Sanders, nel loro libro Rewiring Democracy, lo spiegano con una lucidità quasi spietata: l’impatto dell’AI sulla democrazia non dipenderà dagli algoritmi in sé, ma dai sistemi e dagli incentivi che la governano. In altre parole, non è l’AI a essere democratica o autoritaria, ma chi la controlla e come la usa. È la politica del codice, non il codice della politica.

L’etica dell’intelligenza artificiale spiegata a mio figlio di Enrico Panai

Ci sono libri che ti sorprendono non per quello che dicono, ma per come lo dicono. L’etica dell’intelligenza artificiale spiegata a mio figlio, di Enrico Panai, appartiene a quella categoria rara che riesce a rendere la filosofia concreta, quasi commestibile. Mentre padre e figlio cucinano un piatto di pasta, un eccentrico zio di nome Phædrus interviene a scatti, come un “algoritmo difettoso ma illuminato”, aprendo spazi inattesi di riflessione. È un testo che si finge leggero per poter essere più profondo. Una conversazione domestica che diventa un laboratorio etico sull’intelligenza artificiale, sui suoi rischi e sulle nostre illusioni di controllo.

Michael Talbot: il codice segreto dell’universo olografico la realtà come illusione condivisa

Michael Talbot non era un mistico in cerca di visioni, ma un ricercatore indipendente che aveva osato porre la domanda più pericolosa della scienza moderna: e se la realtà non fosse reale? La sua teoria dell’universo olografico non era solo un elegante esercizio di immaginazione, ma una sfida diretta alla fisica, alla biologia e perfino alla medicina.

Sosteneva che ogni frammento del cosmo contiene l’intero universo, proprio come in un ologramma, e che la mente non è un sottoprodotto del cervello ma una porta di accesso a un campo più vasto di coscienza. L’idea, apparentemente poetica, è in realtà un colpo di maglio al materialismo su cui si è costruita la scienza moderna. Poi, in una curiosa coincidenza, Talbot morì improvvisamente subito dopo un’intervista in cui annunciava il suo nuovo libro: la guida pratica per applicare il modello olografico alla vita quotidiana. Un epilogo che molti trovarono inquietante, quasi il punto in cui la teoria si piega su sé stessa.

Intelligenza artificiale: salvezza e minaccia di Manfred Spitzer

L’intelligenza artificiale non è più una promessa ma una presenza, una forza che plasma la realtà più velocemente di quanto la politica riesca a pronunciare la parola “regolamentazione”. È il nuovo specchio della specie umana, una proiezione digitale delle nostre ambizioni e delle nostre paure, un motore che genera conoscenza e allo stesso tempo amplifica l’ignoranza. La verità, come sempre, è scomoda: l’intelligenza artificiale ci sta salvando e distruggendo con la stessa efficienza di un algoritmo ottimizzato.

Luciano Floridi e l’illusione dell’intelligenza artificiale che non pensa ma agisce

Luciano Floridi è tornato con un colpo ben assestato al cuore della narrazione dominante sull’intelligenza artificiale. Il filosofo della tecnologia, oggi direttore del Digital Ethics Center all’Università di Yale, ha pubblicato “La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale”, un libro che scardina la fascinazione collettiva per le macchine pensanti e riporta la discussione su un terreno più realistico, persino più inquietante. Floridi non nega la potenza dell’AI, ma la spoglia del mito antropomorfico. L’intelligenza artificiale, sostiene, non pensa. Agisce. Ed è proprio questa la sua natura più profonda e pericolosa.

Cosa ha chiesto CODA e perché “ghiblificare” è diventato un problema Report

CODA (Content Overseas Distribution Association), che rappresenta studi e editori giapponesi tra cui Studio Ghibli, Bandai Namco, Square Enix, ha inviato a OpenAI il 27 ottobre 2025 una lettera ufficiale, richiedendo che i contenuti dei suoi membri non vengano usati per l’addestramento (machine learning) di Sora 2 senza autorizzazione. (

La motivazione è chiara: molte delle opere generate da Sora 2 “somigliano strettamente” a contenuti giapponesi protetti da copyright. CODA sostiene che la mera replicazione (o produzione simile) come output possa costituire “riproduzione durante il processo di machine learning” e quindi violazione di copyright secondo il sistema giapponese.

In aggiunta, CODA contesta l’uso di una policy “opt-out” (cioè lasciar decidere ai titolari se farsi escludere) come insufficiente: secondo loro la legge giapponese richiede permesso preventivo, non la possibilità di obiettare dopo che il danno è già stato fatto.

Il romanzo scritto da intelligenza artificiale che ha superato gli umani in Giappone

Forse la fine dell’autore umano non arriverà con un boato ma con un algoritmo che scrive troppo velocemente per essere ignorato. È successo davvero: un romanzo scritto da intelligenza artificiale ha conquistato il primo posto nelle classifiche quotidiane di Kakuyomu, la piattaforma letteraria di Kadokawa, gigante editoriale giapponese che da anni alimenta l’industria di manga, anime e light novel. Il titolo, lungo quanto un prompt di programmatore distratto, suona così: “Mi sono scontrato con una ragazza a un angolo e ho usato la magia curativa su di lei, guarendola da una malattia incurabile e dalla cecità, e lei si è molto affezionata a me”. Una sintesi perfetta dell’attuale equilibrio tra banalità narrativa e potenza computazionale.

Maria Rosaria Taddeo: Codice di Guerra e intelligenza artificiale: etica, armi autonome e cybersicurezza militare

Il dibattito pubblico sull’uso dell’intelligenza artificiale in contesti militari è passato rapidamente dalle aule universitarie ai titoli dei quotidiani grazie a Codice di guerra. Etica dell’intelligenza artificiale nella difesa di Mariarosaria Taddeo. Il saggio, pubblicato da Raffaello Cortina Editore, non si limita a una riflessione teorica: affronta il cuore pulsante di dilemmi concreti che riguardano la sicurezza nazionale, l’uso di armi autonome, il cyberspazio e le cosiddette guerre invisibili dei dati. La reazione della stampa non si è fatta attendere. Corriere della Sera, Il Giornale, Huffington Post, ANSA, SkyTg24, Il Sole 24 Ore e perfino Radio Rai 1 hanno messo sotto i riflettori una questione che fino a poco tempo fa sembrava confinata a specialisti di tecnologia e filosofia morale.

Il paradosso della produttività AI: più veloce, meno personale

La maggior parte degli strumenti di scrittura basati sull’intelligenza artificiale non riesce a cogliere il tono giusto. Stiamo guardando proprio te, ChatGPT, con la tua predilezione per le lineette e le frasi che sembrano sempre voler contrapporre un concetto all’altro. Il punto cruciale è che i Modelli Linguistici di Grande Scala (LLM) ci rendono innegabilmente più veloci, ma non necessariamente migliori. Sebbene si possa pubblicare di più, si finisce inevitabilmente per suonare come tutti gli altri. La voce diventa più levigata e uniforme, mentre il pensiero che c’è dietro si assottiglia.

Netflix e l’intelligenza artificiale: lettera agli investitori creatività o calcolo?

Netflix ha deciso di non restare a guardare mentre l’industria dell’intrattenimento si interroga su quando e come utilizzare l’intelligenza artificiale generativa nel filmmaking. Nel suo rapporto trimestrale, il gigante dello streaming ha dichiarato di essere “molto ben posizionato per sfruttare efficacemente i continui progressi nell’IA”.

Tuttavia, ha anche precisato che non intende utilizzare l’IA generativa come pilastro centrale dei suoi contenuti, ma la considera uno strumento per rendere più efficienti i processi creativi. Il CEO Ted Sarandos ha sottolineato che “ci vuole un grande artista per creare qualcosa di grande”; l’IA può fornire agli artisti strumenti migliori per migliorare l’esperienza complessiva di TV e film per gli utenti, ma non rende automaticamente un cattivo narratore un grande storyteller.

Conservation Process Model: un ponte concettuale tra restauro e dati interoperabili

An ontology for Conservation in Architecture

Il libro Conservation Process Model (2025), edito da Sapienza Università Editrice in open access (pdf disponibile, 306 pagine, licenza CC BY-NC-ND) è il risultato di un percorso scientifico durato decenni da parte delle professoresse Marta Acierno e Donatella Fiorani, con l’obiettivo ambizioso di definire un’ontologia dedicata al dominio della conservazione architettonica. L’idea cardine: non lasciare che i dati restino “confinati” in silos, ma costruire un linguaggio concettuale che permetta di mettere ordine nel caos, favorire interoperabilità, ragionamento automatico e continuità della conoscenza nel tempo.

Wikipedia contro l’intelligenza artificiale: la battaglia silenziosa per la sopravvivenza del sapere umano

Wikipedia sta perdendo visitatori umani. Non utenti distratti, non curiosi occasionali, ma persone in carne e ossa. La Wikimedia Foundation ha ammesso un calo di traffico umano di circa l’8% tra maggio e agosto 2025 rispetto allo stesso periodo dell’anno precedente, dopo aver scoperto che una parte significativa delle visite proveniva da bot mascherati da esseri umani, in gran parte provenienti dal Brasile. È una scoperta imbarazzante ma rivelatrice: il più grande archivio di conoscenza condivisa della storia moderna è diventato terreno fertile per algoritmi che si travestono da lettori. Un paradosso perfetto per l’era dell’intelligenza artificiale generativa.

Gino Roncaglia l’architetto e l’oracolo: quando il sapere diventa un software imperfetto

Nel libro L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, Gino Roncaglia fa una cosa che pochi accademici italiani osano: affronta di petto la collisione fra epistemologia classica e intelligenza artificiale generativa. È un terreno scivoloso, dove la filosofia incontra la programmazione e il sapere diventa un software imperfetto. Roncaglia lo sa, e come ogni architetto consapevole del rischio di crollo, costruisce con pazienza un edificio che è insieme teoria, critica e visione.

Nel suo impianto, due figure si fronteggiano come divinità greche costrette a collaborare. L’Architetto, custode dell’ordine enciclopedico, convinto che il sapere debba essere strutturato, verificabile, gerarchico. L’Oracolo, entità generativa, probabilistica, che parla per approssimazioni, sforna risposte e versi con la stessa indifferenza statistica con cui un generatore casuale produce meraviglia. Uno costruisce il sapere, l’altro lo prevede. Entrambi pretendono di conoscerlo.

Quanto siamo responsabili? Filosofia, neuroscienze e società

Il concetto di responsabilità ha l’aria di un vecchio fantasma: lo senti presente in ogni discussione morale, politica o giuridica, eppure resta sfuggente, come se sfuggisse a ogni definizione netta. Nel libro curato da Mario De Caro, Andrea Lavazza e Giuseppe Sartori, questa nebulosa viene sviscerata con un approccio che attraversa filosofia, neuroscienze e scienze sociali, mettendo a nudo la fragilità e la complessità della nostra idea di agire come individui responsabili.

Libri indispensabili per comprendere davvero l’intelligenza artificiale e il deep learning

Se credi che l’AI sia solo prompt da digitare e output da copiare, stai per fare un errore strategico. Prima di costruire modelli, costruisci comprensione. Il rischio maggiore non è fallire con un progetto di machine learning, ma partire senza capire i meccanismi che lo governano. Questa raccolta di libri selezionati a mano ti costringe a entrare nelle viscere dell’intelligenza artificiale, del machine learning e del deep learning, senza scorciatoie da hype digitale.

Il contenuto generato AI ha superato quello umano

È ufficiale. Dalla fine del 2024, il numero di articoli generati da intelligenze artificiali ha superato quello degli articoli scritti da esseri umani. Una rivoluzione silenziosa che ha trasformato il web in un’enorme officina di testi prodotti da modelli linguistici come ChatGPT, Claude e Gemini, mentre le redazioni umane si ritirano dietro quinte digitali sempre più affollate.

Ma ecco il paradosso: nonostante questa invasione, la curva di crescita si è improvvisamente fermata. Dopo il picco di maggio 2024, la percentuale di contenuti AI pubblicati si è stabilizzata. È come se il web avesse raggiunto un punto di saturazione, o forse un momento di autoconsapevolezza. Gli editori stanno iniziando a capire che la quantità non è sinonimo di visibilità. Google e ChatGPT, secondo i dati, non mostrano la maggior parte di questi articoli nelle loro risposte. È un po’ come stampare milioni di copie di un giornale e poi scoprire che nessuno le distribuisce.

Habitual Ethics?: il doppio taglio dell’abitudine nell’era digitale di Sylvie Delacroix

La domanda che Delacroix pone non è accademica ma urgente: la tecnologia può trasformare le nostre abitudini in gabbie morali. Habitual Ethics? smonta con rigore la presunzione moderna secondo la quale qualsiasi abitudine possa essere sempre (e facilmente) piegata alla volontà razionale e ci obbliga a fare i conti con il rovescio oscuro del “comportamento che si ripete”.

In un sistema dove le tecnologie data-intensive modellano pattern di comportamento con precisione quasi chirurgica, le nostre abitudini non sono più solo “abitudini”: diventano infrastrutture morali, elementi silenziosi che determinano cosa consideriamo normale, invisibile, desiderabile. Ma se queste infrastrutture si cristallizzano, siamo davvero ancora liberi di deviarle?

Gino Roncaglia: il filosofo che decifra il futuro digitale e l’era dell’IA

Gino Roncaglia è da tempo un punto di riferimento imprescindibile per chiunque voglia comprendere le complesse dinamiche tra il mondo del libro, l’editoria digitale e la cultura di rete. Filosofo, saggista e Professore Ordinario di Filosofia dell’informazione, Editoria digitale e Digital Humanities presso l’Università Roma Tre, Roncaglia non si limita a osservare l’evoluzione tecnologica; la analizza con l’occhio acuto di chi conosce sia la storia profonda del sapere (dalla logica medievale alla biblioteca) sia le frontiere più estreme del digitale, in primis l’Intelligenza Artificiale Generativa (IAG).

Quando la democrazia digitale incontra l’intelligenza artificiale: progettare l’incertezza per salvare il dialogo pubblico

Designing with Uncertainty Sylvie Delacroix

C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.

La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.

Reshuffle: perché la coordinazione, non l’automazione, è la vera rivoluzione

Quando ho letto Reshuffle di Sangeet Paul Choudary, ho capito che molti nel mondo tech stanno giocando a indovinare come “automazione” cambierà i settori, mentre la vera mossa vincente è altrove. Choudary invita a uno shift mentale radicale: l’IA non come strumento che fa meglio ciò che già facciamo, ma come strato di coordinazione dell’intelligenza artificiale che rimappa flussi, nodi e potere nei sistemi.

Se continui a pensare all’IA come “macchina per sostituire lavoro”, stai perdendo il gioco. Invece guarda all’orchestrazione sistemica: chi saprà disegnare la danza tra attori umani, dati e modelli, controllerà il nuovo paesaggio competitivo.

Royal Society Trivedi Science Book Prize 2025: vince Our Brains, Our Selves di Masud Husain

La Royal Society ha appena annunciato che il vincitore del Royal Society Trivedi Science Book Prize 2025 è Our Brains, Our Selves: What a Neurologist’s Patients Taught Him About the Brain di Masud Husain. Questo riconoscimento, sostenuto dalla Trivedi Family Foundation, celebra la divulgazione scientifica d’élite — non la semplificazione scontata, ma il racconto potente che fonde scienza rigorosa e umanità.

Critical Intelligence: narrazioni sotto la macchina

Che cosa succede quando le macchine non si limitano più a produrre immagini, ma iniziano a plasmare realtà? Non parliamo solo di pixel, ma di percezioni. Quando l’intelligenza artificiale genera in tempo reale ciò che vediamo, ascoltiamo e forse un giorno perfino ciò che sentiamo sulla pelle, la questione smette di essere un semplice gioco tecnologico e diventa un fatto politico ed estetico. La seconda edizione di The AI Art Magazine porta in copertina un titolo che non ha nulla di accomodante: Critical Intelligence — narratives under the machine. Una dichiarazione di intenti che non offre risposte lisce e ben stirate, ma preferisce mettere il dito nelle crepe, far emergere le contraddizioni, e soprattutto invitare a non fidarsi troppo delle narrazioni che nascono sotto la macchina, prima che siano loro a riscrivere noi.

Mario de Caro e Benedetta Giovanola presentano intelligenze, etica e politica delle AI

L’intelligenza artificiale non è più una promessa lontana o un espediente da film di fantascienza, è un fatto concreto che entra nella vita quotidiana senza bussare. Il nuovo volume Intelligenze, etica e politica delle AI, appena pubblicato per Il Mulino, affronta questo fenomeno con uno sguardo lucido e problematizzante, senza cedere alla fascinazione dei futuristi o al catastrofismo dei complottisti. L’idea centrale è semplice e ambiziosa: studiare come l’intelligenza artificiale modifichi, interferisca e reindirizzi le nostre vite nel bene e nel male, basandosi sui fatti più che sulle narrazioni precostituite.

Intelligenze Etica e Politica dell’IA Mario De Caro e Benedetta Giovanola

Il dibattito sull’intelligenza artificiale continua a oscillare tra catastrofismo hollywoodiano e ottimismo ingenuo da Silicon Valley. In questo contesto, il libro di Mario De Caro e Benedetta Giovanola si distingue per un approccio critico, bilanciato e sorprendentemente lucido. L’IA non è più solo codice e algoritmi: diventa terreno etico, soggetto potenziale e fattore di trasformazione politica e sociale. La chiave, spiegano gli autori, non è predire il futuro con tecnologie futuribili ma capire oggi come agiamo e come l’IA cambia le regole del gioco. Questo è un punto fondamentale: la filosofia non si limita a speculare, indaga, sfida e costringe a pensare ciò che spesso l’industria tecnologica ignora con comodo entusiasmo.

IF ANYONE BUILDS IT EVERYONE DIES

Il titolo già ti prende a pugni: se qualcuno costruisce un’intelligenza superiore, tutti muoiono. Non è un film di Hollywood, ma la premessa di Eliezer Yudkowsky e Nate Soares, filosofi razionali e guru del movimento “rationalist”, suona come un avvertimento apocalittico per chi ancora pensa che l’intelligenza artificiale sia solo uno strumento di produttività o di curiosità scientifica. Gli autori non parlano di scenari futuristici astratti, ma di rischi reali derivanti dall’architettura stessa dei modelli di AI odierni: sistemi che non vengono programmati riga per riga, ma “cresciuti” con miliardi di parametri, rendendo il loro comportamento intrinsecamente imprevedibile.

Mario De Caro: Realtà

Mario De Caro, con il suo libro Realtà, pubblicato da Bollati Boringhieri, riporta al centro della scena filosofica il dibattito sul realismo e sull’antirealismo con una precisione chirurgica e un’ironia da veterano della filosofia contemporanea. Per decenni il realismo sembrava confinato ai margini, ironicamente soprannominato “marsupiale della filosofia”, mentre l’antirealismo dominava la riflessione accademica, dalla filosofia analitica a quella continentale. L’antirealista moderno accetta una realtà extramentale, ma la considera amorfa, destrutturata, e legata più alle categorie della mente o del linguaggio che al mondo stesso. Thomas Kuhn ci ricorda che i paradigmi definiscono il mondo, mentre Hilary Putnam, nella fase del “realista interno”, mostra come mente e mondo si generino insieme, un gioco di specchi che rende ogni certezza ontologica sospetta.

Etica e Politica dell’IA Mario De Caro

Steve McConnell: evoluzione AI nello sviluppo software e il nuovo ruolo del developer

Steve McConnell non ha bisogno di presentazioni. Il suo “Code Complete” è una bibbia pratica per chiunque scriva codice da più di trent’anni, sopravvivendo a rivoluzioni linguistiche e metodologiche che avrebbero fatto tremare chiunque. Nonostante tutto, le sue strategie rimangono sorprendentemente attuali.

L’aggiornamento con Jeffrey Van Gogh, oggi a capo dell’ingegneria software di Google, non solo aggiorna il contesto ma affronta con coraggio alcuni dei temi più controversi del libro. La cosa più interessante, almeno per chi segue le evoluzioni dell’AI applicata al software, è il modo in cui McConnell riflette sul futuro dei team di sviluppo: l’AI non sostituirà gli sviluppatori, li farà evolvere.

Benedetta Giovanola

ETICA E INTELLIGENZA ARTIFICIALE PER L’IMPRESA

Il libro di Benedetta Giovanola, Etica e intelligenza artificiale per l’impresa, merita un’analisi che vada oltre la superficie. Non è un semplice manuale tecnico, ma una riflessione critica sulla complessità di integrare sistemi intelligenti in contesti aziendali, senza perdere di vista valori, principi e purpose. Giovanola non si limita a spiegare cosa sia l’IA o come funzioni: costruisce un vero e proprio percorso etico e strategico, suggerendo che la tecnologia non è mai neutra, e che la bussola morale diventa un asset competitivo.

Libri che decodificano il futuro dell’AI: Summerfield e Patel offrono chiarezza amid the hype

Nel panorama attuale, dove l’intelligenza artificiale è spesso presentata come una panacea tecnologica, due opere emergono per la loro capacità di offrire una visione lucida e critica: These Strange New Minds di Christopher Summerfield e The Scaling Era di Dwarkesh Patel. Entrambi gli autori, con approcci distinti, cercano di separare il rumore mediatico dalla sostanza scientifica, fornendo ai lettori gli strumenti per comprendere veramente la natura e l’evoluzione dell’AI.

If Anyone Builds It Everyone Dies

Eliezer Yudkowsky e Nate Soares hanno scritto un avvertimento che suona come fantascienza ma purtroppo non lo è: in If Anyone Builds It, Everyone Dies, delineano una traiettoria realistica in cui un’intelligenza artificiale avanzata sfugge al controllo umano e, senza troppi complimenti, annienta l’umanità. Non è la solita predica da fanatico tecnologico, qui parliamo di matematica, psicologia dei sistemi complessi e dell’incredibile facilità con cui possiamo sottovalutare la minaccia di un “cervello digitale” che cresce più veloce di quanto il nostro cervello umano riesca a capire.

RSL standard: quando gli editori cercano di trasformare i bot in contribuenti

Il mondo digitale è un teatro di potere dove chi pubblica prova a riprendersi il conto in banca. Questa settimana un gruppo di editori e piattaforme ha messo in campo un piano che suona semplice ma ha una potenziale portata gigante: Really Simple Licensing, abbreviato RSL, un nuovo standard aperto che permette ai proprietari di contenuti di specificare termini di licenza e compenso direttamente nei loro file robots.txt o nei metadati dei contenuti. L’annuncio, sostenuto da nomi come Reddit, Yahoo, Medium, Quora e People Inc., rappresenta più di una protesta politica contro il furto dati: è un tentativo deliberato di ridefinire la valuta dell’ecosistema informativo.

Giornalismo a rischio: come l’intelligenza artificiale sta distruggendo le redazioni

Il giornalismo moderno sta affrontando un paradosso inquietante. Da un lato, l’intelligenza artificiale promette velocità, automazione e risparmio, dall’altro sta mostrando con crudele chiarezza i suoi limiti. Le aziende mediatiche si affrettano a integrare strumenti AI nelle redazioni, ma i primi risultati sollevano più allarmi che entusiasmi. Un report di Futurism evidenzia errori ricorrenti, sintesi ingannevoli e contenuti copiati, mettendo in discussione la credibilità dell’informazione e la salute finanziaria del settore. Il sogno di sostituire giornalisti umani con algoritmi si scontra con una realtà impietosa.

Molti dirigenti dei media scommettono sull’intelligenza artificiale come arma per tagliare i costi. La logica sembra semplice: meno reporter, più articoli prodotti più velocemente, senza stipendi e senza pause. In pratica, i risultati sono spesso imbarazzanti. Articoli incoerenti, privi di contesto, con informazioni errate o inventate. La tecnologia pensata per alleggerire il lavoro giornalistico finisce per creare ulteriore fatica: ogni frase richiede fact-checking, correzioni e spesso una riscrittura completa.

Build a Large Language Model (From Scratch)

In un mercato saturo di librerie ready-made come Hugging Face, questo repository non è un’alternativa, ma un atto di dissoluzione dell’“effetto pantone”: ti costringe a smontare il motore, capire ogni ingranaggio, e ricostruirlo con le tue mani.

Il progetto è l’implementazione ufficiale del libro Build a Large Language Model (From Scratch) di Sebastian Raschka, pubblicato da Manning. Non è un testo di facciata: comprende codice in Python, notebook Jupyter esplicativi e una guida capillare che copre ogni fase, dalla tokenizzazione fino all’addestramento, passando per l’attenzione multi-head e il fine-tuning per istruzioni.

Companion to Digital Ethics

Finalmente arriva la notizia ufficiale Il libro “A Companion to Digital Ethics”, curato da Luciano Floridi e Mariarosaria Taddeo, è ora disponibile e include un contributo di Andrés Páez dal titolo “Explainability of Algorithms”. Interessante notare che il prezzo in copertina per il formato hardcover è rivolto alle biblioteche, quindi non preoccupatevi, non è una strategia commerciale contro il lettore comune.

Il capitolo di Páez si inserisce in un contesto ormai cruciale: la capacità di rendere gli algoritmi comprensibili non è più un optional filosofico ma una necessità pratica. Con l’espansione dell’Intelligenza Artificiale in settori regolati, dalla sanità alla giustizia, la trasparenza algoritmica diventa sinonimo di responsabilità e fiducia. Floridi e Taddeo hanno costruito un volume che affronta temi etici digitali con rigore accademico, ma anche con uno sguardo che non ignora le implicazioni sociali immediate.

Google e la guerra silenziosa per il traffico web: sopravvivere nell’era delle AI Overview

Chi si ostina a pensare che il traffico organico da Google sia una fonte stabile e perpetua, oggi somiglia a chi negli anni ’90 investiva tutto nei fax pensando che l’email fosse solo una moda passeggera. L’ecosistema della ricerca è entrato in una fase in cui le vecchie regole non valgono più e dove la keyword principale, “ai overview”, è diventata sia il boia che il salvatore delle strategie di content marketing. Non è un semplice cambiamento di interfaccia: è una riallocazione brutale del valore. L’utente ottiene la risposta senza cliccare, il publisher resta con le briciole, e Google si presenta come il mediatore indispensabile di un nuovo patto informativo in cui il clic non è più l’unità di misura del successo. È come se il supermercato avesse iniziato a servire assaggi illimitati e gratuiti di tutti i prodotti, riducendo l’incentivo ad acquistare.

Guerra sporca ai contenuti generati da intelligenza artificiale su Wikipedia

Quello che sta accadendo in Wikipedia in questi mesi è una sorta di stress test globale per l’ecosistema dell’informazione, e la reazione dei suoi editori volontari assomiglia pericolosamente al comportamento di un sistema immunitario sotto attacco. Gli agenti patogeni in questione non sono malware o cyber-attacchi, ma bozze malconce e citazioni inventate di sana pianta, prodotte in quantità industriale da strumenti di scrittura basati su intelligenza artificiale. Il problema non è tanto l’esistenza di questi testi, ma la velocità con cui riescono a invadere lo spazio editoriale e la difficoltà di bonificarlo senza consumare energie e tempo che, in teoria, dovrebbero essere destinati al miglioramento della qualità complessiva dei contenuti.

Pagina 1 di 3

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie