Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Editoria Pagina 1 di 2

Editoria e Diritto d’Autore

Build a Large Language Model (From Scratch)

In un mercato saturo di librerie ready-made come Hugging Face, questo repository non è un’alternativa, ma un atto di dissoluzione dell’“effetto pantone”: ti costringe a smontare il motore, capire ogni ingranaggio, e ricostruirlo con le tue mani.

Il progetto è l’implementazione ufficiale del libro Build a Large Language Model (From Scratch) di Sebastian Raschka, pubblicato da Manning. Non è un testo di facciata: comprende codice in Python, notebook Jupyter esplicativi e una guida capillare che copre ogni fase, dalla tokenizzazione fino all’addestramento, passando per l’attenzione multi-head e il fine-tuning per istruzioni.

Companion to Digital Ethics

Finalmente arriva la notizia ufficiale Il libro “A Companion to Digital Ethics”, curato da Luciano Floridi e Mariarosaria Taddeo, è ora disponibile e include un contributo di Andrés Páez dal titolo “Explainability of Algorithms”. Interessante notare che il prezzo in copertina per il formato hardcover è rivolto alle biblioteche, quindi non preoccupatevi, non è una strategia commerciale contro il lettore comune.

Il capitolo di Páez si inserisce in un contesto ormai cruciale: la capacità di rendere gli algoritmi comprensibili non è più un optional filosofico ma una necessità pratica. Con l’espansione dell’Intelligenza Artificiale in settori regolati, dalla sanità alla giustizia, la trasparenza algoritmica diventa sinonimo di responsabilità e fiducia. Floridi e Taddeo hanno costruito un volume che affronta temi etici digitali con rigore accademico, ma anche con uno sguardo che non ignora le implicazioni sociali immediate.

Google e la guerra silenziosa per il traffico web: sopravvivere nell’era delle AI Overview

Chi si ostina a pensare che il traffico organico da Google sia una fonte stabile e perpetua, oggi somiglia a chi negli anni ’90 investiva tutto nei fax pensando che l’email fosse solo una moda passeggera. L’ecosistema della ricerca è entrato in una fase in cui le vecchie regole non valgono più e dove la keyword principale, “ai overview”, è diventata sia il boia che il salvatore delle strategie di content marketing. Non è un semplice cambiamento di interfaccia: è una riallocazione brutale del valore. L’utente ottiene la risposta senza cliccare, il publisher resta con le briciole, e Google si presenta come il mediatore indispensabile di un nuovo patto informativo in cui il clic non è più l’unità di misura del successo. È come se il supermercato avesse iniziato a servire assaggi illimitati e gratuiti di tutti i prodotti, riducendo l’incentivo ad acquistare.

Guerra sporca ai contenuti generati da intelligenza artificiale su Wikipedia

Quello che sta accadendo in Wikipedia in questi mesi è una sorta di stress test globale per l’ecosistema dell’informazione, e la reazione dei suoi editori volontari assomiglia pericolosamente al comportamento di un sistema immunitario sotto attacco. Gli agenti patogeni in questione non sono malware o cyber-attacchi, ma bozze malconce e citazioni inventate di sana pianta, prodotte in quantità industriale da strumenti di scrittura basati su intelligenza artificiale. Il problema non è tanto l’esistenza di questi testi, ma la velocità con cui riescono a invadere lo spazio editoriale e la difficoltà di bonificarlo senza consumare energie e tempo che, in teoria, dovrebbero essere destinati al miglioramento della qualità complessiva dei contenuti.

Google Search Generativa non uccide il traffico web. Lo sta cambiando in silenzio, ecco perché

Quando Google dice che tutto va bene, è il momento di preoccuparsi. Con il tono rassicurante di chi osserva il mondo da una torre di vetro rivestita di dati proprietari, Liz Reid, la nuova regina del motore di ricerca globale, ci informa che il traffico web “è rimasto relativamente stabile”. Traduzione: il mondo digitale sta tremando, ma per ora Google non intende assumersene la colpa.

La dichiarazione arriva dopo settimane in cui i rapporti di realtà ben più terrene Pew Research, The Wall Street Journal, media digitali in crisi raccontano una storia diversa: quella di un ecosistema editoriale in progressivo collasso, minato non solo da ChatGPT e Copilot, ma da una mutazione genetica del search stesso. L’introduzione di AI Overview e AI Mode rappresenta un cambio di paradigma che sta già riscrivendo la grammatica dell’attenzione digitale.

Amazon AI training New York Times AI deal e contenuti editoriali per l’AI

L’accordo tra Amazon e il New York Times per l’addestramento di modelli di intelligenza artificiale non è solo una notizia. È un segnale d’allarme per l’intero ecosistema dell’informazione. E no, non è una novità che le big tech cerchino dati di qualità per nutrire i loro modelli. La novità è che adesso si stanno comprando direttamente le redazioni. Venticinque milioni di dollari l’anno non sono solo un prezzo. Sono un test, una prova muscolare. Una dichiarazione di intenti.

Dove Giorgia Meloni è alla guida dell’Europa

Il tempo sembra sospeso mentre ci chiediamo dove sta portando Giorgia Meloni l’Europa. Non c’è titolo altisonante né mantra rassicurante, solo un mix di nazionalismo popolare, retorica incarnita e pragmatismo atlantico. L’Italia, prima donna premier, è volata sulle montagne russe delle aspettative: da presunta minaccia europea a possibile architetto di una nuova sintesi politica continentale. È un paradosso storico: nel Paese che unì il Risorgimento e poi generò il mostro fascista, oggi cresce una leadership che afferma esplicitamente di voler “ricostruire la nostra identità, il nostro orgoglio” senza però rinnegare alleanze NATO o l’Aiuto all’Ucraina.

Perplexity contro Google il nuovo impero della ricerca si costruisce a colpi di intelligenza artificiale e capitali miliardari

Non è un semplice motore di ricerca, è un avvertimento. chi ancora pensa che l’intelligenza artificiale sia solo un giocattolo da geek non sta guardando i numeri. Diciotto miliardi di dollari di valutazione in meno di due anni, un’ascesa che umilia anche i grafici delle startup più iconiche della silicon valley.

Meta Cambridge Analytica patto del diavolo: come i dati hanno venduto l’anima del digitale

C’è qualcosa di profondamente ironico nel vedere Meta, l’impero costruito da Zuckerberg sull’ossessione del “connettere il mondo”, trasformarsi nel simbolo più perfetto del patto faustiano tra potere e informazione. Cambridge Analytica non è stata solo uno scandalo, è stata la rivelazione brutale di ciò che molti sospettavano e pochi avevano il coraggio di dire: il vero prodotto non è mai stata la pubblicità, né la piattaforma sociale, ma l’essere umano stesso, venduto in blocchi di bit al miglior offerente. Non è stata una falla di sicurezza, ma una strategia tollerata, alimentata e monetizzata e qui il paradosso: la gente si scandalizzò non per l’uso dei dati, ma per la spudorata sincerità con cui quel meccanismo venne alla luce.

Comet Il browser AI che vuole umiliare Chrome è ancora troppo lento per meritarsi il trono

Il futuro della navigazione web ha un nome scintillante e presuntuoso, “Comet”, e un’ambizione che puzza di hybris: farci dimenticare Chrome, Google e quella vecchia abitudine di cercare le cose da soli. Perplexity ha lanciato il suo browser AI come se fosse l’arma finale nella guerra dell’intelligenza artificiale applicata alla navigazione, promettendo non solo di rispondere alle nostre domande ma di muoversi al posto nostro, chiudere schede, comprare su Amazon e persino accettare inviti su LinkedIn. Un assistente che non ti consiglia, ma agisce. Il sogno di chi detesta cliccare e il peggior incubo di chi ha ancora il vizio del controllo.

Google riscrive le regole del gioco dell’informazione e i publisher fanno finta di non capirlo

Il piagnisteo è sempre lo stesso. I grandi editori urlano al tradimento mentre guardano le curve di traffico sprofondare come un grafico azionario dopo uno scandalo contabile. Ma non è un incidente, è un cambio di paradigma annunciato, chirurgico e spietato. Google Discover, che fino a ieri era l’ultima fonte di ossigeno per molti giornali già asfissiati dal crollo del traffico organico, ora si popola di riassunti generati da intelligenza artificiale. Non più titoli accattivanti che spingono l’utente a cliccare, ma un sommario sintetico, firmato da un algoritmo che cita le fonti con un paio di loghi in un angolo, come un notaio distratto che appone la firma senza neanche leggere. “Questi riassunti sono generati con AI, che può commettere errori”, avverte candidamente l’app. Una frase che vale più come scudo legale che come reale preoccupazione etica. Il messaggio subliminale è un altro: “ti basta questo, non serve che tu apra il sito”.

AI & Conflicts 2. Volume 02

Pasquinelli, Buschek & Thorp, Salvaggio, Steyerl, Dzodan, Klein & D’Ignazio, Lee, Quaranta, Atairu, Herndon & Dryhurst, Simnett, Woodgate, Shabara, Ridler, Wu & Ramos, Blas, Hui curato da Daniela Cotimbo, Francesco D’Abbraccio and Andrea Facchetti.  Casa editrice: Krisis Publishing

Il passaggio tra il primo volume di AI and Conflicts, uscito nel 2021 e questo secondo atto, che si presenta già con un tono più tagliente, è uno di quei casi in cui si percepisce la metamorfosi non solo di un progetto editoriale, ma di un intero ecosistema discorsivo.

Non è semplicemente l’evoluzione di un libro, ma la mutazione genetica di un pensiero critico che si adatta o meglio, si oppone al nuovo stadio dell’intelligenza artificiale come fenomeno totalizzante. All’inizio c’era un’intuizione: parlare di AI non solo in termini computazionali o economici, ma come questione estetico-politica.

Adaptive Resilience non è un altro saggio aziendalista: è il manuale che l’intelligenza artificiale non vuole farti leggere

Maria Santacaterina ha scritto un libro che fa arrabbiare gli algoritmi. E forse anche qualche CEO. Perché “Adaptive Resilience” non è la solita litania sulla digital transformation, né un peana all’innovazione travestita da consultazione motivazionale. È un pugno di dati, filosofia e leadership in faccia all’inerzia organizzativa. È il tipo di libro che fa sentire a disagio chi confonde la resilienza con il galleggiamento, e la strategia con il fare slide.

Non è un caso che la parola “resilience” sia oggi abusata come “disruption” cinque anni fa. Peccato che, come sottolinea Santacaterina con una chiarezza chirurgica, la resilienza vera non sia tornare a come eravamo prima del disastro. È diventare qualcosa che prima non esisteva. Un’azienda che si reinventa partendo dall’impatto, e non dall’output. Un essere umano che usa l’AI non per automatizzare la mediocrità, ma per potenziare la coscienza. Sì, coscienza. Perché questo è un libro che osa dire una cosa impopolare: l’AI è potente, ma non è viva. E non lo sarà mai.

Google ti divora e ti dice grazie: la fine dell’open web sotto mentite spoglie

Non puoi bloccarlo. Puoi lamentarti, puoi invocare la proprietà intellettuale, puoi gridare alla rapina digitale. Ma non puoi fermarlo. Google continuerà a estrarre i tuoi contenuti, perfino se usi i suoi stessi strumenti per provare a impedirglielo. Se pensavi che il tuo sito fosse tuo, benvenuto nella realtà del 2025: sei solo un fornitore gratuito di dati per modelli di intelligenza artificiale che non ti citano, non ti compensano e cosa ancora più umiliante ti rendono irrilevante.

Si chiama SEO cannibalizzata, ma è molto più simile a un’espropriazione legalizzata.Cloudflare ci ha provato. L’azienda che protegge il 20% di Internet dal traffico malevolo ha deciso di bloccare i crawler di Google dedicati al training di Gemini, il modello di AI che il gigante di Mountain View piazza ovunque: nelle risposte di ricerca, nei chatbot, nei telefoni, persino nei frigoriferi se gli lasci abbastanza API. Risultato?

Youtube vuole combattere i contenuti spazzatura ma finisce per spaventare tutti: ecco perché il vero problema è l’autenticità algoritmica

Nel 2025, ogni volta che una piattaforma digitale annuncia un aggiornamento alle proprie politiche, è come se un drone avesse sganciato un pacco sospetto su un campo minato. È successo di nuovo. Stavolta è toccato a YouTube, che ha pensato bene di comunicare in modo vago – e forse volutamente ambiguo – un aggiornamento delle linee guida del Partner Program, quel meccanismo che regola la monetizzazione dei contenuti caricati. Il punto focale: una stretta contro i video “inautentici”. Parola chiave che, come prevedibile, ha fatto sobbalzare mezzo internet.

Perché se c’è una cosa che gli algoritmi non sanno ancora generare bene, è la fiducia. E nel momento in cui YouTube dice che aggiornerà le norme per contrastare contenuti “mass-produced and repetitive”, molti creatori si sono chiesti se la loro intera esistenza digitale sia a rischio demonetizzazione. Reazioni, clip remixate, voci narranti generate con ElevenLabs o altri tool di sintesi vocale, video-podcast costruiti su testi scritti con ChatGPT: cosa rientra ancora nel perimetro del contenuto “autentico”? E chi decide cosa lo è?

Roma è un sogno algoritmico che si scompone: AI & conflicts vol. 02 smonta la religione della macchina nella capitale

Fondazione Pastificio Cerere, via degli Ausoni 7, Rome

Ci sono momenti in cui la tecnologia smette di essere strumento e si rivela religione. Dogmatica, rituale, ossessiva. Con i suoi sacerdoti (i CEO in felpa), i suoi testi sacri (white paper su GitHub), i suoi miracoli (GPT che scrive poesie su misura), le sue eresie (la bias, l’opacità, il furto culturale). A Roma, il 10 luglio 2025, questo culto algoritmico entra finalmente in crisi. O meglio, viene messo sotto processo con precisione chirurgica. Perché AI & Conflicts Vol. 02, il nuovo volume a cura di Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, non è solo un libro: è un attacco frontale al mito fondativo dell’intelligenza artificiale come panacea post-umana.

Presentato alle 19:00 alla Fondazione Pastificio Cerere nell’ambito del programma Re:humanism 4, il volume – pubblicato da Krisis Publishing e co-finanziato dalla Direzione Generale Educazione, Ricerca e Istituti Culturali – mette a nudo l’infrastruttura ideologica della cosiddetta “estate dell’AI”. Un’estate che sa di colonizzazione dei dati, di estetiche addomesticate, di cultura estratta come litio dal sottosuolo cognitivo dell’umanità. Se questa è la nuova età dell’oro, allora abbiamo bisogno di più sabotatori e meno developers.

Wimbledon ha licenziato l’umanità: l’intelligenza artificiale fischia, sbaglia e zittisce anche i sordi

C’era una volta il tennis, quello con i giudici di linea in giacca e cravatta, gli occhi fissi sulla riga e il dito puntato con autorità olimpica. Ora c’è un algoritmo che osserva tutto, non sbatte mai le palpebre e fa errori con la freddezza di un automa convinto di avere ragione. Sì, Wimbledon ha deciso che l’intelligenza artificiale è più elegante dell’occhio umano. Ma quando l’eleganza scivola sull’erba sacra del Centre Court, il rumore che fa è assordante. Anche se a non sentirlo, ironia del caso, sono proprio i giocatori sordi.

Google AI Overview mette a rischio il giornalismo indipendente in Europa

Google si trova al centro di una rivoluzione tecnologica che ha acceso le sirene d’allarme di chi produce contenuti sul web. Una coalizione di editori indipendenti, tra cui l’Independent Publishers Alliance, supportata da Movement for an Open Web e Foxglove Legal, ha depositato il 30 giugno presso la Commissione europea un formale reclamo per abuso antitrust, mettendo nel mirino i “AI Overviews” del motore di ricerca. I riassunti generati da AI che Google propone in cima alla pagina dei risultati secondo gli editori sarebbero una mannaia per il traffico e le entrate delle testate online.

Notizie senza click: come l’AI sta riscrivendo le regole del traffico online

Chi si occupa di informazione digitale sta assistendo, con una certa apprensione, ad una sorta di terremoto silenzioso. Dal lancio delle panoramiche AI (“AI Overviews”) di Google nel maggio 2024, il numero di ricerche di notizie che non porta a nessun clic su siti editoriali è cresciuto dal 56% al 69%. Un segnale chiaro: sempre più persone ricevono le risposte che stanno cercando direttamente nei risultati dei motori di ricerca, senza che sia alcun bisogno di visitare i siti d’origine delle informazioni stesse. Questo scenario fa il pari con la drastica riduzione del traffico organico verso i siti editoriali che è passato da oltre 2,3 miliardi di visite nel 2024 a meno di 1,7 miliardi in questi primi mesi del 2025. Un calo che fa riflettere perché alla sua base non c’è solo un tema di cambiamento tecnologico, ma un vero e proprio cambio di paradigma nelle abitudini di consumo dell’informazione.

Altro che creatività, l’intelligenza artificiale sta invadendo la musica come un virus silenzioso

Altro che mestiere, altro che sudore, estasi o ispirazione notturna. Quello che accade oggi nelle profondità delle piattaforme di streaming musicale non è un’evoluzione, ma un’occupazione sistematica. Secondo i dati più recenti forniti da Deezer, una delle piattaforme francesi più rilevanti ma con un occhio sempre più rivolto all’ecosistema globale, circa il 18% delle canzoni caricate ogni giorno sarebbe interamente generato da software di intelligenza artificiale. Tradotto in termini brutali: 20.000 brani al giorno, sfornati senza alcuna interazione umana, partoriti da algoritmi addestrati su milioni di opere preesistenti. Siamo passati dalla penna all’algoritmo, dalla melodia al prompt.

Mentre Spotify e Apple Music si tengono diplomaticamente alla larga dal pronunciare la parola “etichettatura”, Deezer ha deciso di affrontare il problema frontalmente, iniziando a taggare i brani generati artificialmente. Non tanto per colpevolizzare, ci tengono a dire, ma per “garantire trasparenza”. Il CEO Alexis Lanternier, in perfetto stile da comunicato aziendale, ha dichiarato che “l’intelligenza artificiale non è intrinsecamente positiva o negativa”, ma che serve “un approccio responsabile per mantenere la fiducia tra pubblico e industria”. Una fiducia che, è bene dirlo, è già sull’orlo di una crisi identitaria.

AI & conflicts volume 02. La guerra fredda dell’intelligenza artificiale ha nuovi confini, ma le stesse vecchie armi

C’è un momento, in ogni ciclo tecnologico, in cui la retorica si rompe. Quando anche il più zelante tra i futurologi comincia a balbettare. È l’istante in cui l’utopia siliconata delle big tech sbatte contro le macerie sociali che lascia dietro di sé, e non bastano più i keynotes in turtleneck nero per ricucire il tessuto strappato. AI & Conflicts. Volume 02 si infila proprio lì, in quella frattura, in quella crepa epistemologica tra ciò che l’intelligenza artificiale promette e ciò che effettivamente produce. Il libro, curato da Daniela Cotimbo, Francesco D’Abbraccio e Andrea Facchetti, è un’operazione chirurgica che seziona l’estate dell’AI con la precisione di un bisturi teorico e la brutalità necessaria per andare oltre l’innocenza perduta delle tecnologie intelligenti.

Reddit, AI e l’illusione della comunità: cosa resta di umano dopo 20 anni di Internet?

Reddit compie vent’anni e, come ogni adulto con qualche cicatrice, ha capito che la gloria non basta: serve monetizzarla. Quel grande archivio anarchico di pensieri brutali, consigli troppo sinceri, shitposting geniale e confessioni da insonnia sta per essere impacchettato, etichettato e messo in vendita all’asta dell’intelligenza artificiale. Perché no? Se perfino i diari segreti sono diventati contenuto estraibile, Reddit è semplicemente il prossimo petrolio sociale da trivellare.

Il copyright è morto. Viva il copyright. Ma solo se lo usi bene

È un’illusione collettiva, quasi affascinante. Due vittorie legali, un sospiro di sollievo a Menlo Park e San Francisco, e un’industria che si aggrappa a parole come “fair use” con la stessa disperazione con cui i vecchi giornali cercavano click nel 2010. Ma attenzione: i giudici hanno suonato due campanelli d’allarme e sotto la superficie di queste sentenze si agita qualcosa di molto più caustico. Altro che via libera. La giungla giuridica dell’intelligenza artificiale sta diventando un labirinto di specchi, dove ogni riflesso sembra un passaggio e invece è una trappola.

Cominciamo dalla cronaca: Anthropic ha ottenuto una sentenza favorevole da parte del giudice William Alsup, che ha definito “esageratamente trasformativo” l’uso dei libri nel training di Claude, il loro LLM. Meta, dal canto suo, ha visto respinta una causa analoga grazie al giudice Vince Chhabria, che ha dichiarato che i querelanti non sono riusciti a costruire un caso decente. Una doppietta, sulla carta. Ma come ogni CTO sa, i log non mentono: e nei log di queste due sentenze ci sono più righe di codice rosso che verde.

L’intelligenza artificiale finirà in tribunale. E questa volta non ci sarà un algoritmo a salvarla

Quando una rivoluzione tecnologica comincia a dipendere da ciò che pensa un giudice di Manhattan, significa che qualcosa è andato storto. Oppure, molto semplicemente, che stiamo entrando nella seconda fase dell’AI economy: quella in cui la creatività smette di essere un combustibile gratuito e diventa oggetto di una causa civile. O, per dirla con le parole del Wall Street Journal, “The legal fight over AI is just getting started — and it will shape the entire industry”. Sottotitolo implicito: le big tech sono già nel mirino, e l’odore di sangue ha attirato avvocati da Los Angeles a Bruxelles.

Sabine Hossenfelder: Stiamo creando una nuova specie e non abbiamo nemmeno letto il manuale

La coscienza, ci dicono da secoli filosofi, teologi e neuroscienziati, sarebbe il tratto distintivo dell’uomo. Una qualità emergente, forse divina, probabilmente non replicabile, sicuramente nostra. Ma questa convinzione, che continua a sopravvivere anche nei più raffinati salotti accademici, sta diventando il più grande ostacolo cognitivo alla comprensione di cosa stia realmente accadendo sotto i nostri occhi: l’avvento di un’intelligenza artificiale che non è solo capace di simulare l’intelligenza umana, ma sempre più di evolverla.

Il cervello umano, che ci piaccia o no, è una macchina. Una meravigliosa macchina biologica, certo, ma pur sempre un sistema deterministico (con rumore stocastico) che riceve input, processa segnali, produce output, aggiorna stati interni e crea modelli predittivi. Non c’è nulla, in linea teorica, che un sistema computazionale sufficientemente sofisticato non possa riprodurre. A meno che, ovviamente, non si creda ancora all’anima. O nella meccanica quantistica come rifugio della coscienza, ipotesi talmente disperata che persino Roger Penrose oggi si guarda bene dal riproporla con convinzione.

Sam Altman contro il New York times sulla privacy: il conflitto che nessuno si aspettava

Sam Altman ha scelto di aprire il podcast Hard Fork con un colpo di scena che sembra più un duello a mani nude che un’intervista. Prima ancora di scaldare la voce, il CEO di OpenAI ha dirottato il microfono con una stoccata feroce al New York Times, accusandolo di aver avviato una causa legale contro l’azienda per questioni legate alla privacy degli utenti di ChatGPT. Una scena insolita, quasi da backstage di un reality show tecnologico, che ci offre una visione rara e non edulcorata delle tensioni interne e dei giochi di potere tra giganti del digitale.

Offerwall offre agli editori più opzioni per monetizzare e al pubblico maggiore controllo sul modo in cui accede ai contenuti

Google ha appena sfornato un tool gratuito Offerwall per editori, una specie di kit di sopravvivenza digitale che promette di farli guadagnare con sondaggi, micropagamenti e altre trovate simili. Dietro questa mossa apparentemente generosa si cela una verità meno zuccherata: Google, pur di non perdere la faccia, risponde alle proteste sempre più accese degli editori. Questi ultimi lamentano da mesi che le novità di intelligenza artificiale integrate nella ricerca come le panoramiche AI che sintetizzano contenuti direttamente nella SERP stanno rubando loro il traffico e, di conseguenza, il fatturato pubblicitario.

Intelligenza Artificiale tra regolazione e esperienze applicative

L’intelligenza artificiale entra nelle nostre vite con la naturalezza di un algoritmo ben ottimizzato. Nessun trionfo di fanfare o scenari alla Blade Runner. Solo notifiche push, modelli predittivi, chat intelligenti e decisioni automatizzate che governano mutui, curriculum, diagnosi e processi penali. Ma mentre l’AI si infiltra nei gangli della società, è lecito chiedersi: il diritto, con la sua innata lentezza, è davvero pronto a governarla o sta per essere riscritto – questa volta, davvero – da una macchina?

Il volume L’intelligenza artificiale tra regolazione e esperienze applicative, edito da Cacucci e promosso da GP4AI – Global Professionals for Artificial Intelligence, non si accontenta di ripetere slogan sull’etica digitale. Mette le mani nel codice giuridico, esplorando come l’AI Act dell’Unione Europea, il primo tentativo di normare algoritmi su scala continentale, si confronti con il contesto italiano, spesso più normativo che normato, più prudente che predittivo.

Quando l’AI fa kung fu: la Cina riscrive la memoria culturale a colpi di pixel

In un mondo che si preoccupa dell’etica dell’intelligenza artificiale, la Cina si preoccupa del bitrate. Mentre Hollywood affoga nel dibattito su diritti digitali e attori sintetici, Pechino risponde con un roundhouse kick da 14 milioni di dollari: lanciando il Kung Fu Film Heritage Project, un’iniziativa per restaurare digitalmente 100 classici del cinema marziale con la grazia millimetrica dell’AI.

La vendetta del copyright: la BBC sfida gli stregoni dell’intelligenza artificiale

Nel sottobosco sempre meno segreto dell’intelligenza artificiale, dove i dati sono la nuova valuta e gli algoritmi i nuovi colonizzatori, un colosso centenario ha deciso di alzare la voce. Non si tratta di un’azienda tech o di un think tank accademico, ma della ben nota e apparentemente compassata British Broadcasting Corporation. Sì, la BBC, emblema della compostezza britannica, ha improvvisamente sfoderato le zanne contro uno degli emergenti predoni del contenuto digitale: Perplexity AI.

Kyndryl accende il cervello delle aziende: nasce The Kyndryl Institute, il think tank dove l’innovazione non chiede permesso

C’erano una volta le società di consulenza, con i loro PowerPoint statici e le soluzioni preconfezionate da appiccicare come cerotti su ferite aziendali che urlavano trasformazione. Poi è arrivata la rivoluzione digitale, l’intelligenza artificiale, la cybersicurezza e una nuova generazione di CEO cresciuti a pane e disruption. Ed è in questo contesto, già saturo di sigle e buzzword, che Kyndryl — lo spin-off “muscoloso” di IBM — decide di giocarsi una carta inaspettata: creare un luogo fisico e intellettuale dove l’innovazione si interseca (e spesso si scontra) con il business. Lo hanno chiamato The Kyndryl Institute. E no, non è l’ennesima fabbrica di white paper.

AI ancestrale e il culto del neonato finto

C’è qualcosa di inquietante in Ancestra, il nuovo cortometraggio di Eliza McNitt prodotto da Darren Aronofsky insieme a Google DeepMind. Qualcosa che va oltre le immagini lisce e carezzevoli del cuore fetale sintetizzato, oltre i vaghi rimandi cosmici tra buchi neri e amore materno. È l’impressione che si stia tentando di trasformare il processo creativo in un diagramma di flusso ottimizzato, dove il dolore umano – in questo caso, la gravidanza a rischio della regista stessa – diventa una scusa nobile per uno showcase aziendale in stile TED Talk.

YouTube la cultura con la C maiuscola: l’impero creativo che si mangia la TV e si beve Hollywood

CANNES — È bastato un video sgranato di 19 secondi, un elefante, uno zoo e un ragazzo impacciato per iniziare la rivoluzione. Vent’anni dopo “Me at the Zoo”, YouTube non è più solo la piattaforma dove perdi tempo guardando video di gatti o tutorial su come sbucciare un mango con un trapano. È diventato — parola di Neal Mohan — “il centro della cultura con la C maiuscola”. Non una battuta, ma una tesi geopolitica. Mohan, oggi CEO del colosso, l’ha rilanciata sul palco del Festival di Cannes Lions 2025, e lo ha fatto con la sicurezza tipica di chi non solo annusa il futuro, ma lo brevetta.

Microsoft sotto accusa per il marketing dell’intelligenza artificiale: Copilot non è (ancora) il pilota automatico della produttività

New York – Se bastasse un nome ben scelto per garantire l’efficienza aziendale, Microsoft 365 Copilot sarebbe già un caso di studio in economia comportamentale. Purtroppo, non è così. E lo ha appena ricordato, con tono educato ma chirurgico, il National Advertising Division (NAD), l’organo autoregolamentare della BBB National Programs che vigila sulla correttezza pubblicitaria nel mercato statunitense. Al centro dell’indagine: il modo in cui Microsoft ha venduto — o forse è meglio dire “promesso” — le meraviglie della sua AI integrata.

Manus AI e la sindrome dell’invincibilità digitale

Manus AI è diventato come quel tipo alla festa che non solo arriva in anticipo, ma si presenta anche con lo champagne migliore e un DJ al seguito. Era già considerato un “agent” AI piuttosto solido, una di quelle piattaforme che prometteva bene tra prompt, video e automazione. Ma adesso, con l’integrazione di Veo3, il salto non è solo evolutivo, è cinematografico. Letteralmente.

Facciamola breve, perché il tempo è l’unica cosa che l’AI non può restituirci: Manus ora permette non solo di generare video, ma esperienze visive che sfiorano l’ossessione maniacale per il dettaglio. Stiamo parlando di qualità visiva superiore, sincronizzazione audio-labiale finalmente credibile, e scene che non sembrano uscite da un generatore di meme con l’ambizione di Kubrick. Il passaggio al supporto per Google Slides e PowerPoint è solo un preambolo, un assaggio della direzione in cui sta andando il vero game changer.

La pubblicità dell’assurdo: come l’AI da $2.000 ha conquistato l’NBA Finals e umiliato Madison Avenue

Se l’hai vista, non te la dimentichi più. Un alieno che beve birra. Un vecchio con un chihuahua e un cappello da cowboy. Un tizio che nuota in una piscina piena di uova. E no, non è il trailer di un film trash anni ’90 o un esperimento dadaista di Spike Jonze: è una pubblicità mandata in onda durante le NBA Finals. Il budget? Due spiccioli: 2.000 dollari. Il regista? Un tizio solo con un laptop e Google Veo 3. Benvenuti nell’era del slopvertising, la pubblicità generativa AI che mescola delirio e strategia come uno shaker senza coperchio.

La vendetta dei contenuti: perché Taboola ha appena dichiarato guerra all’intelligenza artificiale

C’è qualcosa di profondamente ironico — e incredibilmente strategico — nel vedere Taboola, il re degli articoli “Ti potrebbe interessare anche…” in fondo a ogni sito web, diventare improvvisamente il paladino dei contenuti editoriali saccheggiati dall’AI.

Mercoledì, in una mossa che suona tanto come un attacco preventivo quanto un atto di autodifesa, Taboola (NASDAQ:TBLA) ha annunciato il lancio di DeeperDive, un motore di ricerca basato su intelligenza artificiale generativa. Ma attenzione: non si tratta dell’ennesimo clone di ChatGPT travestito da “assistente smart”. DeeperDive ha un compito preciso, chirurgico, politicamente strategico: riportare i publisher al centro della mappa del potere digitale.

Hollywood contro il clone digitale: Disney e Universal citano Midjourney per plagio algoritmico

Se Shrek, Darth Vader e Buzz Lightyear potessero parlare, probabilmente oggi avrebbero già consultato un avvocato. E non per discutere di nuovi contratti o reboot, ma per affrontare la loro resurrezione involontaria nel circo dell’intelligenza artificiale generativa. Il 2025 non ha ancora portato veicoli volanti, ma ha spalancato le porte a una battaglia epocale: Disney e Universal hanno trascinato in tribunale Midjourney, accusandola di essere una “macchina distributrice virtuale di copie non autorizzate”. Un’accusa pesante, che ha tutta l’aria di voler diventare il precedente giudiziario che Hollywood aspettava come un sequel troppo a lungo rimandato.

L’algoritmo ha mangiato il giornale: il massacro silenzioso dei media nell’era del chatbot

La scena è questa: una redazione vuota, le luci ancora accese, le tastiere ferme. Sulle scrivanie, gli ultimi numeri stampati di un quotidiano digitale, ormai irrilevante. Là fuori, milioni di utenti digitano domande sui loro smartphone, ma le risposte non arrivano più dai giornalisti. Arrivano da una macchina. È l’era della post-search, e Google non è più un motore, ma un oracolo.

L’apocalisse silenziosa è cominciata con una frase: “Google is shifting from being a search engine to an answer engine.” Traduzione: cari editori, potete anche spegnere il modem.

La keyword che brucia è chatbot, con le sue sorelle semantiche traffico organico e AI generativa. In tre anni, secondo dati di Similarweb riportati dal Wall Street Journal, HuffPost ha perso più della metà del traffico proveniente da Google. Il Washington Post quasi altrettanto. Business Insider ha tagliato un quinto della forza lavoro. E no, Zuckerberg stavolta non c’entra. Il nemico è molto più vicino, e molto più silenzioso.

De Kai: Raising AI

L’AI non ha bisogno di genitori, ma di filosofi: perché l’etica digitale è troppo seria per lasciarla ai tecnologi

Se ogni generazione ha i suoi mostri, la nostra li programma. Ma invece di affrontare la questione con il rigore che richiederebbe l’ascesa di un’intelligenza artificiale generalizzata, sembriamo preferire metafore da manuale di psicologia infantile. Ecco quindi che De Kai, decano gentile del machine learning, ci propone il suo Raising AI come una guida alla genitorialità dell’algoritmo, una Bibbia digitale che ci invita a trattare ChatGPT e compagnia come bambini da educare. La tesi? L’AI va cresciuta con amore, empatia e valori universali. Peccato che i bambini veri non abbiano una GPU con 70 miliardi di parametri e non siano addestrati leggendo interi archivi di Reddit.

Parlare di AI come se fosse un neonato non è solo fuorviante, è pericolosamente consolatorio. Il paragone piace perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, non ha pubertà, non ha crisi adolescenziali. L’AI non cresce: esplode. E il salto tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Pagina 1 di 2

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie