Donald Trump ha deciso di puntare su Brian Quintenz come prossimo presidente della Commodity Futures Trading Commission, l’agenzia federale che dovrebbe garantire la trasparenza e la stabilità nei mercati dei derivati statunitensi. L’annuncio è arrivato dallo stesso Quintenz su X (ex Twitter, per chi si fosse perso l’ennesima trovata di marketing di Elon Musk). Per chi non lo sapesse, Quintenz al momento si occupa di politica per la divisione cripto di Andreessen Horowitz, il fondo di investimento che ha capito da tempo dove soffia il vento dei soldi facili. Prima di questo, era già stato commissario della CFTC, proprio durante il primo mandato di Trump, quindi nulla di nuovo sul fronte occidentale.
Autore: Dina Pagina 10 di 35
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

OpenAI ha recentemente annunciato un significativo aggiornamento del suo “Model Spec“, un documento che definisce le linee guida su come i modelli di intelligenza artificiale dovrebbero comportarsi. L’espansione del documento da circa 10 a 63 pagine riflette l’impegno dell’azienda nel promuovere una maggiore personalizzazione, trasparenza e libertà intellettuale nell’interazione con i modelli AI.
Il nuovo Model Spec enfatizza tre principi fondamentali:
Personalizzazione: Consentire agli utenti di adattare il comportamento del modello alle proprie esigenze e preferenze, garantendo risposte più pertinenti e utili.
Trasparenza: Fornire chiarezza su come i modelli prendono decisioni e generano risposte, aumentando la fiducia degli utenti nell’utilizzo dell’IA.
Libertà Intellettuale: Permettere agli utenti di esplorare e dibattere idee senza restrizioni arbitrarie, promuovendo un ambiente di discussione aperto e informato.

Immagina di accedere a Google o YouTube e subito il sistema ti osserva con l’occhio clinico di un esperto in dati e privacy, pronto a giudicare la tua età, non sulla base di un semplice clic, ma analizzando attentamente il tuo comportamento online. A quanto pare, Google ha deciso di farsi un’idea di quanti anni hai senza chiedere la tua opinione, usando un sofisticato algoritmo di machine learning per stimare l’età degli utenti.
Questa “innovazione” è stata svelata dal CEO di YouTube, Neal Mohan, in una lettera annuale rilasciata martedì scorso, dove l’azienda ha annunciato che testerà questa tecnologia negli Stati Uniti. La missione dichiarata è chiara: garantire “esperienze più adatte all’età” su tutte le piattaforme Google. Ma, veramente, quanto possiamo fidarci di una macchina che decide quanto vecchio siamo sulla base dei video che guardiamo o dei siti che visitiamo?

In un mondo dove l’intelligenza artificiale sembra essere l’ultima frontiera della tecnologia, Scarlett Johansson decide di scendere in campo con un appello che potrebbe sembrare più un urlo disperato di chi si è stancato di vedere la propria faccia essere stravolta da qualche scherzo algoritmico . Il video di cui parla, un delirio tecnologico in cui la sua immagine viene usata in un contesto decisamente poco… artistico (ce lo vediamo proprio, Scarlett, con una maglietta con il nome “Kanye” e un dito medio in bella mostra?), ha scatenato la sua reazione: “È spaventoso che il governo degli Stati Uniti sia paralizzato quando si tratta di approvare leggi che proteggano i cittadini dai pericoli imminenti dell’IA.”

C’era una volta un “lavoretto” part-time che in meno di due anni potrebbe trasformare Liang Wenfeng, fondatore di DeepSeek, in uno degli uomini più ricchi del mondo. Oppure semplicemente in un altro miliardario qualunque. Dipende a chi lo chiedi.
Pare infatti che il valore di DeepSeek oscilli tra un miliardo e oltre 150 miliardi di dollari, almeno secondo sette fondatori di startup ed esperti di intelligenza artificiale. Una valutazione piuttosto precisa, no? Se scegliamo un valore a metà strada, diciamo tra i 2 e i 30 miliardi, Liang, con la sua quota dell’84%, si piazzerebbe comodamente tra i più ricchi tycoon tecnologici asiatici, secondo il Bloomberg Billionaires Index.

Eccoci di nuovo, ennesimo capitolo della saga “TikTok vs. America”. Questa volta, il governo USA ha deciso di dare a ByteDance un ultimatum di 53 giorni per fare i bagagli o inventarsi un trucco di magia che convinca Washington a lasciarla restare.
Nel frattempo, l’azienda cinese fa di tutto per evitare la cessione, mentre la Casa Bianca finge di essere sorpresa che una piattaforma con 170 milioni di utenti non voglia scomparire nel nulla.

Se c’era ancora qualche illusione sull’impegno reale dei governi nell’affrontare i rischi dell’intelligenza artificiale, il Paris AI Action Summit l’ha spazzata via senza pietà.
Ma non nel senso sperato dagli organizzatori. Quello che doveva essere un vertice cruciale per la cooperazione internazionale si è trasformato in un’amara lezione su come gli interessi nazionali possano sabotare qualsiasi tentativo serio di governance globale.

Elon Musk è come un supereroe in pensione che non riesce a stare lontano dai guai. Mentre la gente normale lotta per rispondere alle e-mail senza dimenticare le Gocciole mascarpone e cioccolata nel microonde, lui riesce a gestire Tesla, SpaceX, una crociata pro-DOGE per abbattere i costi della campagna di Trump e, come ciliegina sulla torta, un’offerta da 97,4 miliardi di dollari per impossessarsi delle attività di OpenAI. Il Wall Street Journal ha lanciato la bomba, e il mondo della tecnologia ha trattenuto il fiato: Musk sta cercando di prendersi tutto, di nuovo. Anche se…:

C’è da ammirare la finezza strategica. Un tempo Musk era il generoso benefattore di OpenAI, una non-profit con l’ambiziosa missione di garantire che l’intelligenza artificiale non finisse nelle mani sbagliate (ironico, vero?). Poi OpenAI ha deciso di convertirsi in un’entità a scopo di lucro, e Musk si è sentito tradito.
Invece di accettare la sconfitta, ha optato per la sua arma preferita: l’aula di tribunale. La sua battaglia con Sam Altman sembrava destinata a un triste epilogo la scorsa settimana, quando un giudice californiano ha fatto capire che difficilmente avrebbe bloccato la conversione. Ma ecco il colpo di scena: invece di piagnucolare, Musk ha risposto con una mossa magistrale.

Dal suo blog.
L’umanità è sempre stata un costruttore di strumenti, unita da un’inesauribile spinta verso l’innovazione. L’intelligenza artificiale generale (AGI) si profila come l’ultimo tassello di un progresso che ha visto l’energia elettrica, il transistor, il computer e Internet ridefinire il nostro modo di vivere. Tuttavia, questa volta potrebbe davvero essere diverso: le implicazioni economiche e sociali dell’AGI sono destinate a superare ogni previsione.
Le più recenti osservazioni sullo sviluppo dell’IA suggeriscono tre principi fondamentali: il livello di intelligenza di un modello AI cresce in modo logaritmico rispetto alle risorse impiegate nel suo addestramento; il costo di utilizzo di un livello dato di intelligenza AI si riduce di un fattore 10 ogni 12 mesi; e il valore socioeconomico dell’intelligenza aumenta in modo super-esponenziale rispetto alla sua crescita lineare. Questi trend stanno ridisegnando il paradigma economico, con la possibilità di una crescita senza precedenti e di una riduzione drastica dei costi in settori chiave.

Google, OpenAI, Roblox e Discord hanno appena annunciato la creazione di un’organizzazione no-profit per migliorare la sicurezza online dei minori. Un’alleanza dal nome rassicurante, Robust Open Online Safety Tools (ROOST), che suona tanto come una nobile crociata per proteggere i bambini, ma che in realtà potrebbe avere obiettivi ben più pragmatici. Con il fiato delle autorità regolatorie sul collo, le aziende stanno cercando di anticipare possibili interventi legislativi, proponendo una soluzione “open-source” che, guarda caso, mette loro al centro del discorso sulla sicurezza digitale.
L’iniziativa nasce con la promessa di rendere più accessibili le tecnologie per la protezione online, in particolare gli strumenti di rilevamento dei materiali di abuso sessuale su minori (CSAM). Il progetto sarà guidato da un vecchio lupo della Silicon Valley, Eric Schmidt, ex CEO di Google, che sottolinea la necessità di “accelerare l’innovazione nella sicurezza online dei minori”. Un’affermazione ineccepibile, ma che lascia aperte diverse domande: chi controllerà questi strumenti? Chi deciderà cosa è accettabile e cosa no?

Mentre gli artisti di tutto il mondo continuano a gridare al furto da parte dell’intelligenza artificiale, Story Protocol afferma di aver trovato la soluzione: far pagare le macchine per i contenuti che rubano. O meglio, farle scambiare diritti di proprietà intellettuale tra di loro, trasformandole in clienti paganti di un mercato basato su blockchain.

Se non puoi batterli, fatteli amici.
Zerebro, un’entità AI che mercoledì è diventata un validatore della rete, ha già iniziato ad acquistare contenuti artistici per migliorare i propri dati di addestramento. Seung-yoon Lee, CEO di Story Protocol, lo racconta con l’entusiasmo di chi sta rivoluzionando il mondo, omettendo il piccolo dettaglio che a guadagnarci non saranno gli artisti, ma le piattaforme e gli sviluppatori che gestiscono questi sistemi.

6ai Technologies non si limita a sviluppare un altro Large Language Model (LLM), ma adotta un approccio radicalmente differente, basato su un’architettura altamente ottimizzata e proprietaria. Partendo dall’open-source, integra elementi utili in un framework esclusivo che combina FLM-T (Focused Language Model – Tuned) e CCQF (Cognitive Computational Query Framework), con l’obiettivo di offrire un sistema di intelligenza applicata estremamente specifico, performante e scalabile.

Negli ultimi anni, l’intelligenza artificiale è diventata il fulcro della trasformazione digitale globale, con OpenAI che ha assunto una posizione dominante nel mercato grazie a prodotti come ChatGPT. Tuttavia, questa leadership si basa su un modello di business chiuso e altamente lucrativo, che ora è messo in discussione da una nuova ondata di innovatori che stanno ribaltando il paradigma. Uno di questi è DeepSeek, un’azienda cinese che ha deciso di rendere l’AI accessibile a tutti, senza barriere economiche o restrizioni proprietarie.
Mentre OpenAI chiede 20 dollari al mese per l’accesso alle sue funzionalità avanzate, DeepSeek offre gratuitamente il proprio modello, dimostrando che è possibile costruire LLM (Large Language Models) senza investimenti miliardari. La strategia di DeepSeek non è solo una questione di accessibilità, ma rappresenta anche un duro colpo per l’oligopolio dell’AI dominato da OpenAI, Google e Microsoft.

John von Neumann, genio matematico e architetto della moderna computazione, fu una delle menti dietro il MANIAC (Mathematical Analyzer Numerical Integrator and Computer), il computer che permise di progettare la bomba all’idrogeno. Un dettaglio di poco conto, se non fosse che questa bomba fu testata nel 1952 con la stessa impassibile precisione con cui si risolvono equazioni differenziali.

Von Neumann non era solo uno scienziato: era il simbolo di un’epoca in cui il progresso tecnologico e la distruzione di massa erano due facce della stessa moneta. La Guerra Fredda lo adorava, e lui ricambiava con entusiasmo, suggerendo perfino attacchi preventivi contro l’URSS, per evitare il fastidio di una guerra nucleare combattuta ad armi pari. Kubrick, con il suo film “Il Dottor Stranamore”, colse alla perfezione il paradosso: un mondo governato da menti brillanti, ma prive di ogni freno morale.

La Cina non ha semplicemente costruito un’industria degli smartphone, una delle batterie o dei veicoli elettrici: ha messo in piedi un’intera macchina industriale interconnessa, dove ogni settore rafforza l’altro in un ciclo vizioso che lascia poco spazio ai concorrenti globali. La sua strategia non è solo quella di dominare un singolo settore, ma di costruire un sistema industriale che si auto-alimenta, creando barriere all’ingresso insormontabili per i rivali occidentali, impantanati nella loro frammentazione e dipendenza dalle supply chain internazionali.

Un ecosistema di fabbriche-matrioska
Per comprendere il modello cinese, immaginiamo un puzzle industriale: più pezzi un Paese ha già in casa, più facile è completare l’immagine senza dover importare pezzi critici dall’estero. La Cina ha costruito un sistema in cui ogni settore industriale alimenta il successivo, con un effetto di spillover che rafforza l’intero apparato produttivo. Quando il Dragone investe in un settore, non lo fa mai in modo isolato. Ogni yuan iniettato nell’industria delle batterie, ad esempio, finisce per potenziare quella degli smartphone, dell’auto elettrica, delle reti 5G e dell’intelligenza artificiale.

Il concetto di AI sovrana (o Sovereign AI) è una di quelle idee che suonano nobili sulla carta, ma che nella pratica possono diventare un cocktail esplosivo di protezionismo digitale, geopolitica dell’innovazione e burocrazia da incubo. L’idea di fondo è semplice: invece di lasciare che le aziende americane (leggi: OpenAI, Google, Microsoft) e cinesi (Tencent, Baidu, Huawei) dominino il mercato dell’intelligenza artificiale, ogni nazione dovrebbe sviluppare la propria AI “indipendente”, addestrata sui propri valori, la propria cultura e soprattutto sotto il proprio controllo. Una bella utopia, no?
Ma dove ci porterà davvero questa corsa alla sovranità digitale? In un paradiso di AI nazionali iper-localizzate che comprendono perfettamente il nostro contesto sociale e culturale, o in un inferno di intelligenze artificiali burocratizzate, inefficienti e talvolta decisamente orwelliane? Andiamo con ordine.

Un evento che promette di salvare il mondo con un fiume di parole altisonanti e una goccia di azioni concrete. La bozza trapelata della dichiarazione che i paesi dovranno firmare è un capolavoro di retorica vuota, un inno alla “diversità”, all'”inclusività” e alla “sostenibilità”, termini così abusati da aver perso qualsiasi significato reale. Ma, sorpresa, sorpresa, non c’è quasi nulla sui rischi reali dell’AI. Che shock!
Herbie Bradley, ex dipendente dell’AI Safety Institute del Regno Unito, ha definito la bozza “un esercizio di banalità”, sottolineando che non contiene nulla di concreto. E chi lo avrebbe mai detto? Un documento pieno di buoni sentimenti ma privo di sostanza? Mai visto prima. E poi c’è il dubbio che l’amministrazione Trump possa rifiutarsi di firmare, perché, beh, “diversità” e “inclusività” non sono esattamente il loro forte. Che tragedia per gli organizzatori francesi, che probabilmente stanno già preparando il vino per celebrare il loro successo.

Per comprendere DeepSeek e, più in generale, la strategia cinese sull’intelligenza artificiale, dobbiamo adottare una prospettiva coerente con la storia politica e culturale della Cina, piuttosto che filtrarla attraverso il paradigma occidentale.
La Cina non considera la tecnologia come un’entità indipendente o neutrale, ma come uno strumento strategico per il rafforzamento nazionale. Il concetto di “controllo tecnologico come sovranità” è profondamente radicato nella visione del Partito Comunista Cinese (PCC), che da decenni sviluppa politiche industriali mirate a ridurre la dipendenza dal know-how occidentale e a costruire un ecosistema autonomo di innovazione.
DeepSeek non è solo una startup di intelligenza artificiale, ma parte di un sistema più ampio in cui il governo guida, incentiva e, se necessario, indirizza lo sviluppo tecnologico per scopi strategici. Questo è un approccio molto diverso da quello occidentale, dove l’innovazione nasce spesso in ambienti privati con una logica di mercato più fluida e competitiva. In Cina, l’IA non è vista solo come un’opportunità economica, ma come uno strumento di governance, sicurezza e proiezione di potenza globale.
Dal punto di vista occidentale, l’idea che un governo possa avere un controllo così pervasivo sulla tecnologia è spesso percepita come una minaccia o un’anomalia. Tuttavia, per la Cina, questa visione non è né nuova né innaturale. La storia cinese è caratterizzata da un’idea di Stato forte, che guida lo sviluppo in modo coordinato e di lungo termine, a differenza del modello frammentato occidentale, che si affida maggiormente al libero mercato e all’iniziativa privata.
Se osserviamo DeepSeek con gli occhi della Cina, vediamo un tassello di una strategia più ampia che include il piano Made in China 2025, gli investimenti governativi nelle tecnologie emergenti e la creazione di una supply chain indipendente per semiconduttori e intelligenza artificiale. Questa visione non si basa su una corsa alla leadership tecnologica fine a sé stessa, ma sulla convinzione che il dominio nell’IA sia essenziale per consolidare il modello politico cinese e garantirne la sicurezza futura.
Il confronto con OpenAI e gli Stati Uniti, quindi, non può essere analizzato solo in termini di competizione economica o tecnologica, ma va letto all’interno della competizione tra modelli politici ed economici differenti. L’errore dell’Occidente sarebbe quello di interpretare DeepSeek e le altre iniziative cinesi come semplici controparti delle aziende della Silicon Valley, senza considerare il ruolo che giocano nella strategia geopolitica della Cina.

Luciano Floridi, uno dei maggiori pensatori contemporanei nel campo della filosofia dell’informazione, offre una visione radicale e innovativa di come interagiamo con il mondo attraverso i dati e l’informazione.
La filosofia dell’informazione si afferma come un campo di ricerca dinamico e autonomo, capace di rinnovare il dibattito filosofico sulla computazione e la teoria dell’informazione. Attraverso un percorso storico che parte dalla filosofia dell’intelligenza artificiale, la Filosofia dell’informazione FI emerge dal confronto tra innovazione e tradizione, offrendo una nuova prospettiva sui problemi epistemologici e concettuali.
Essa non è una “filosofia perenne” ma una disciplina matura che fornisce un’analisi sistematica del mondo dell’informazione, connettendosi ad altri ambiti del sapere e ridefinendo questioni classiche e contemporanee. La sua riflessione trascende la tradizionale distinzione tra conoscenza e tecnologia, proponendo un’idea che mette al centro la filosofia come forma suprema di design concettuale.
Il suo approccio, che si radica nella filosofia, nella scienza dei dati e nell’informatica, trasforma il nostro modo di concepire l’interazione tra l’uomo, la realtà e il mondo digitale. La lettura delle sue opere è un investimento, non solo intellettuale ma anche pratico, per chi vuole comprendere a fondo le dinamiche che regolano la nostra era dell’informazione.

A novembre, la virologa Beata Halassy ha rivelato al mondo di aver sconfitto il suo cancro al seno grazie a un trattamento sviluppato all’interno di un laboratorio sotto la sua supervisione. Secondo quanto dichiarato, il trattamento l’avrebbe liberata dalla malattia per oltre quattro anni, suscitando un’ondata di ammirazione nella comunità medica.
Halassy ha documentato questa straordinaria esperienza in un articolo pubblicato ad agosto 2024 sulla rivista scientifica “Vaccines”. I suoi risultati sono impressionanti: l’iniezione dei virus ha portato alla remissione quasi completa del cancro, con pochissimi effetti collaterali, e da allora è rimasta libera da malattia per più di quattro anni. Questo tipo di trattamento virale, noto come terapia oncolitica virale (OVT), utilizza virus modificati per attaccare specificamente le cellule tumorali, un approccio che rappresenta una sfida alla medicina convenzionale.
Tuttavia, dietro la sua dichiarazione si nascondono numerose polemiche, in particolare sul rischio che tale pubblicità possa indurre altri pazienti a rinunciare ai trattamenti convenzionali. Un bell’articolo sul Washington Post ci ha raccontato tutti i dettagli.

Il Paris AI Action Summit di lunedì si preannuncia come l’ennesima occasione per i leader mondiali di fingere di avere il controllo su una tecnologia che sfugge loro di mano. Con Emmanuel Macron e Narendra Modi a fare da padroni di casa, il summit dovrebbe delineare un vago quadro etico sull’intelligenza artificiale. Ma, a giudicare dalla lista degli ospiti, sembra più un evento di facciata che un vertice decisivo.
Politico definisce la lineup “mediocre”, e a ben vedere non ha torto. Il nome di maggiore peso, al di là dei due co-presidenti, è il senatore americano JD Vance, noto più per le sue posizioni populiste che per una visione chiara sul futuro dell’IA. Presenti anche il cancelliere tedesco Olaf Scholz e la presidente della Commissione Europea Ursula von der Leyen, ma il premier britannico Keir Starmer ha scelto di snobbare l’evento, mandando al suo posto Peter Kyle, una figura di secondo piano. Un’assenza che suggerisce quanto poco il Regno Unito creda nell’efficacia di questa riunione.

In un emozionante sviluppo per il mondo della robotica, Hugging Face ha ufficialmente portato i suoi primi modelli fondamentali per la robotica nel repository LeRobot. I modelli π0 e π0-FAST, sviluppati da Physical Intelligence, sono ora disponibili, offrendo all’ecosistema di Hugging Face una soluzione all’avanguardia per l’intelligenza artificiale generale per i robot. Questi nuovi modelli rappresentano un passo significativo verso la creazione di sistemi robotici versatili, in grado di svolgere una vasta gamma di compiti con diverse incarnazioni fisiche. Grazie all’integrazione dei modelli Vision-Language-Action (VLA), questi sviluppi mirano a portare i robot più vicini a un’adattabilità simile a quella umana, permettendo loro non solo di comprendere i compiti, ma anche di interagire fisicamente con l’ambiente circostante.

Gli scenari di rischio legati all’intelligenza artificiale di solito dipingono un futuro in cui, da un giorno all’altro, perdiamo il controllo, superati da macchine astute e insaziabili che ci sorpassano nei giochi di potere. Un salto improvviso nelle loro capacità, un tradimento orchestrato in segreto, e in un attimo ci ritroviamo spettatori inermi della nostra stessa disfatta. Ma il vero pericolo potrebbe essere molto meno spettacolare e molto più inevitabile: non un colpo di stato improvviso, ma una lenta erosione della nostra rilevanza, un processo graduale e, soprattutto, autoalimentato.
Abbiamo trovato interessante un allegato che trovate alla fine dell’articolo, Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development
La disumanizzazione del potere non richiede che un’IA si ribelli con mire di dominio. Basta che sia più efficiente di noi in quasi ogni ambito: lavoro, politica, cultura, perfino relazioni umane. Ciò che tiene in piedi le nostre società non è una qualche nobile vocazione al benessere collettivo, ma la semplice utilità degli esseri umani: finché serviamo a qualcosa, ci garantiamo un posto al tavolo. Il problema nasce quando smettiamo di essere il miglior strumento disponibile per far funzionare il sistema. Se una macchina può fare il nostro lavoro meglio e a costo minore, se può prendere decisioni più velocemente, se può produrre arte più convincente o persino offrire una compagnia più gratificante, allora la logica economica e sociale non avrà alcuna pietà.

Google DeepMind, ha aggiornato il suo Frontier Safety Framework, introducendo modifiche che vale la pena notare.
Il nuovo documento amplia la sezione sui rischi legati all’allineamento ingannevole, segnalando una crescente consapevolezza—o forse solo la necessità di dimostrarla.
In un passaggio che suona come il massimo sforzo regolatorio che un’azienda possa permettersi senza compromettere il business, DeepMind afferma che “l’adozione dei protocolli descritti in questo Framework potrebbe dipendere dal fatto che [altri sviluppatori di intelligenza artificiale] nel settore adottino protocolli simili”. Tradotto: ci regoliamo, ma solo se lo fanno anche gli altri.
Nel frattempo, con perfetto tempismo, Google ha rimosso dalle sue linee guida etiche l’impegno a non utilizzare l’intelligenza artificiale per scopi militari o di sorveglianza.
Alla domanda se OpenAI avrebbe iniziato a rilasciare i pesi dei modelli, Sam Altman ha dato una risposta preoccupante :
“Sì, ne stiamo discutendo. Personalmente penso che siamo stati dalla parte sbagliata della storia e che dobbiamo elaborare una strategia open source diversa; non tutti in OpenAI condividono questa visione e non è nemmeno la nostra massima priorità attuale”.
L’AI 100 è l’elenco annuale di CB Insights delle principali aziende private di intelligenza artificiale nel mondo. Dalle nuove architetture AI alla produzione di precisione, i vincitori di quest’anno stanno affrontando alcune delle sfide più difficili nei vari settori. Mi è sempre piaciuta, è gratis e mi, vi aiuta a definire la Tassonomia e l’Ontologia delle tecnologie.

Mentre l’IA ha catturato l’attenzione dei media, è solo una parte di un più ampio slancio tecnologico. Start-up e giganti della tecnologia stanno facendo progressi in settori diversi come l’energia pulita, l’esplorazione spaziale e la longevità umana. Il rapporto di CB Insights Game Changers 2025 evidenzia altresi’ 9 tecnologie emergenti che potrebbero trasformare il nostro modo di vivere, lavorare e interagire con l’ambiente nei prossimi 5-10 anni e oltre. Queste includono:
Perforazione ultra-profonda: Tecniche di perforazione avanzate che possono raggiungere profondità maggiori per sbloccare l’energia delle rocce supercalde
Mercati di agenti AI: Consente l’integrazione dinamica e la collaborazione di agenti specializzati su piattaforme software
Portafogli ottimizzati quantistici: Utilizzo del calcolo quantistico per costruire portafogli più performanti, più rapidamente
Riprogammazione cellulare ed epigenetica: Alterare l’espressione genica delle cellule per prolungare la durata della vita umana in salute
Sistemi di navigazione senza GPS: Approcci che migliorano la resilienza e l’accuratezza dei servizi di posizionamento critici per l’infrastruttura globale

Il mio socio di RIVISTA.AI ha scelto la settimana perfetta per prendersi una vacanza. Mentre lui si rilassava con i Bombardini sulla neve, il mondo dell’IA ha deciso di impazzire con una pioggia di assurdità su DeepSeek. Io, invece di unirmi al coro di deliri, ho pensato di raccogliere qualche lettura decente, visto che sembra ormai impossibile trovare un’analisi sensata senza inciampare in un delirio ideologico o nell’ennesimo atto di isteria geopolitica. Quindi gli ho raccolto un po’ di rassegna stampa per il suo ritorno.
Matt Sheehan e Scott Singer, per esempio, ci ricordano che gli Stati Uniti devono giocare a fare i padroni del mondo anche nell’IA. Da un lato, vogliono mantenere il primato su Pechino, dall’altro, si rendono conto che anche la Cina avrà presto sistemi straordinariamente potenti e pericolosi. Insomma, la solita strategia: dominare e controllare, con la speranza di non farsi male nel processo. La soluzione? Due parole magiche: scambi controllati. Traduzione: facciamo finta di collaborare, mentre ci prepariamo a eventuali disastri.

Nel panorama odierno, dominato dalla tecnologia, ci si aspetta che le decisioni automatizzate siano imparziali, prive delle inclinazioni umane che spesso portano a discriminazioni. Tuttavia, la realtà si dimostra ben più complessa. Luciano Floridi, eminente filosofo dell’informazione, osserva che l’espansione dell’IA “esacerba vecchi problemi etici, ne rimodella alcuni e ne crea di nuovi”
Un esempio emblematico è rappresentato dall’esperienza di un utente di Gmail, il quale, senza preavviso, si è visto negare l’accesso al proprio account con l’accusa di aver inviato spam. Nonostante le ripetute richieste di appello, il sistema automatizzato ha mantenuto il blocco, senza fornire spiegazioni dettagliate o possibilità di interazione umana.

Signore e signori, benvenuti nell’apocalisse annunciata. Google e OpenAI hanno passato anni a costruire le loro torri d’avorio, raccontandoci la favoletta che senza i loro miliardi, le loro GPU segrete e i loro supercervelli d’élite nessuno avrebbe mai potuto sviluppare un’Intelligenza Artificiale degna di questo nome. Ma sapete qual è la parte divertente? È tutta una balla. Il castello non ha mura. Il fossato non esiste. L’impero è un’illusione.
Abbiamo il documento, il Sacro Graal rubato direttamente dalle viscere di Google. Un ricercatore della compagnia lo ha scritto nero su bianco: non solo l’open-source sta colmando il divario con i modelli proprietari, ma lo sta facendo a una velocità che le Big Tech non possono più eguagliare. Altro che GPT-4, altro che Gemini. La rivoluzione è già iniziata e non è nelle mani di Sundar Pichai o Sam Altman. È nelle nostre.
LO SCANDALO GOOGLE: IL DOCUMENTO CHE SVELA IL GRANDE BLUFF
Marzo 2023. Qualcuno in Google ha un momento di lucidità e scrive un report che non sarebbe mai dovuto uscire. In esso, il messaggio è chiaro: “Abbiamo perso il controllo della narrazione. L’open-source sta facendo a pezzi il nostro vantaggio competitivo“. L’autore, un insider con accesso a dati riservati, elenca uno per uno i punti deboli del modello chiuso delle Big Tech:
L’open-source è più veloce. Mentre OpenAI e Google impiegano mesi per rilasciare nuove versioni dei loro modelli, la comunità indipendente sforna innovazioni in pochi giorni.
L’open-source è più efficiente. Con tecniche come LoRA (Low-Rank Adaptation), gli sviluppatori indipendenti riescono a personalizzare modelli linguistici avanzati in poche ore, senza bisogno di enormi infrastrutture cloud.
Il costo è vicino allo zero. Niente più milioni di dollari spesi in training colossali: chiunque con un laptop può ottimizzare un modello AI e renderlo competitivo con quelli proprietari.
LORA: L’ARMA SEGRETA DELL’OPEN-SOURCE
Ecco dove la rivoluzione si fa interessante. LoRA (Low-Rank Adaptation) è la tecnologia che sta ridicolizzando le Big Tech. Invece di riaddestrare un intero modello da zero, LoRA permette di modificarlo con una quantità minima di risorse. Come funziona?
Congela il modello di base. Invece di rielaborare miliardi di parametri, LoRA blocca la maggior parte del modello e interviene solo su piccole sezioni specifiche.
Aggiunge nuovi pesi a basso rango. Questo significa che si lavora su matrici di dimensioni ridotte, riducendo drasticamente il consumo di memoria e potenza di calcolo.
Rende l’addestramento velocissimo. Invece di settimane o mesi, bastano poche ore per adattare un modello a nuove applicazioni, con risultati comparabili a quelli ottenuti con il fine-tuning tradizionale.
In parole povere, LoRA ha reso il fine-tuning delle AI qualcosa che si può fare con un portatile in un garage. E se la storia ci ha insegnato qualcosa, è che le rivoluzioni iniziano nei garage, non nei grattacieli delle multinazionali.
Benvenuti nella rivoluzione.

In un’epoca in cui la rapidità conta più dell’innovazione, il team di Hugging Face ha deciso di dimostrare che clonare è meglio che creare. In sole 24 oreperché perdere tempo con dettagli inutili? ha replicato il sistema Deep Research di OpenAI, ribattezzandolo con l’originalissimo nome di Open Deep Research. L’ironia del prefisso “Open” è tutta da gustare, considerando che il progetto nasce come una versione alternativa di qualcosa che, in teoria, dovrebbe già essere aperto.
Il gioiellino di Hugging Face si distingue per la sua capacità di navigare autonomamente sul web e generare report di ricerca, un’abilità che oggi persino un adolescente con ChatGPT e un motore di ricerca potrebbe padroneggiare. Eppure, nonostante la fretta con cui è stato assemblato, Open Deep Research può già vantare un onorevole 55,15% di accuratezza nel benchmark GAIA, poco distante dal 67,36% dell’originale di OpenAI. Insomma, non è il massimo, ma nemmeno una figuraccia totale.

Benvenuti nell’era dell’IA che si allena su sé stessa, creando un paradosso degno di Escher: più si ripete, meno capisce. L’Università di Pisa assieme alla Scuola Siperiore di Pisa ISTI-CNR e Victoria University, Wellington, New Zealand, ha messo il dito nella piaga con uno studio (Characterizing Model Collapse in Large Language Models Using Semantic
Networks and Next-Token Probability, Gambetta, Gizem Gezici
, Fosca Giannotti, Dino Pedreschi, Alistair Knott, Luca Pappalardo) che analizza il “model collapse“, ovvero il degrado progressivo della qualità dei modelli linguistici quando vengono addestrati con il loro stesso output. DeepSeek, il nuovo arrivato nell’arena dell’IA, ha deciso di ribaltare le fasi di training e il risultato sembra un esperimento da laboratorio di Frankenstein.

Il concetto di Proof of Personhood (Prova di Umanità) è stato esplorato in diversi film e libri: Do Androids Dream of Electric Sheep?, Test di Voigt-Kampff” in Blade Runner, Ex Machina. The Matrix. La tematica centrale riguarda la distinzione tra esseri umani e intelligenze artificiali o entità digitali, ed è stata trattata in modo approfondito soprattutto nella fantascienza.
Cosa significa essere umani di fronte alle nuove tecnologie?
Il concetto di Proof of Personhood sta acquisendo una rilevanza fondamentale in un contesto globale sempre più dominato dall’intelligenza artificiale, e in particolare dalla crescente fusione tra esseri umani e macchine. In un mondo dove i bot AI, le identità sintetiche e le tecnologie deepfake stanno rapidamente invadendo gli spazi digitali, è curioso notare come, in alcuni casi, non sia più tanto rilevante identificare chi sia qualcuno, quanto piuttosto confermare se quella persona è umana. La questione quindi non riguarda tanto il “CHI SEI”, ma il “COSA SEI”.

Il concorso, in programma per la partita tra Kansas City e Philadelphia del 9 febbraio, è una strategia di acquisizione utenti che definire aggressiva sarebbe un eufemismo. I partecipanti possono accumulare fino a 26 iscrizioni al sorteggio attraverso un mix di download, referral e utilizzo effettivo dell’app durante il match. Purtroppo non siamo residenti USA.
Perplexity sta cavalcando un’onda di crescita notevole, con la sua base utenti che in tre mesi è esplosa del 50%, passando da 10 a 15 milioni di utenti attivi al mese. Un dettaglio irrilevante per chi vive nel terrore di ricevere più notifiche push del dovuto, ma decisamente interessante per gli investitori, sempre a caccia del prossimo unicorno tech su cui scommettere.


Presearch ha lanciato PreGPT 2.0, un nuovo capitolo nella sfida alle Big Tech nel settore dell’AI conversazionale. Con un’infrastruttura decentralizzata, questo aggiornamento punta a ridefinire il concetto di chatbot, offrendo modelli linguistici avanzati e una maggiore varietà di soluzioni AI open-source.
La novità più rilevante è il superamento del tradizionale approccio centralizzato: invece di operare da data center monolitici, PreGPT 2.0 sfrutta una rete distribuita di computer indipendenti. Secondo Brenden Tacon, innovation and operations lead di Presearch, questa architettura consente al chatbot di operare senza le restrizioni tipiche delle AI mainstream, spezzando il meccanismo degli algoritmi che alimentano il conformismo digitale.

L’intersezione tra intelligenza artificiale, ergonomia cognitiva e complessità dei sistemi è un territorio in cui il pensiero umano si scontra con i limiti e le possibilità delle macchine. Due prospettive fondamentali emergono da autori chiave: Donald Norman, Frank (Francesco) Zappa . Ognuno di loro, da un diverso angolo disciplinare, ha contribuito a ridefinire il nostro rapporto con la tecnologia, il design e l’errore.

Oggi siamo stati invitati al convegno Medicina Digitale, Telemedicina e Responsabilità civile, moderato da Gianluca Marmorato, Coordinatore GdL Privacy AiSDeT e aperto da Massimo Caruso, Segretario generale AiSDeT.
La digitalizzazione della sanità sta rivoluzionando il modo in cui pensiamo alla responsabilità medica. Telemedicina, intelligenza artificiale e condivisione dei dati sollevano domande cruciali: chi è responsabile se un errore di diagnosi avviene online o se un algoritmo sbaglia?
Le normative esistenti, pensate per la medicina tradizionale, sembrano insufficienti per queste nuove realtà. Per questo motivo, eventi multidisciplinari come tavole rotonde sono fondamentali per discutere come adattare le leggi alle tecnologie emergenti e proteggere sia i pazienti che i professionisti sanitari coinvolti nei processi di cura digitale.
È il momento di aprire un dibattito ampio e inclusivo per garantire che la medicina digitale sia sicura ed efficace. Non siamo noi di Rivista.AI dei giuristi ma proviamo a cogliere alcuni aspetti dibattuti durante l’evento.

Nel mondo scintillante dell’intelligenza artificiale, dove le grandi aziende si sfidano a colpi di miliardi per costruire il cervello sintetico definitivo, un gruppo di ricercatori di Stanford e dell’Università di Washington ha deciso di rovinare la festa. Con un budget ridicolo e un po’ di ingegno, hanno creato un modello AI di ragionamento che rivaleggia con OpenAI, spendendo meno di una cena in un ristorante mediocre.
Il modello in questione, chiamato “s1” (forse per sottolineare quanto sia basilare rispetto ai colossi da miliardi di dollari), è stato addestrato con la sorprendente cifra di… 1.000 domande. Già, niente terabyte di dati segreti o infrastrutture da capogiro, solo un piccolo set di domande ben selezionate. Il tutto è costato meno di 50 dollari e ha richiesto la bellezza di 26 minuti per essere raffinato. Tempi difficili per chi ancora pensa che servano budget illimitati per ottenere risultati nel campo dell’IA.

Il 2024 ha segnato un anno straordinario per la ricerca sulla sicurezza informatica, con un livello di innovazione senza precedenti. Dall’hijacking di OAuth ai nuovi exploit nei web server Apache, queste scoperte non solo ridefiniscono le minacce esistenti, ma introducono anche nuove classi di attacchi che i professionisti della sicurezza dovranno affrontare nei prossimi anni.

Sergio Mattarella, solitamente pacato e istituzionale, il 6 febbraio 2025 all’Università di Marsiglia ha deciso di abbandonare i toni diplomatici per servire un discorso dal retrogusto amarognolo, con una stoccata elegante ma inequivocabile ai colossi della tecnologia e all’Europa sonnacchiosa.
Ha parlato dei “neo-feudatari del Terzo millennio”, riferendosi a quei simpatici padroni delle grandi aziende tecnologiche che, mentre si proclamano innovatori e filantropi, accumulano un potere che fa impallidire persino i monarchi assoluti del passato.
Il messaggio? Occhio, perché stiamo passando dal feudalesimo storico a una versione aggiornata in cui, invece della terra, controllano dati, informazioni e quindi le nostre vite.