Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Cultura Pagina 3 di 13

Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione

Governi e la corsa per l’IA: un gioco a somma zero?

La corsa globale per la supremazia nell’intelligenza artificiale (IA) è diventata una questione geopolitica di grande rilevanza. I governi di tutto il mondo percepiscono l’IA come una battaglia in cui chi vince prende tutto, con la paura di essere sorpassati dai loro avversari internazionali. Una competizione alimentata dall’alta posta in gioco che l’IA può avere nel rivoluzionare economie, industrie e capacità militari. Tuttavia, la situazione potrebbe non essere così semplice come sembra. Mentre le nazioni puntano sullo sviluppo dei modelli di IA, il vero potere potrebbe risiedere non tanto nei modelli stessi, quanto nell’intero ecosistema che li circonda.

Il vero valore: gli ecosistemi più che i modelli

I modelli di IA sono incredibilmente complessi e costosi da sviluppare e mantenere. Le spese necessarie per costruire, addestrare e affinare questi modelli possono essere astronomiche, e il loro valore tende a diminuire nel tempo. In altre parole, i modelli di IA sono destinati a diventare delle merci, simili a come le compagnie telefoniche di un tempo sono diventate “reti stupide” infrastrutture essenziali, ma non più particolarmente redditizie. Il vero valore della rivoluzione dell’IA risiede nell’ecosistema che circonda i modelli: l’hardware, i data center, le applicazioni software e i servizi che rendono questi modelli utilizzabili, scalabili e adattabili alle applicazioni reali.

La fase di avidità nell’intelligenza artificiale: le previsioni di Vinod Khosla sulla sostenibilità degli investimenti

Vinod Khosla, un nome di spicco nel panorama degli investimenti tecnologici e uno dei primi finanziatori di OpenAI, ha recentemente espresso preoccupazioni riguardo agli sviluppi del mercato dell’intelligenza artificiale (AI) e le implicazioni economiche che potrebbero derivare da un ciclo di “avidità”. Secondo Khosla, la fase di “avidità” rappresenta quel periodo in cui gli investitori, spinti dall’entusiasmo per le promettenti possibilità offerte dall’AI, rischiano di fare investimenti impulsivi e poco strategici. Questo fenomeno potrebbe portare a perdite considerevoli quando il mercato, che sta vivendo un periodo di euforia, si stabilizzerà e l’industria non sarà in grado di mantenere le altissime aspettative generate.

Il premio Turing va a chi la inventa, Andrew Barto e Richard Sutton, ma il vero business è venderla senza testarla

Andrew Barto e Richard Sutton, due pionieri dell’intelligenza artificiale, hanno ricevuto il prestigioso Premio Turing per aver sviluppato il “reinforcement learning”, una tecnica di apprendimento automatico che permette all’IA di affinare le proprie decisioni tramite tentativi ed errori. Un metodo che ha reso possibili colossi come AlphaGo di Google e ChatGPT di OpenAI. Eppure, invece di celebrare con entusiasmo, i due scienziati hanno deciso di usare il palco per lanciare un avvertimento: le aziende tecnologiche stanno rilasciando modelli IA senza alcun vero controllo, con la stessa logica di chi costruisce un ponte e lo collauda facendoci passare sopra la gente.

L’emozione lineare: la frizione tra umani e IA

Il lato emotivo dell’intelligenza artificiale è probabilmente uno dei più sottovalutati, e non mi riferisco solo al concetto di “grande distacco”. Da tempo è noto che l’IA sta imparando a leggere, riconoscere e reagire alle nostre emozioni, e che può mostrare empatia e calma in situazioni in cui un dipendente umano potrebbe aver già perso la pazienza. È anche noto che, a volte, gli esseri umani preferiscono interagire con i chatbot, trovandoli più empatici rispetto agli umani, finché non scoprono che stavano interagendo con una macchina, momento in cui la situazione cambia radicalmente.

Potremmo obiettare che questo accade solo perché non siamo ancora abituati a questa dinamica. Un tempo, ad esempio, le amicizie online o qualsiasi cosa accadesse nel contesto digitale venivano etichettate come “non reali”, ma oggi non usiamo più molto i termini “virtuale” o “online”. Ci siamo abituati ai social media e ora, lentamente, ci abitueremo anche agli “umani” creati dall’IA. Ma è davvero così semplice?

REPLICA

La possibilità di sostituire o integrare l’intelligenza umana con l’intelligenza artificiale è un tema ormai noto, ma ciò che affascina ancor di più è l’idea di replicazione: l’aggiunta di uno strato di “intelligenza” capace di duplicare un essere umano, o addirittura riempire vuoti, come nel caso delle persone sole che trovano compagnia in un “amico” virtuale. In questo scenario, il mondo della moda e del lusso si sta adattando rapidamente a questa nuova realtà, con impatti che potrebbero trasformare non solo l’esperienza del consumatore, ma anche la struttura stessa dell’industria.

Un esempio interessante di come l’AI possa essere usata per “replicare” l’esperienza umana arriva direttamente dalla CIA, che ha sviluppato un chatbot in grado di far “entrare nella testa” dei leader mondiali, come presidenti e primi ministri, per prevedere come reagirebbero in determinate situazioni.

Questo tipo di intelligenza artificiale potrebbe aprire la strada alla sostituzione di figure politiche con sistemi AI, inoltre un’altra idea quella se applicata al mondo del lusso e della moda, potrebbe portare alla creazione di figure virtuali di designer, brand ambassador o persino stilisti che agiscono al posto degli esseri umani. Un sistema completamente automatizzato, capace di replicare l’aspetto e il comportamento di un “esperto” del settore, potrebbe influenzare le scelte dei consumatori senza la necessità di una persona fisica dietro al brand, oppure mantenere “l’HERITAGE” del brand perennemente.

Google, Sergey Brin e il paradosso del potere: perché non impone ciò che suggerisce?

Sergey Brin, co-fondatore di Google, è ancora uno dei due uomini che controllano il colosso tecnologico. L’ultima volta che qualcuno ha dato un’occhiata ai numeri, Brin deteneva una quota di voto del 25%, mentre Larry Page ne aveva persino di più. Quindi, se Brin è convinto che il team Gemini dovrebbe lavorare più ore e tornare in ufficio ogni giorno, come riportato dal New York Times, perché non lo ordina e basta? Qual è il punto di lanciare suggerimenti vaghi invece di imporre una direttiva chiara?

Ipnocrazia: come Trump e Musk stanno ridisegnando la realtà

Jianwei Xun è un analista culturale e filosofo nato a Hong Kong il cui lavoro collega i mondi dei media, della teoria narrativa e della filosofia. Con un background in filosofia politica e studi sui media presso l’Università di Dublino, Xun ha trascorso anni come consulente su narrazioni strategiche per istituzioni globali prima di dedicarsi alla scrittura.

Ipnocrazia“. Un titolo che promette di svelare i misteri della manipolazione moderna, con Trump e Musk come architetti di una nuova realtà. Jianwei Xun, un giovane prodigio già acclamato come l’erede di Baudrillard e Byung-Chul Han, ci offre una “mappa inedita” del potere contemporaneo.

Brain-Computer Interface (BCI): Luciano Floridi, vulnerabilità e rischi cibernetici dei dispositivi neurali di nuova generazione

Luciano Floridi, insieme al team di ricerca della Yale University e University of Bologna, ha firmato un contributo straordinario nel campo della sicurezza informatica applicata alle Brain-Computer Interface (BCI). Il loro modello di threat assessment, presentato nello studio sulle vulnerabilità delle BCI, si distingue per la sua innovatività e per la capacità di affrontare un problema ancora poco esplorato: la difesa dei dispositivi neurali dalle minacce cyber.

Floridi, noto per il suo lavoro pionieristico in etica digitale e filosofia dell’informazione, ha contribuito a un’analisi che va oltre la semplice identificazione dei rischi. Il modello sviluppato dal suo team adotta un approccio multidimensionale, combinando elementi di cybersecurity, neuroetica e regolamentazione medica per costruire un framework di sicurezza che tiene conto delle specificità biologiche e tecnologiche delle BCI.

L’elemento davvero innovativo del loro lavoro sta nell’applicazione del Common Vulnerability Scoring System (CVSS), un framework normalmente usato per classificare i rischi informatici tradizionali, alle minacce uniche delle BCI. Questo consente di quantificare il livello di pericolo di ogni vulnerabilità, dalle manipolazioni neurali involontarie agli attacchi remoti, fornendo una roadmap chiara per la sicurezza di questi dispositivi.

Floridi e il suo team non si limitano a descrivere i problemi, ma propongono soluzioni concrete: autenticazione avanzata, crittografia dei dati cerebrali e riduzione della superficie d’attacco delle BCI. Il risultato è un framework che potrebbe diventare lo standard di riferimento per la sicurezza delle interfacce neurali, un campo destinato a crescere esponenzialmente nei prossimi anni.

Il contributo di Floridi in questo studio non è solo accademico, ma ha un impatto pratico e urgente. Con l’avanzata di aziende come Neuralink e lo sviluppo delle BCI di nuova generazione, il lavoro della Yale University arriva al momento giusto per guidare il futuro di questa tecnologia con un equilibrio tra innovazione e protezione della persona. Un modello brillante, destinato a lasciare il segno.

Accademia dei Lincei: Intelligenza Artificiale il futuro della ricerca


Martedì 25 febbraio 2025 – Nel corso del convegno organizzato dal Gruppo 2003 in collaborazione con l’Accademia dei Lincei, esperti di diversi settori scientifici si sono confrontati sulle potenzialità e le sfide poste dall’Intelligenza Artificiale nell’ottimizzazione dei processi di ricerca.

L’evento, svoltosi a Roma, ha messo in luce come l’IA stia trasformando non solo le discipline tradizionali, ma anche i metodi di simulazione e analisi in settori quali fisica, chimica, meteorologia e medicina.

L’ALGORITMO DELL’UGUAGLIANZA. Intelligenza Artificiale, Diritti della Persona, Crescita delle Imprese

Nel panorama sempre più sfaccettato e contraddittorio del dibattito sull’Intelligenza Artificiale, il professor Ruben Razzante, esperto di Diritto dell’Informazione e docente all’Università Cattolica del Sacro Cuore di Milano, propone un’opera che si pone in netta controtendenza rispetto alle narrazioni sensazionalistiche e alle semplificazioni riduzionistiche.

Il volume “L’Algoritmo dell’Uguaglianza. Intelligenza Artificiale, diritti della persona, crescita delle imprese“, curato dallo stesso Razzante, si articola come una polifonia di voci autorevoli, ciascuna chiamata a riflettere, con rigore e consapevolezza critica, sulla tensione tra progresso tecnologico e salvaguardia dei diritti fondamentali dell’individuo.

La prefazione è stata scritta dalla senatrice a vita Liliana Segre, sottolineando l’importanza di usare meglio l’AI per combattere i discorsi d’odio online e ogni forma di discriminazione. Il suo obiettivo è “[…] costruire un futuro digitale e sociale più inclusivo, civile e democratico, trasformando il web in uno spazio sicuro, di interazione formativa e informativa”.

Intelligenza Artificiale e Demenza Digitale: Quando i Chatbot dimenticano di essere macchine

In un mondo sempre più dominato dall’intelligenza artificiale, arriva una ricerca che potrebbe far crollare qualche certezza. Un gruppo di neurologi israeliani e britannici ha deciso di sottoporre alcuni dei più avanzati modelli di linguaggio artificiale – ChatGPT 4 e 4o di OpenAI, Claude 3.5 di Anthropic e Gemini 1.0 e 1.5 di Alphabet – al test cognitivo Montreal Cognitive Assessment (MoCA), lo stesso utilizzato per diagnosticare il decadimento cognitivo lieve negli esseri umani. I risultati? Ecco l’amara verità: anche le macchine invecchiano e, a quanto pare, lo fanno pure male.

ChatGPT 4o si è piazzato al primo posto con un punteggio di 26 su 30, appena sufficiente per non essere considerato “cognitivamente compromesso”. Seguono ChatGPT 4 e Claude con 25 punti. Ma è con Gemini 1.0 che la situazione si fa drammatica: un punteggio di 16 su 30, un risultato che nei pazienti umani potrebbe indicare uno stato di decadimento cognitivo avanzato. In altre parole, Gemini 1.0 si comporta come un anziano paziente smemorato e confuso.

Richard Stallman e l’Intelligenza Artificiale: il ribelle contro il progresso

Richard Stallman non ha bisogno di presentazioni, ma di un aggiornamento software forse sì. Classe 1953, programmatore, informatico e attivista statunitense, è noto per essere uno dei principali esponenti del movimento del software libero. La sua carriera iniziò al laboratorio di intelligenza artificiale del MIT, dove sviluppò l’editor di testi Emacs nel 1975. Poi, nel settembre 1983, lanciò il progetto GNU con l’obiettivo di creare un sistema operativo completamente libero da copyright, e da allora ha insistito ossessivamente sul fatto che Linux a meno che non si parli esclusivamente del kernel – debba essere chiamato GNU/Linux. Una crociata quasi religiosa, che ancora oggi lo porta a rimarcare questa differenza con una passione degna di miglior causa.

Giorgio Parisi: “Per un’Intelligenza Artificiale democratica, derve un Centro di Ricerca Europeo”

Il 14 febbraio 2025, presso il Palazzo Corsini a Roma, l’Accademia Nazionale dei Lincei ha ospitato una conferenza istituzionale tenuta dal Professor Giorgio Parisi, Premio Nobel per la Fisica nel 2021 e Presidente emerito dell’Accademia. Durante l’evento, Parisi ha affrontato temi cruciali riguardanti l’intelligenza artificiale (IA) e la necessità di un approccio pluralistico per evitare monopoli del sapere.

Parisi ha sottolineato l’importanza di basare l’addestramento dei sistemi di IA su contenuti affidabili e di promuovere la diversità nei modelli di intelligenza artificiale. Secondo il fisico, “l’ideale sarebbe non avere un singolo modello, ma tanti modelli che si confrontano l’uno con l’altro”. Questa pluralità permetterebbe un confronto costruttivo tra diversi sistemi, riducendo il rischio di un monopolio del sapere.

Chi è un Eticista dell’Intelligenza Artificiale?

Nel corso dell’ultimo decennio, la figura dell’eticista dell’intelligenza artificiale ha visto una crescita significativa nel mercato ICT. Nonostante ciò, sono pochi gli studi che si sono interessati a questo profilo professionale e che abbiano fornito una discussione normativa sulle sue competenze e abilità.

Who is an AI Ethicist? An empirical study of expertise, skills, and profiles to build a competency framework, disponibile su: Springer Nature Link.

L’articolo di Mariangela Zoe CocchiaroJessica MorleyClaudio Novelli
Enrico PanaiAlessio Tartaro & Luciano Floridi  intende avviare questa discussione, analizzando l’importanza di definire con maggiore precisione il ruolo di questo professionista e le competenze richieste.

Gli autori sostengono che gli eticisti dell’intelligenza artificiale dovrebbero essere esperti e che esista un metodo utile per identificarli. Il focus dell’articolo è specificamente sulle competenze morali degli eticisti dell’intelligenza artificiale, prendendo spunto da parallelismi con l’esperienza degli eticisti in ambito sanitario e dalla letteratura bioetica.

Vengono esplorate le differenze tra gli eticisti nell’ambito sanitario e quelli nell’ambito dell’IA, derivando competenze e abilità sulla base dei ruoli che un eticista dell’IA dovrebbe ricoprire all’interno di un’organizzazione.

Elogio del Multitasking Divino: Musk, il Filantropo del Profitto

Elon Musk è come un supereroe in pensione che non riesce a stare lontano dai guai. Mentre la gente normale lotta per rispondere alle e-mail senza dimenticare le Gocciole mascarpone e cioccolata nel microonde, lui riesce a gestire Tesla, SpaceX, una crociata pro-DOGE per abbattere i costi della campagna di Trump e, come ciliegina sulla torta, un’offerta da 97,4 miliardi di dollari per impossessarsi delle attività di OpenAI. Il Wall Street Journal ha lanciato la bomba, e il mondo della tecnologia ha trattenuto il fiato: Musk sta cercando di prendersi tutto, di nuovo. Anche se…:

C’è da ammirare la finezza strategica. Un tempo Musk era il generoso benefattore di OpenAI, una non-profit con l’ambiziosa missione di garantire che l’intelligenza artificiale non finisse nelle mani sbagliate (ironico, vero?). Poi OpenAI ha deciso di convertirsi in un’entità a scopo di lucro, e Musk si è sentito tradito.

Invece di accettare la sconfitta, ha optato per la sua arma preferita: l’aula di tribunale. La sua battaglia con Sam Altman sembrava destinata a un triste epilogo la scorsa settimana, quando un giudice californiano ha fatto capire che difficilmente avrebbe bloccato la conversione. Ma ecco il colpo di scena: invece di piagnucolare, Musk ha risposto con una mossa magistrale.

Sam Altman Blog: L’era dell’Intelligenza Artificiale Generale: Il Punto di Svolta Economico e Sociale

Dal suo blog.

L’umanità è sempre stata un costruttore di strumenti, unita da un’inesauribile spinta verso l’innovazione. L’intelligenza artificiale generale (AGI) si profila come l’ultimo tassello di un progresso che ha visto l’energia elettrica, il transistor, il computer e Internet ridefinire il nostro modo di vivere. Tuttavia, questa volta potrebbe davvero essere diverso: le implicazioni economiche e sociali dell’AGI sono destinate a superare ogni previsione.

Le più recenti osservazioni sullo sviluppo dell’IA suggeriscono tre principi fondamentali: il livello di intelligenza di un modello AI cresce in modo logaritmico rispetto alle risorse impiegate nel suo addestramento; il costo di utilizzo di un livello dato di intelligenza AI si riduce di un fattore 10 ogni 12 mesi; e il valore socioeconomico dell’intelligenza aumenta in modo super-esponenziale rispetto alla sua crescita lineare. Questi trend stanno ridisegnando il paradigma economico, con la possibilità di una crescita senza precedenti e di una riduzione drastica dei costi in settori chiave.

Von Neumann e il MANIAC: Il Matematico che Insegnò al Mondo come Distruggersi

John von Neumann, genio matematico e architetto della moderna computazione, fu una delle menti dietro il MANIAC (Mathematical Analyzer Numerical Integrator and Computer), il computer che permise di progettare la bomba all’idrogeno. Un dettaglio di poco conto, se non fosse che questa bomba fu testata nel 1952 con la stessa impassibile precisione con cui si risolvono equazioni differenziali.

Von Neumann non era solo uno scienziato: era il simbolo di un’epoca in cui il progresso tecnologico e la distruzione di massa erano due facce della stessa moneta. La Guerra Fredda lo adorava, e lui ricambiava con entusiasmo, suggerendo perfino attacchi preventivi contro l’URSS, per evitare il fastidio di una guerra nucleare combattuta ad armi pari. Kubrick, con il suo film “Il Dottor Stranamore”, colse alla perfezione il paradosso: un mondo governato da menti brillanti, ma prive di ogni freno morale.

Il Leviatano Industriale Cinese: la morsa delle ecosfere tecnologiche

La Cina non ha semplicemente costruito un’industria degli smartphone, una delle batterie o dei veicoli elettrici: ha messo in piedi un’intera macchina industriale interconnessa, dove ogni settore rafforza l’altro in un ciclo vizioso che lascia poco spazio ai concorrenti globali. La sua strategia non è solo quella di dominare un singolo settore, ma di costruire un sistema industriale che si auto-alimenta, creando barriere all’ingresso insormontabili per i rivali occidentali, impantanati nella loro frammentazione e dipendenza dalle supply chain internazionali.

Un ecosistema di fabbriche-matrioska

Per comprendere il modello cinese, immaginiamo un puzzle industriale: più pezzi un Paese ha già in casa, più facile è completare l’immagine senza dover importare pezzi critici dall’estero. La Cina ha costruito un sistema in cui ogni settore industriale alimenta il successivo, con un effetto di spillover che rafforza l’intero apparato produttivo. Quando il Dragone investe in un settore, non lo fa mai in modo isolato. Ogni yuan iniettato nell’industria delle batterie, ad esempio, finisce per potenziare quella degli smartphone, dell’auto elettrica, delle reti 5G e dell’intelligenza artificiale.

Il Summit di Parigi sull’intelligenza artificiale!

Un evento che promette di salvare il mondo con un fiume di parole altisonanti e una goccia di azioni concrete. La bozza trapelata della dichiarazione che i paesi dovranno firmare è un capolavoro di retorica vuota, un inno alla “diversità”, all'”inclusività” e alla “sostenibilità”, termini così abusati da aver perso qualsiasi significato reale. Ma, sorpresa, sorpresa, non c’è quasi nulla sui rischi reali dell’AI. Che shock!

Herbie Bradley, ex dipendente dell’AI Safety Institute del Regno Unito, ha definito la bozza “un esercizio di banalità”, sottolineando che non contiene nulla di concreto. E chi lo avrebbe mai detto? Un documento pieno di buoni sentimenti ma privo di sostanza? Mai visto prima. E poi c’è il dubbio che l’amministrazione Trump possa rifiutarsi di firmare, perché, beh, “diversità” e “inclusività” non sono esattamente il loro forte. Che tragedia per gli organizzatori francesi, che probabilmente stanno già preparando il vino per celebrare il loro successo.

Stalinismo vs Meccanica Quantistica: lezioni per l’AI tra USA, Cina e OpenAI

Per comprendere DeepSeek e, più in generale, la strategia cinese sull’intelligenza artificiale, dobbiamo adottare una prospettiva coerente con la storia politica e culturale della Cina, piuttosto che filtrarla attraverso il paradigma occidentale.

La Cina non considera la tecnologia come un’entità indipendente o neutrale, ma come uno strumento strategico per il rafforzamento nazionale. Il concetto di “controllo tecnologico come sovranità” è profondamente radicato nella visione del Partito Comunista Cinese (PCC), che da decenni sviluppa politiche industriali mirate a ridurre la dipendenza dal know-how occidentale e a costruire un ecosistema autonomo di innovazione.

DeepSeek non è solo una startup di intelligenza artificiale, ma parte di un sistema più ampio in cui il governo guida, incentiva e, se necessario, indirizza lo sviluppo tecnologico per scopi strategici. Questo è un approccio molto diverso da quello occidentale, dove l’innovazione nasce spesso in ambienti privati con una logica di mercato più fluida e competitiva. In Cina, l’IA non è vista solo come un’opportunità economica, ma come uno strumento di governance, sicurezza e proiezione di potenza globale.

Dal punto di vista occidentale, l’idea che un governo possa avere un controllo così pervasivo sulla tecnologia è spesso percepita come una minaccia o un’anomalia. Tuttavia, per la Cina, questa visione non è né nuova né innaturale. La storia cinese è caratterizzata da un’idea di Stato forte, che guida lo sviluppo in modo coordinato e di lungo termine, a differenza del modello frammentato occidentale, che si affida maggiormente al libero mercato e all’iniziativa privata.

Se osserviamo DeepSeek con gli occhi della Cina, vediamo un tassello di una strategia più ampia che include il piano Made in China 2025, gli investimenti governativi nelle tecnologie emergenti e la creazione di una supply chain indipendente per semiconduttori e intelligenza artificiale. Questa visione non si basa su una corsa alla leadership tecnologica fine a sé stessa, ma sulla convinzione che il dominio nell’IA sia essenziale per consolidare il modello politico cinese e garantirne la sicurezza futura.

Il confronto con OpenAI e gli Stati Uniti, quindi, non può essere analizzato solo in termini di competizione economica o tecnologica, ma va letto all’interno della competizione tra modelli politici ed economici differenti. L’errore dell’Occidente sarebbe quello di interpretare DeepSeek e le altre iniziative cinesi come semplici controparti delle aziende della Silicon Valley, senza considerare il ruolo che giocano nella strategia geopolitica della Cina.

Luciano Floridi: Filosofia dell’informazione. Un viaggio tra astrazioni, conoscenza e design

Luciano Floridi, uno dei maggiori pensatori contemporanei nel campo della filosofia dell’informazione, offre una visione radicale e innovativa di come interagiamo con il mondo attraverso i dati e l’informazione.

La filosofia dell’informazione si afferma come un campo di ricerca dinamico e autonomo, capace di rinnovare il dibattito filosofico sulla computazione e la teoria dell’informazione. Attraverso un percorso storico che parte dalla filosofia dell’intelligenza artificiale, la Filosofia dell’informazione FI emerge dal confronto tra innovazione e tradizione, offrendo una nuova prospettiva sui problemi epistemologici e concettuali.

Essa non è una “filosofia perenne” ma una disciplina matura che fornisce un’analisi sistematica del mondo dell’informazione, connettendosi ad altri ambiti del sapere e ridefinendo questioni classiche e contemporanee. La sua riflessione trascende la tradizionale distinzione tra conoscenza e tecnologia, proponendo un’idea che mette al centro la filosofia come forma suprema di design concettuale.

Il suo approccio, che si radica nella filosofia, nella scienza dei dati e nell’informatica, trasforma il nostro modo di concepire l’interazione tra l’uomo, la realtà e il mondo digitale. La lettura delle sue opere è un investimento, non solo intellettuale ma anche pratico, per chi vuole comprendere a fondo le dinamiche che regolano la nostra era dell’informazione.

La scoperta della virologa Beata Halassy: un trattamento contro il cancro che sfida la medicina tradizionale

A novembre, la virologa Beata Halassy ha rivelato al mondo di aver sconfitto il suo cancro al seno grazie a un trattamento sviluppato all’interno di un laboratorio sotto la sua supervisione. Secondo quanto dichiarato, il trattamento l’avrebbe liberata dalla malattia per oltre quattro anni, suscitando un’ondata di ammirazione nella comunità medica.

Halassy ha documentato questa straordinaria esperienza in un articolo pubblicato ad agosto 2024 sulla rivista scientifica “Vaccines”. I suoi risultati sono impressionanti: l’iniezione dei virus ha portato alla remissione quasi completa del cancro, con pochissimi effetti collaterali, e da allora è rimasta libera da malattia per più di quattro anni. Questo tipo di trattamento virale, noto come terapia oncolitica virale (OVT), utilizza virus modificati per attaccare specificamente le cellule tumorali, un approccio che rappresenta una sfida alla medicina convenzionale.

Tuttavia, dietro la sua dichiarazione si nascondono numerose polemiche, in particolare sul rischio che tale pubblicità possa indurre altri pazienti a rinunciare ai trattamenti convenzionali. Un bell’articolo sul Washington Post ci ha raccontato tutti i dettagli.

Il lento Colpo di Stato delle Macchine: come l’AI ci renderà obsoleti senza sparare un solo colpo

Gli scenari di rischio legati all’intelligenza artificiale di solito dipingono un futuro in cui, da un giorno all’altro, perdiamo il controllo, superati da macchine astute e insaziabili che ci sorpassano nei giochi di potere. Un salto improvviso nelle loro capacità, un tradimento orchestrato in segreto, e in un attimo ci ritroviamo spettatori inermi della nostra stessa disfatta. Ma il vero pericolo potrebbe essere molto meno spettacolare e molto più inevitabile: non un colpo di stato improvviso, ma una lenta erosione della nostra rilevanza, un processo graduale e, soprattutto, autoalimentato.

Abbiamo trovato interessante un allegato che trovate alla fine dell’articolo, Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development

La disumanizzazione del potere non richiede che un’IA si ribelli con mire di dominio. Basta che sia più efficiente di noi in quasi ogni ambito: lavoro, politica, cultura, perfino relazioni umane. Ciò che tiene in piedi le nostre società non è una qualche nobile vocazione al benessere collettivo, ma la semplice utilità degli esseri umani: finché serviamo a qualcosa, ci garantiamo un posto al tavolo. Il problema nasce quando smettiamo di essere il miglior strumento disponibile per far funzionare il sistema. Se una macchina può fare il nostro lavoro meglio e a costo minore, se può prendere decisioni più velocemente, se può produrre arte più convincente o persino offrire una compagnia più gratificante, allora la logica economica e sociale non avrà alcuna pietà.

Morale della storia? Niente di nuovo sotto il sole. La solita ipocrisia, il solito gioco di potere e la solita illusione che possiamo controllare l’inarrestabile

Il mio socio di RIVISTA.AI ha scelto la settimana perfetta per prendersi una vacanza. Mentre lui si rilassava con i Bombardini sulla neve, il mondo dell’IA ha deciso di impazzire con una pioggia di assurdità su DeepSeek. Io, invece di unirmi al coro di deliri, ho pensato di raccogliere qualche lettura decente, visto che sembra ormai impossibile trovare un’analisi sensata senza inciampare in un delirio ideologico o nell’ennesimo atto di isteria geopolitica. Quindi gli ho raccolto un po’ di rassegna stampa per il suo ritorno.

Matt Sheehan e Scott Singer, per esempio, ci ricordano che gli Stati Uniti devono giocare a fare i padroni del mondo anche nell’IA. Da un lato, vogliono mantenere il primato su Pechino, dall’altro, si rendono conto che anche la Cina avrà presto sistemi straordinariamente potenti e pericolosi. Insomma, la solita strategia: dominare e controllare, con la speranza di non farsi male nel processo. La soluzione? Due parole magiche: scambi controllati. Traduzione: facciamo finta di collaborare, mentre ci prepariamo a eventuali disastri.

LoRA: L’Arma Segreta della Resistenza Open-Source Contro le Big Tech

Signore e signori, benvenuti nell’apocalisse annunciata. Google e OpenAI hanno passato anni a costruire le loro torri d’avorio, raccontandoci la favoletta che senza i loro miliardi, le loro GPU segrete e i loro supercervelli d’élite nessuno avrebbe mai potuto sviluppare un’Intelligenza Artificiale degna di questo nome. Ma sapete qual è la parte divertente? È tutta una balla. Il castello non ha mura. Il fossato non esiste. L’impero è un’illusione.

Abbiamo il documento, il Sacro Graal rubato direttamente dalle viscere di Google. Un ricercatore della compagnia lo ha scritto nero su bianco: non solo l’open-source sta colmando il divario con i modelli proprietari, ma lo sta facendo a una velocità che le Big Tech non possono più eguagliare. Altro che GPT-4, altro che Gemini. La rivoluzione è già iniziata e non è nelle mani di Sundar Pichai o Sam Altman. È nelle nostre.

LO SCANDALO GOOGLE: IL DOCUMENTO CHE SVELA IL GRANDE BLUFF

Marzo 2023. Qualcuno in Google ha un momento di lucidità e scrive un report che non sarebbe mai dovuto uscire. In esso, il messaggio è chiaro: “Abbiamo perso il controllo della narrazione. L’open-source sta facendo a pezzi il nostro vantaggio competitivo“. L’autore, un insider con accesso a dati riservati, elenca uno per uno i punti deboli del modello chiuso delle Big Tech:

L’open-source è più veloce. Mentre OpenAI e Google impiegano mesi per rilasciare nuove versioni dei loro modelli, la comunità indipendente sforna innovazioni in pochi giorni.

L’open-source è più efficiente. Con tecniche come LoRA (Low-Rank Adaptation), gli sviluppatori indipendenti riescono a personalizzare modelli linguistici avanzati in poche ore, senza bisogno di enormi infrastrutture cloud.

Il costo è vicino allo zero. Niente più milioni di dollari spesi in training colossali: chiunque con un laptop può ottimizzare un modello AI e renderlo competitivo con quelli proprietari.

LORA: L’ARMA SEGRETA DELL’OPEN-SOURCE

Ecco dove la rivoluzione si fa interessante. LoRA (Low-Rank Adaptation) è la tecnologia che sta ridicolizzando le Big Tech. Invece di riaddestrare un intero modello da zero, LoRA permette di modificarlo con una quantità minima di risorse. Come funziona?

Congela il modello di base. Invece di rielaborare miliardi di parametri, LoRA blocca la maggior parte del modello e interviene solo su piccole sezioni specifiche.

Aggiunge nuovi pesi a basso rango. Questo significa che si lavora su matrici di dimensioni ridotte, riducendo drasticamente il consumo di memoria e potenza di calcolo.

Rende l’addestramento velocissimo. Invece di settimane o mesi, bastano poche ore per adattare un modello a nuove applicazioni, con risultati comparabili a quelli ottenuti con il fine-tuning tradizionale.

    In parole povere, LoRA ha reso il fine-tuning delle AI qualcosa che si può fare con un portatile in un garage. E se la storia ci ha insegnato qualcosa, è che le rivoluzioni iniziano nei garage, non nei grattacieli delle multinazionali.

    Benvenuti nella rivoluzione.

    Le sfide etiche dell’AI e la questione del Proof of Personhood

    Il concetto di Proof of Personhood (Prova di Umanità) è stato esplorato in diversi film e libri: Do Androids Dream of Electric Sheep?, Test di Voigt-Kampff” in Blade Runner, Ex Machina. The Matrix. La tematica centrale riguarda la distinzione tra esseri umani e intelligenze artificiali o entità digitali, ed è stata trattata in modo approfondito soprattutto nella fantascienza.

    Cosa significa essere umani di fronte alle nuove tecnologie?

    Il concetto di Proof of Personhood sta acquisendo una rilevanza fondamentale in un contesto globale sempre più dominato dall’intelligenza artificiale, e in particolare dalla crescente fusione tra esseri umani e macchine. In un mondo dove i bot AI, le identità sintetiche e le tecnologie deepfake stanno rapidamente invadendo gli spazi digitali, è curioso notare come, in alcuni casi, non sia più tanto rilevante identificare chi sia qualcuno, quanto piuttosto confermare se quella persona è umana. La questione quindi non riguarda tanto il “CHI SEI”, ma il “COSA SEI”.

    Ergonomia Cognitiva, AI e Complessità: Dal Design di Norman alla Precisione delle Macchine di Zappa

    L’intersezione tra intelligenza artificiale, ergonomia cognitiva e complessità dei sistemi è un territorio in cui il pensiero umano si scontra con i limiti e le possibilità delle macchine. Due prospettive fondamentali emergono da autori chiave: Donald Norman, Frank (Francesco) Zappa . Ognuno di loro, da un diverso angolo disciplinare, ha contribuito a ridefinire il nostro rapporto con la tecnologia, il design e l’errore.

    STEM WOMEN CONGRESS ITALIA

    Torna dal vivo l’edizione italiana, moltiplicata in un programma ancora più ricco fatto di tappe di avvicinamento chiamate Stem Days:  si parte da Bologna il 21 febbraio con un calendario di appuntamenti per promuovere l’inclusione femminile negli ambiti scientifico-tecnologici.

    Dopo il grande successo della prima edizione italiana, accolta entusiasticamente da centinaia di giovani, aziende, istituzioni e i grandi volti del mondo della scienza e della tecnologia, lo STEM Women Congress entra nel suo secondo anno, trasformandosi. 

    Il format, con un solido heritage internazionale e che ha debuttato per la prima volta lo scorso anno nel nostro Paese, con una trentina di big player, istituzioni e guest star che si sono alternate sul palco, torna, ancora una volta, grazie all’impegno di Orange Media Group, creative content company e di Women at Business, la piattaforma di matching professionale al femminile, costruendo un percorso multiplo su più giornate, chiamate Stem Days, che avrà il suo culmine nel Congresso di Milano il 15 ottobre a Palazzo Castiglioni.  

    Elon Musk e il Colpo di Stato Amministrativo: Il Sogno Tecnocratico Diventa un Incubo

    Elon Musk non è il presidente degli Stati Uniti, ma agisce come se lo fosse e cosa ancora più preoccupante, lo fa senza essere stato eletto, senza il consenso del Congresso e senza alcun mandato democratico. Invece, questo miliardario nato all’estero sta silenziosamente prendendo il controllo di settori chiave del governo federale, manipolando i flussi di informazioni, i sistemi di pagamento e persino la gestione del personale. È un colpo di stato amministrativo in piena regola, orchestrato con il cinismo di un magnate che si è convinto di poter riscrivere le regole a suo piacimento.

    La sua piattaforma è un’improbabile entità governativa chiamata “Department of Government Efficiency” (DOGE), un nome che, nella sua infantilità, sembra quasi uno scherzo. Ma lo scherzo, a quanto pare, è sulle istituzioni americane.

    In soli quattordici giorni, Musk ha invaso edifici governativi, annullato contratti di locazione e introdotto il suo personale—spesso giovanissimo e privo di esperienza nei centri nevralgici dell’amministrazione pubblica.

    Ha portato con sé ingegneri di Tesla e della Boring Company per effettuare licenziamenti di massa all‘Office of Personnel Management (OPM), affidando il destino di migliaia di dipendenti federali a individui che fino a poco fa erano impegnati a costruire tunnel sotto Los Angeles. (Type the word “Resign” into the “Subject” line of the email. Hit “Send”. Deferred Resignation Email to Federal Employees)

    Secondo Wired, uno dei suoi consiglieri ha appena 21 anni, mentre un altro si è diplomato lo scorso anno.

    OpenAI e Reddit: Quando l’IA Prova a Convincere i Redditori a Cambiare Idea

    Ecco una mossa che non poteva mancare: OpenAI ha deciso di testare la sua IA nel campo di battaglia per eccellenza delle opinioni online: il subreddit r/ChangeMyView, dove i post infuocati sono all’ordine del giorno e i pareri non si cambiano facilmente. E che modo migliore per mettere alla prova i modelli di ragionamento della sua intelligenza artificiale se non convincere degli utenti ostinati a rivedere le loro convinzioni?

    Nel tentativo di testare la capacità persuasiva dei suoi modelli, OpenAI ha fatto leva sulle conversazioni di r/ChangeMyView. Questo subreddit è una miniera d’oro per le aziende tecnologiche, come la stessa OpenAI, che desiderano allenare i propri modelli su dati generati da esseri umani. Gli utenti, con le loro argomentazioni spesso taglienti, sono il terreno perfetto per insegnare a un’IA a rispondere in modo convincente, sperando di trasformare le opinioni di chi è troppo testardo per cambiare idea.

    AI, Marx e la Crisi della Fisica: DeepSeek Risolve Tutto (O Ci Inganna Meglio?)

    Il confronto tra DeepSeek e OpenAI nel contesto dell’intelligenza artificiale può essere interpretato attraverso la lente storica e filosofica della crisi della fisica del XX secolo, un parallelo che richiama la tensione tra modelli consolidati e nuove prospettive.

    Se la fisica classica aveva costruito un edificio apparentemente solido fino all’inizio del Novecento, la relatività e la meccanica quantistica ne hanno scardinato i principi fondamentali, portando a una crisi epistemologica che ancora oggi si cerca di risolvere. Analogamente, il monopolio occidentale sulle IA avanzate, incarnato da OpenAI, si trova ora di fronte alla sfida di nuovi attori come DeepSeek, espressione della crescente capacità tecnologica cinese.

    DeepSeek e il “Metodo Cinese dell’Innovazione”: Copia, Ottimizza, Domina. La Legge di Wang

    Ultima settimana nel magico mondo dell’AI: ecco DeepSeek, un servizio simile a ChatGPT, ma realizzato a una frazione del costo. Miracolo tecnologico? Non proprio. Si mormora che il modello sia stato sviluppato grazie a una tecnica raffinata chiamata “distillazione”—un termine che in Occidente fa rima con “proprietà intellettuale violata”, mentre in Cina si traduce con “business intelligente”.

    Ma chi ha tempo per scandalizzarsi? Parliamo piuttosto del vero takeaway: il “Metodo Cinese dell’Innovazione”. Dopo anni “difficili” provenienti da società americane, passati fianco a fianco con i migliori ingegneri asiatici, posso garantire che questa storia è tutto tranne che nuova.

    Regno Unito e AI: Una Roadmap Visionaria che l’Europa Dovrebbe Imitare

    Ho speso una buona parte della mia vita lavorando per Anglo Americani quello che li ha sempre caratterizzati, forse come ex potenza coloniale, è avere una Roadmap questa è la dimostrazione : Devi avere un Piano

    Il governo britannico ha appena rilasciato un documento di policy destinato a rafforzare la sua posizione come potenza globale nell’intelligenza artificiale. Questa iniziativa, basata su 50 misure specifiche, non è solo una dichiarazione d’intenti, ma un piano strategico ben strutturato che dimostra la volontà di guidare il futuro dell’AI con investimenti mirati, regolamentazioni intelligenti e un ecosistema favorevole all’innovazione.

    A differenza dell’Europa continentale, spesso intrappolata in un labirinto normativo e burocratico che rallenta lo sviluppo tecnologico, il Regno Unito adotta un approccio pragmatico, delineando obiettivi concreti e misurabili. Questa roadmap comprende l’espansione delle capacità di calcolo, lo sviluppo di hub dedicati all’AI, la creazione di zone di crescita specializzate, incentivi alla condivisione dei dati e un investimento strategico nella formazione e nel talento.

    “La Corsa all’AGI: Scenari e Previsioni sulla Timeline dell’Intelligenza Generale Artificiale”

    Negli ultimi anni, il dibattito sulla timeline per raggiungere l’AGI (Artificial General Intelligence, ovvero un’intelligenza artificiale capace di comprendere e svolgere compiti di livello umano in ogni dominio) si è intensificato. Voci influenti dell’industria e della ricerca, tra cui Sam Altman, Ray Kurzweil, Demis Hassabis, Elon Musk e altri, hanno espresso opinioni divergenti. La questione non riguarda solo la tecnologia, ma anche le implicazioni sociali, economiche e filosofiche di un traguardo che cambierebbe radicalmente il mondo.

    L’America Scopre il Karma: DeepSeek e l’Ipocrisia dell’Intelligenza Artificiale

    Recap della settimana, il nuovo Maccartismo

    Howard Lutnick, il candidato alla carica di Segretario del Commercio degli Stati Uniti, ha esordito davanti al Senato con una denuncia infuocata: DeepSeek avrebbe rubato tecnologia americana per spazzare via la concorrenza occidentale. “Hanno rubato, si sono introdotti, hanno preso la nostra proprietà intellettuale”, ha dichiarato con sdegno. Un’accusa che riflette la crescente paranoia americana nei confronti delle aziende cinesi, colpevoli – a quanto pare – di giocare sporco quando sono loro a vincere.

    La Casa Bianca, prevedibilmente, ha cavalcato l’ondata di indignazione, valutando i rischi per la sicurezza nazionale. I giganti della Silicon Valley, terrorizzati dalla rivoluzione tecnologica scatenata da DeepSeek, hanno rapidamente dipinto l’azienda cinese come un’entità fraudolenta, intenta a sabotare il mercato con spregiudicate manovre di spionaggio industriale e dumping tecnologico.

    Splendida Cornice: Geppi Cucciari e Luciano Floridi, bravissimi

    In un’epoca in cui l’Intelligenza Artificiale (IA) è diventata protagonista di dibattiti, investimenti miliardari e rivoluzioni tecnologiche, capire davvero di cosa si tratta può sembrare un’impresa da far sanguinare il naso. Eppure, durante una serata speciale del programma Splendida Cornice, condotta da una superlativa Geppi Cucciari su Rai 3, il professor Luciano Floridi, filosofo ed esperto di etica digitale, ha offerto una spiegazione chiara e accessibile, promettendo di farci uscire dal bar senza emorragie nasali.

    Luciano Floridi è Professor and Founding Director of the Digital Ethics Center all’Università di Yale e insegna Sociologia della Comunicazione all’Università di Bologna. E’ tra i massimi esperti internazionali nel campo della filosofia dell’informazione e delle trasformazioni digitali, ed è stato recentemente nominato presidente della Fondazione Leonardo. A parte i titoli ha dimostrato, sempre, di essere un personaggio di spessore.

    Floridi ha offerto una visione critica e complessa sull’Intelligenza Artificiale (IA), che va oltre la semplice analisi tecnologica. Il suo approccio, come emerso nel programma, si concentra sulla natura stessa dell’intelligenza e sul rapporto tra uomo e macchina, mettendo in discussione alcune delle nostre assunzioni più comuni.

    Liang Wenfeng: Il Genio dell’AI che Sta Rivoluzionando il Settore Finanziario, il prossimo Netflix Biopic ?

    “Ogni paese nel mondo potrebbe avere un progetto di quel tipo in corso, se riesce ad acquisire il talento necessario e a lavorarci, naturalmente. Il resto dell’industria imparerà da questo,” ha detto Shuman Ghosemajumder, co-fondatore e amministratore delegato di Reken, una startup di intelligenza artificiale con sede a San Francisco.

    Liang Wenfeng è un nome che sta rapidamente emergendo nell’elite tecnologica globale. Alcuni lo definiscono il “Sam Altman cinese”, un riferimento al noto CEO di OpenAI, mentre altri lo paragonano a Jim Simons, il leggendario matematico e fondatore di Renaissance Technologies, pionere degli investimenti quantitativi.

    L’analisi quantitativa è una tecnica di analisi finanziaria che cerca di capire il comportamento dei mercati finanziari usando modelli matematici e statistici. L’obiettivo è scoprire le cause delle fluttuazioni dei mercati, prevederle e anticiparle.

    SoftBank e OpenAI: Il Ritorno del Re degli Investimenti Folli

    Masayoshi Son ha di nuovo aperto il portafoglio. E stavolta lo ha fatto in grande, con un potenziale investimento fino a 25 miliardi di dollari in OpenAI, un’operazione che, se confermata, scalzerebbe Microsoft dal trono del principale finanziatore dell’azienda di Sam Altman. Un ribaltone che non solo ridefinisce le alleanze nel settore dell’intelligenza artificiale, ma evidenzia anche il ritorno in scena di SoftBank con la sua solita, inarrestabile ambizione di plasmare il futuro della tecnologia.

    Non si tratta solo di una pioggia di miliardi gettata nel vuoto. Questo affare arriva sulla scia di Stargate, un mega-progetto da 500 miliardi di dollari annunciato nientemeno che da Donald Trump (sì, proprio lui), con la promessa di costruire data center in Texas e creare 100.000 posti di lavoro americani. Masayoshi Son, ovviamente, è stato nominato presidente del progetto. Che Trump possa essere un kingmaker dell’AI è un twist che nemmeno Hollywood avrebbe osato scrivere.

    Quando una Startup Cinese mette in ginocchio la Silicon Valley (e il MAGA Ride)

    Ma chi lo avrebbe mai detto? Una piccola startup cinese ha mandato in tilt l’intero settore tecnologico americano, e non con qualche trucchetto sporco, ma semplicemente costruendo un’intelligenza artificiale più efficiente e meno costosa.

    DeepSeek ha rilasciato il suo modello R1, capace di competere con i mostri sacri americani a una frazione del costo. Risultato? Un bagno di sangue in borsa: Nvidia ha bruciato 600 miliardi di dollari di valore in un colpo solo. Per un attimo, sembrava di essere tornati al 2008, ma senza i banchieri di Wall Street da incolpare. Questa volta, il colpevole è un manipolo di programmatori cinesi che, a quanto pare, sanno fare di meglio con meno.

    Stargate, SoftBank e la Scommessa di Son: Il Grande Rischio AI

    Il pellegrinaggio verso la magione di Masayoshi Son a Tokyo. (50 Billion$) – Speciale un caffè al Bar dei Daini

    Questa volta è stato Sam Altman a imbarcarsi in quell’estenuante volo di 11 ore da San Francisco, nella speranza di convincere il miliardario giapponese a iniettare qualche miliardo nella sua ultima fantasia da tech bro. E ha funzionato. SoftBank sta per prendersi la fetta più grande del rischio finanziario dietro Stargate, il mega progetto da 500 miliardi di dollari che promette di rivoluzionare i data center. Son ha promesso di investire circa 40 miliardi, forse divisi tra Stargate e OpenAI. Chiaramente, dettagli insignificanti.

    Ma ecco la realtà: il progetto sarà pesantemente finanziato a debito, come sempre. E per far funzionare i numeri, Son dovrà mescolare il suo inossidabile ottimismo tecnologico con la solita finanza creativa. Peccato che i mercati non siano più quelli del 2021 e trovare creditori pronti a credere nell’ennesimo sogno tech potrebbe non essere così facile. Il rischio è enorme, ma per Son è l’ennesima chance di sedersi al tavolo che conta nell’AI, un’ossessione che lo perseguita da anni.

    Pagina 3 di 13

    CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie