Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: v

Frank Wilczek ridefinire i confini della fisica

Frank Wilczek non è soltanto un premio Nobel in fisica, è una di quelle figure che sfidano la nostra idea stessa di cosa significhi pensare. C’è chi lo considera un visionario, altri un disturbatore di equilibri intellettuali. Forse entrambe le cose sono vere. La sua capacità di muoversi tra la più astratta fisica teorica e intuizioni che sembrano provenire da un’altra dimensione ha trasformato il suo nome in una sorta di marchio della curiosità radicale. Wilczek non si limita a interpretare il mondo, ma lo reinventa in categorie nuove, dalla proposta dell’assione come candidato per la materia oscura fino all’invenzione dei time crystals, quelle strane creature concettuali che fanno tremare le fondamenta del nostro concetto di simmetria.

Nuclear Fusion negli Stati uniti: il nuovo Eldorado Energetico

Non fatevi ingannare da quella sensazione di déjà vu tecnologico: la fusione nucleare non è più “sempre tra 20 anni”. È martellata qui e ora con fondi, accordi, roadmap.

Avete presente quella battuta vecchia come il tempo: “La fusione è sempre a cinquant’anni da oggi”? Bene, adesso il cronometro ha un display che dice “2030s”. Il DOE ha sversato denaro su ricerca robotica: 49 milioni di USD per magneti, materiali, cicli di combustibile e muri protettivi. Ventinove laboratori e università, da MIT a Savannah River, si muovono in sinergia con centri nazionali come Idaho Lab e ORNL.

Il Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence: un mosaico giuridico e morale in divenire

Book: The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence

La panoramica che si può ricavare dall’indice e dalle pagine introduttive del “Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence” lascia più domande che risposte, ma proprio questa incompletezza è una buona metafora del nostro rapporto con l’intelligenza artificiale. Un terreno affascinante e instabile, dove diritto, etica e politica si mescolano come ingredienti di un cocktail che deve essere sorseggiato con attenzione ma senza illudersi di averne capito la ricetta. La parola chiave qui è governance dell’IA, un concetto che va ben oltre il semplice controllo tecnico e si addentra nel labirinto della responsabilità, della trasparenza e del potere, ovvero le vere sfide di un mondo che si sta digitalizzando più velocemente di quanto i nostri codici legali riescano a rincorrere.

Microsoft Administering and Governing Agents

La nuova ossessione delle aziende non è costruire agenti AI è governarli

Microsoft ha appena pubblicato un documento strategico che, in qualsiasi altro contesto, sarebbe passato come una noiosa whitepaper da compliance officer. E invece no. Qui c’è una bomba a orologeria per chi sta già distribuendo agenti AI in azienda con lo stesso entusiasmo con cui un team marketing apre un nuovo canale TikTok. La chiamano “Agent Governance” e, se sei un CEO o un CTO che prende sul serio le proprie responsabilità, dovresti leggerla come fosse un avviso di audit dell’FBI recapitato via PEC.

Governo. Controllo. Supervisione. Tre parole che il mondo tech ha trattato come un’infezione da evitare a tutti i costi per due decenni. Ma ora che gli agenti AI sono abbastanza intelligenti da inviare email, accedere a database, prendere decisioni e (a quanto pare) anche prenotare voli aziendali su Expedia, improvvisamente il concetto di “autonomia” sta iniziando a sembrare un po’ meno sexy. Un po’ meno “AI co-pilot”, un po’ più “AI sindacalista con potere esecutivo”.

IA al servizio della sicurezza

Prompt Injection: la vulnerabilità senza fine nei modelli linguistici e l’illusione della sicurezza ai tempi dell’AI

Prompt Injection” una bestia che tutti fingono di aver domato ma che invece si annida come un verme nei meandri dei modelli linguistici. Quella storia che Wired si diverte a raccontare in capitoli infiniti, come se fosse la nuova saga infinita di una soap opera Silicon Valley style. Non c’è fondo a questo pozzo di vulnerabilità. Oggi tocca a ChatGPT collegato a Google Drive, a Gemini che fa il bullet point sul calendario di Google, ieri Microsoft si è fatto sbranare, domani chissà chi sarà il prossimo.

Il punto vero è che il problema non è l’endpoint, non è Google o Microsoft o OpenAI: è l’architettura stessa, il cuore pulsante chiamato Transformer. Una meraviglia della tecnica, sì, ma anche un incubo per la sicurezza. Nessuna protezione affidabile per casi d’uso generalisti è mai stata trovata, nessuna barricata impenetrabile, solo continue toppe che si sgretolano sotto il peso di nuove funzionalità e dati collegati. Se il “primo comandamento” dell’AI fosse “non fidarti di nulla”, non saremmo poi così lontani dalla verità. Qualsiasi cosa tu condivida con un chatbot, prendi per buona che prima o poi finirà a spasso nel grande bazar pubblico.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie