Categoria: Tech Pagina 3 di 19

L’intelligenza artificiale (AI) nel suo senso piu’ ampio e l’intelligenza esibita dai sistemi informatici (Machine)

Esplorando il Mondo dei Token nei LLM: Creare i Testi

Esplorando il mondo dei Token nei LLM: cosa sono i Token

Oggi cercherò di spiegare cosa sono i token, da dove arrivano, e come funzionano all’interno dei Large Language Models (LLM).

I token rappresentano i mattoncini che i modelli linguistici utilizzano per elaborare e comprendere il testo e sono tra gli elementi fondamentali per molte applicazioni di intelligenza artificiale, tra cui i Large Language Model (LLM) e il Natural Language Processing (NLP).

La difficoltà è riassumere in un articolo che spieghi come il testo viene trasformato in unità elementari attraverso un processo chiamato tokenizzazione, un procedimento nato decenni fa con i motori di ricerca, e che è diventato il primo passo nella maggior parte delle attività di elaborazione del linguaggio naturale.

Top AI Agents nel 2025 l’agente sei tu: perché ogni workflow aziendale ora respira intelligenza artificiale

Se fino a ieri giocavamo con i chatbot come se fossero i Tamagotchi aziendali, oggi chi non orchestra un esercito di agenti AI nei propri flussi operativi sta solo preparando la sedia per il competitor che lo sostituirà. La corsa all’automazione intelligente non è più una scommessa futuristica: è una guerra fredda già in corso tra i reparti IT, marketing, customer service e sviluppo prodotto. E come ogni guerra che si rispetti, a vincere non è chi ha più armi, ma chi le integra meglio.

In un mondo dove ogni workflow si trasforma in un sistema nervoso digitale, gli agenti AI sono i nuovi neuroni. Ma attenzione: non parliamo dei vecchi assistenti stupidi che sfornano risposte da FAQ. Questi nuovi agenti ragionano, decidono, eseguono e soprattutto scalano. Ecco come si stanno infiltrando nei gangli vitali delle aziende.

10 chatgpt prompts che trasformano giorni di lavoro in pochi secondi

Partiamo dal presupposto che chiunque oggi osi ancora dire “non ho tempo” probabilmente non ha mai seriamente messo ChatGPT alla prova. Qui entriamo in un territorio interessante, quasi magico, dove la produttività schizza come una Tesla in modalità Plaid. E ovviamente, come ogni cosa magica, serve la formula giusta. Ti porto quindi nel mondo dei 10 prompt che, se usati bene, ti faranno sembrare un esercito di consulenti iperattivi pronti a servire il tuo impero personale. Nessun elenco sterile, solo pragmatismo velenoso e visione da CEO navigato.

Iniziamo con l’arte della scrittura di proposte commerciali, uno dei mestieri più noiosi dell’universo conosciuto. Fino a ieri, sudavi sette camicie per mettere insieme un documento decente che spiegasse il tuo prodotto o servizio a un potenziale cliente zombificato da altre cento proposte uguali. Ora basta inserire un prompt preciso su ChatGPT: “Crea una proposta professionale per [servizio/prodotto] destinata a [pubblico target], con introduzione, proposta di valore e dettagli sui prezzi.” Voilà, in meno tempo di quello che ci metti ad aprire un file Word, hai in mano un documento vendibile.

Il segreto sporco dello sviluppo AI che nessuno ti dice: struttura i tuoi dati o muori provandoci

Nel mare magnum di buzzword e promesse roboanti su intelligenze artificiali miracolose, c’è una verità brutale che raramente viene sussurrata nei corridoi dorati delle startup e degli incubatori di unicorni: la parte più sottovalutata nello sviluppo di AI è conoscere davvero le strutture dati. Senza questo mattoncino di base, puoi anche avere il miglior modello del mondo, il cloud più costoso e una pipeline MLOps degna di un film cyberpunk: tutto crollerà come un castello di carte in una giornata ventosa a Chicago.

Capire come i dati sono organizzati, memorizzati e recuperati non è un vezzo accademico da nerd occhialuti chiusi in qualche scantinato, è la differenza tra un sistema AI scalabile e una montagna fumante di bug ingestibili. Ed è esattamente per questo che ogni maledetta app, da ChatGPT fino alla Tesla che cerca disperatamente di non investire il tuo gatto, usa strutture dati pensate, ottimizzate e brutalmente efficienti.

Struttura vincente per progetti LLM: come organizzare il caos creativo dell’intelligenza artificiale generativa

Partiamo da una verità tanto banale quanto ignorata: lavorare con modelli linguistici di grandi dimensioni (LLM) non è difficile perché sono “intelligenti”, ma perché sono imprevedibili, opachi, e spesso capricciosi come artisti in crisi creativa. E allora il vero mestiere non è più scrivere codice, ma costruire impalcature solide dove questi modelli possano “giocare” senza mandare tutto a fuoco.

Quando si mettono le mani su progetti che orchestrano più provider LLM, stratificazioni di prompt engineering, dati che scorrono come fiumi impazziti e team distribuiti tra dev, ML engineer e product owner, l’unica ancora di salvezza è una struttura progettuale ferrea, cinicamente modulare e brutalmente trasparente.

Api REST, quel disastro ben vestito

Costruire una REST API che non faccia schifo è un’arte sottile. È come servire whisky d’annata in un bicchiere di plastica: anche se il contenuto è buono, l’esperienza crolla. E in un’era in cui ogni microservizio, SaaS o IoT toaster parla con un altro pezzo di software, la tua API è l’interfaccia diplomatica del tuo sistema. Mal progettata, diventa una dichiarazione di guerra.

Cominciamo da un classico che sembra semplice ma viene ignorato come le istruzioni del microonde: gli HTTP status code. Non è una tavolozza a caso. Restituire 200 OK per ogni chiamata è l’equivalente digitale di annuire mentre ti sparano. Se il client sbaglia, diglielo con un 400. Se sei tu a esplodere, abbi il coraggio di un 500. Non mascherare il malfunzionamento con falsi successi, o ti ritroverai con un client che balla sul Titanic.

Impara l’intelligenza artificiale come un insider: i migliori canali YouTube e blog

Imparare l’AI oggi è come trovarsi negli anni ‘90 con Internet: se ti muovi adesso, sei in anticipo. Se aspetti, diventi un consumatore di ciò che gli altri creeranno. Ma la differenza sostanziale è che l’AI non è un trend: è un paradosso darwiniano digitale. O la domini, o ne sei dominato. Ecco perché, se vuoi diventare davvero fluente nel linguaggio dell’intelligenza artificiale non la buzzword da conferenza, ma quella che cambia le tue decisioni di business, sviluppo o carriera servono fonti giuste, accessibili, dirette. Nessun bullshit motivazionale, solo contenuto vero.

Qui sotto trovi gli i canali YouTube imprescindibili per chi parte da zero ma punta a comprendere anche i white paper più ostici, e una selezione di blog dove la crème della ricerca pubblica senza troppi filtri.

La bibbia delle AI: 10 siti che ogni umano digitale dovrebbe consultare prima di aprire bocca

L’uovo di Pasqua più interessante quest’anno non contiene cioccolato, ma neuroni sintetici, directory iper-curate e un discreto profumo di intelligenza artificiale. Il merito? Va dato al grande Fabrizio Degni, che ha aggiornato la sua già leggendaria lista delle risorse online dove l’AI non è solo una sigla ma una realtà pulsante di strumenti, tips, trick e comunità pronte a tutto, tranne che a dormire.

E siccome la Pasqua è il tempo della resurrezione, anche questa lista risorge, aggiornata e arricchita, pronta a servire chi vuole davvero capire dove sta andando il mondo senza dover passare per LinkedIn o peggio, i soliti espertoni da Bar dei Daini.

OpenAI pubblica la guida definitiva al prompting per GPT-4.1: come domare il drago

Nel silenzio in cui solitamente le Big Tech rilasciano aggiornamenti camuffati da “note tecniche”, OpenAI ha fatto qualcosa di diverso: ha pubblicato una guida ufficiale, gratuita e maledettamente utile per domare GPT-4.1. E no, non è la solita lista di buone intenzioni da community manager, ma un compendio pragmatico per chi con l’AI non ci gioca, ma la piega al proprio volere per lavorare meglio, più velocemente e con risultati da CEO.

Siamo finalmente arrivati al punto in cui l’AI non ha più bisogno di essere “magica”, ma precisa, documentata e controllabile. Il che, per chi ha un minimo di esperienza, significa solo una cosa: scalabilità vera. Ma vediamo perché questa guida è un evento epocale sotto il profilo tecnico-strategico e perché ogni CTO con un neurone attivo dovrebbe stamparsela e impararla meglio del manuale della Tesla.

Da demo a prodotto: perché l’AI generativa è ancora un casino pieno di PowerPoint

Tutti parlano di prompt, fine-tuning e LLM come se bastasse scrivere “dimmi cosa pensi di questo PDF” per svoltare. Ma costruire una demo brillante non vuol dire essere pronti per la produzione. E in mezzo ci sono dodici stazioni infernali, tipo una via crucis dell’AI, che ogni team serio deve attraversare se vuole consegnare valore vero e non solo fuffa da keynote.

Il primo inciampo è sempre lo stesso: confondere il giocattolo con l’infrastruttura. La differenza tra un bel prototipo in Hugging Face e un sistema distribuito che regge l’urto del traffico reale è abissale. Uno è arte, l’altro è ingegneria. E i team che fanno sul serio lo sanno.

GenAI senza filtri: risorse gratuite GitHub Repos per un weekend di immersione totale

Il venerdì di Pasqua è quel momento magico della settimana in cui i CTO con sindrome da burnout e i founder che fingono di non controllare Slack si concedono il lusso di fare finta di rilassarsi. In realtà, quello che facciamo è scavare dentro GitHub come archeologi del codice, alla disperata ricerca del prossimo tool open source che ci faccia risparmiare soldi, tempo e neuroni. E guarda caso, oggi ti porto esattamente questo: una manciata di risorse gratuite su Generative AI che non solo non costano nulla, ma che possono trasformare il tuo weekend in un piccolo laboratorio personale di automazione, modelli e sperimentazione nerd.

Non serve piangere per l’ennesima subscription a 99$/mese. Il bello della GenAI è che la community sta già costruendo tutto — gratis — mentre i soliti noti cercano di vendertelo impacchettato come “enterprise-ready”. Andiamo dritti al punto, senza romanticherie.

Come creare il tuo video AI: guida per aspiranti creatori di meme politici

Sette strumenti e prompts che i CEO intelligenti usano ogni giorno per decidere senza finire nel panico

Nella giungla del decision-making moderno, chi dirige un’azienda non può permettersi di affidarsi all’istinto o a LinkedIn posts con frasi motivazionali. Serve metodo, visione, e sì, anche un certo cinismo. Ecco perché i tool strategici non sono solo “tool”: sono salvagenti cognitivi per non affogare in un mare di priorità, problemi e opportunità che puzzano di rischio. Nessun bullet point, solo ragionamento strutturato.

L’Ascesa degli Agenti AI Autonomi: Una Nuova Era per l’Intelligenza Artificiale

Negli ultimi tempi, mi sono trovato a rispondere a una domanda che sembra stuzzicare sempre di più la curiosità delle persone: qual è la differenza tra Generative AI, AI Agents e Agentic AI? Lasciatemi spiegare, senza entrare nel terreno paludoso del gergo tecnico, come distinguo solitamente queste categorie di intelligenza artificiale.

Generative AI: L’assistente ultra-intelligente ma senza iniziativa

La Generative AI è probabilmente ciò che la maggior parte delle persone pensa quando sente parlare di “AI”. È quella tecnologia che permette di generare contenuti: scrivere articoli, creare immagini, aiutare nella scrittura di codice e molto altro. Questi strumenti sono, essenzialmente, come assistenti super-intelligenti, ma con un grande limite: agiscono solo quando vengono sollecitati. Non prendono iniziativa, non hanno memoria e non possiedono obiettivi propri. Gli esempi classici di Generative AI sono ChatGPT, Claude, GitHub Copilot, e simili.

Questi strumenti sono fantastici per eseguire compiti specifici, ma la loro intelligenza è passiva, limitata a ciò che gli viene chiesto. Non sono in grado di proseguire da soli una volta che il comando viene eseguito. Non c’è evoluzione del processo e nessuna capacità di adattamento. È come avere un assistente brillante, ma che necessita sempre di input diretti.

RAG non è intelligenza aumentata, è solo un modo elegante per sbagliare più in fretta

RAG, Retrieval-Augmented Generation, ha iniziato come una promessa. Doveva essere la chiave per far sì che i modelli LLM non si limitassero a rigurgitare pattern statistici, ma attingessero da basi di conoscenza vive, aggiornate e specifiche. Ma la realtà è più triste di un Monday morning senza caffè: il 90% delle implementazioni RAG sono solo fetcher travestiti. Roba da casting per un reboot scadente di Clippy, altro che AI aumentata.

La colpa non è dell’idea, ma di chi la implementa. La maggior parte dei team considera il retrieval come un banale processo backend, una chiamata a Pinecone o FAISS e via, come se la parte retrieval fosse una formalità tra il prompt e la risposta. Un po’ come costruire un razzo e dimenticarsi del carburante.

La fine dell’era dei chatbot ciechi: Model Context Protocol di Anthropic e l’intelligenza artificiale che finalmente “agisce”

Quando si parla di AI generativa nel 2025, il vero problema non è più la creatività dei modelli, ma la loro drammatica incapacità di interagire col mondo reale. Fino a ieri, chiedere a un LLM il prezzo attuale delle azioni Apple equivaleva a interpellare un indovino con amnesia cronica. Ottimo a parlare, pessimo a fare. Ora, Anthropic cambia le regole del gioco con il suo Model Context Protocol (MCP), un’infrastruttura che segna l’inizio di una nuova era: quella degli agenti AI operativi, contestuali, e – per una volta – utili davvero.

Il principio alla base è brutalmente semplice, ma incredibilmente potente. Un Large Language Model non è più un oracolo chiuso nella sua scatola nera addestrata mesi fa, ma un agente intelligente che può usare strumenti in tempo reale, decidere cosa fare in base al contesto, rispettare policy aziendali, chiedere approvazioni, e tornare con un output operativo e affidabile.

OpenAI lancia l’Accademy e nessuno se ne accorge: gratis, potente, e molto più di un corso

Mentre l’attenzione globale è polarizzata su GPT-5, sulle AI multimodali e sugli ennesimi drammi da conferenza stampa, OpenAI ha sganciato una bomba silenziosa: si chiama OpenAI Academy, è online, completamente gratuita, e se non sei già dentro… sei in ritardo.

È la versione di Stanford fatta da una startup da miliardi: snella, interattiva, pensata per far impennare la curva di apprendimento sull’intelligenza artificiale. Una piattaforma educativa che riesce a parlare sia a chi sta ancora cercando di capire come si accende ChatGPT, sia a chi sviluppa agenti personalizzati con API e prompt avanzati. Nessuna barriera d’ingresso: zero codice obbligatorio, solo contenuti su misura e una UX che ti fa venir voglia di imparare roba che Coursera si sogna di notte.

Adobe premiere pro si lancia nell’era dell’AI: montaggio video senza limiti

Adobe ha deciso di spingere il pedale sull’intelligenza artificiale, e lo fa aggiornando Premiere Pro con funzionalità che sembrano uscite da un film di fantascienza. La versione 25.2 del celebre software di montaggio video introduce strumenti avanzati per localizzare, tradurre ed estendere i filmati, portando alcune delle innovazioni più attese fuori dalla fase beta e mettendole finalmente a disposizione di tutti gli utenti.

Runway lancia Gen-4: la risposta all’egemonia di OpenAI nella generazione video

Runway ha rilasciato lunedì il suo ultimo strumento di editing video, un passo deciso per consolidare la sua posizione in un mercato sempre più affollato e competitivo. La startup, valutata 4 miliardi di dollari secondo gli investitori che volevano finanziarla la scorsa estate, ha ora un obiettivo chiaro: sfidare OpenAI e il suo ambizioso progetto Sora.

Il nuovo modello, Gen-4, è un’evoluzione significativa rispetto ai suoi predecessori, con miglioramenti evidenti nella coerenza visiva tra clip diverse. Personaggi, ambientazioni e oggetti mantengono un aspetto uniforme grazie a un’immagine di riferimento fornita dall’utente, risolvendo una delle principali criticità dell’editing video basato su intelligenza artificiale.

Amazon dichiara guerra a Nvidia: sconti sui chip AI, supercomputer e investimenti miliardari per dominare l’AI

​Amazon ha deciso di sfidare Nvidia nel mercato dei chip per l’intelligenza artificiale (AI) con una serie di mosse strategiche che mirano a ridurre la dipendenza dall’attuale leader di mercato e offrire alternative più economiche e performanti ai propri clienti cloud. Questa iniziativa si concretizza attraverso lo sviluppo di chip proprietari, la costruzione di supercomputer avanzati e investimenti significativi in startup AI.

IA predice il futuro

L’IA predice il futuro?

L’Intelligenza Artificiale sta cambiando radicalmente il modo in cui aziende e professionisti prendono le decisioni critiche. Grazie all’analisi avanzata dei dati e agli algoritmi predittivi, oggi possiamo dire che l’IA predice il futuro con un’accuratezza sorprendente. Che si tratti di stimare le vendite di un prodotto, prevedere il comportamento degli utenti o anticipare con buoni risultati le tendenze del mercato, le soluzioni basate sull’IA permettono di ridurre l’incertezza e ottimizzare le strategie aziendali.

In questo articolo parleremo proprio di come l’IA predice il futuro in diversi settori, quali sono le tecnologie che permettono queste previsioni e come possiamo sfruttarle per ottenere un vantaggio competitivo, economico o quello che preferisco io ossia risparmiare tempo.

AI loop infinite

Se pensavate che l’intelligenza artificiale fosse già una scatola nera impenetrabile, tenetevi forte: ora ci sono intelligenze artificiali che progettano altre intelligenze artificiali. Questo è il cuore del paper “Automated Design of Agentic Systems” di Shengran Hu e colleghi, che propone un algoritmo chiamato Meta Agent Search per generare agenti sempre più performanti senza l’intervento umano. Praticamente, un Frankenstein digitale che assembla se stesso pezzo dopo pezzo.

La promessa è affascinante e al tempo stesso inquietante: eliminare la progettazione manuale e lasciare che gli algoritmi trovino da soli il modo più efficace di risolvere i problemi. Vi suona familiare? Dovrebbe. La storia dell’informatica è costellata di momenti in cui qualcuno ha detto “eliminiamo il bisogno dell’uomo” per poi ritrovarsi a dover gestire un sistema ancora più complesso e incomprensibile. Vedi il passaggio dagli algoritmi artigianali al deep learning, che ci ha regalato reti neurali potentissime ma talmente oscure da richiedere interi dipartimenti di ricerca per capire cosa diavolo stiano facendo.

Baidu sfida OpenAI e Deepseek: Ernie 4.5 e X1 cambiano il gioco nell’intelligenza artificiale

Baidu ha lanciato due nuovi modelli di intelligenza artificiale, Ernie 4.5 e Ernie X1, dichiarando che superano le prestazioni di DeepSeek e OpenAI su diversi benchmark. La competizione nel settore dei modelli linguistici di grande scala (LLM) si intensifica, con la società cinese che cerca di riaffermare la sua leadership dopo essere stata sfidata da giganti locali come Alibaba, Tencent e Bytedance.

Il nuovo Ernie 4.5 è un modello multimodale in grado di gestire testo, immagini, audio e video, e secondo Baidu ha superato GPT-4o di OpenAI in diversi test di benchmark, tra cui CCBench e OCRBench. Inoltre, in termini di capacità testuali, il modello ha dimostrato prestazioni superiori a DeepSeek V3 e comparabili a GPT-4.5. Questa mossa posiziona Baidu in prima linea nel panorama dell’AI in Cina, dove l’adozione di LLM è diventata un fattore strategico per il dominio tecnologico.

Meta rivoluziona l’AI con i Large Concept Models (LCM)

Meta ha recentemente annunciato i large concept models (lcm), introducendo un nuovo paradigma nella modellazione del linguaggio naturale che supera le limitazioni degli attuali large language models (llm).

Mentre i llm tradizionali operano a livello di token, prevedendo parola per parola, gli lcm si focalizzano su concetti più astratti, rappresentati da intere frasi in spazi semantici multidimensionali.

Questa innovazione consente agli lcm di comprendere e generare contenuti con una coerenza e profondità semantica superiori, avvicinandosi al modo in cui gli esseri umani elaborano le informazioni. utilizzando lo spazio di embedding sonar, che supporta fino a 200 lingue sia in formato testuale che vocale.

Stefano Quintarelli: Come Microsoft ha testato 100 prodotti di intelligenza artificiale generativa per scovarne le vulnerabilità

All’evento di Seeweb e Istituto EuropIA.it “Private AI”, Stefano Quintarelli Informatico, imprenditore seriale ed ex professore di sistemi informativi, servizi di rete e sicurezza, ha portato un esempio, tra i tanti, reti neurali, sistemi predittivi etc, che ho trovato interessante e vorrei condividere con i nostri lettori: “Lessons from red teaming 100 generative AI products Authored by: Microsoft AI Red Team”, che trovate in allegato.

Stefano Quintarelli, ha recentemente sollevato un punto cruciale riguardo alla sicurezza dell’intelligenza artificiale (IA), evidenziando una verità fondamentale che spesso viene sottovalutata. La sua affermazione che la sicurezza dell’IA non sarà mai “completata” è una riflessione profonda che tocca uno degli aspetti più critici nell’evoluzione della tecnologia. Con il costante avanzamento delle tecnologie, la protezione da minacce potenziali diventa un campo in continua espansione, mai definitivo. Questo concetto va oltre la semplice sicurezza dei sistemi: implica una continua adattabilità delle misure di protezione e una vigilanza costante rispetto alle vulnerabilità emergenti.

LMH Large Animatable Human Reconstruction Model

LHM, o Large Animatable Human Reconstruction Model, è un modello proposto per la ricostruzione di avatar 3D animabili a partire da una singola immagine. È stato sviluppato per risolvere una delle sfide principali nella computer vision e nella grafica 3D, ovvero la creazione di modelli 3D di esseri umani altamente realistici e animabili, utilizzando una sola immagine come input.

LHM sfrutta un’architettura multimodale basata su transformer per codificare efficacemente le caratteristiche spaziali e visive del corpo umano, consentendo una riproduzione dettagliata della geometria e della texture dei vestiti. Inoltre, il modello introduce una piramide di feature della testa per migliorare la conservazione dell’identità facciale e il recupero dei dettagli fini, come le espressioni facciali e le mani.

Airpods con traduzione simultanea: Apple rivoluziona la comunicazione globale

Apple si prepara a trasformare radicalmente l’esperienza d’uso delle AirPods, introducendo una funzionalità di traduzione simultanea che potrebbe ridefinire il modo in cui le persone comunicano in diverse lingue. Secondo quanto riportato da Bloomberg, questa innovazione potrebbe arrivare con iOS 19, il prossimo aggiornamento del sistema operativo di Cupertino.

La tecnologia alla base di questa funzione è stata sviluppata da Apple negli ultimi anni e sfrutta le capacità avanzate di elaborazione vocale delle AirPods. Gli auricolari captano le parole tramite i loro microfoni, le inviano all’iPhone per una rapida traduzione e poi riproducono l’audio tradotto attraverso gli stessi AirPods o gli altoparlanti del telefono. Questa dinamica consentirebbe una comunicazione fluida e naturale tra persone che parlano lingue diverse, senza la necessità di interrompere il dialogo per digitare testi o consultare app di traduzione.

Quark AI e Qwen: l’integrazione dell’intelligenza artificiale di Alibaba per un assistente personale avanzato

Alibaba ha recentemente lanciato una versione aggiornata di Quark, un’applicazione che funge da assistente personale avanzato, integrando le capacità del modello di intelligenza artificiale Qwen. Originariamente introdotto nel 2016 come browser web, Quark si è evoluto in una piattaforma leader nei servizi informativi basati sull’IA, vantando oltre 200 milioni di utenti in Cina.

La nuova versione di Quark sfrutta le capacità avanzate di Qwen 2.5-Max, un modello MoE (Mixture-of-Experts) su larga scala pre-addestrato su oltre 20 trilioni di token. Questo modello è stato ulteriormente perfezionato utilizzando metodologie come il Supervised Fine-Tuning (SFT) e il Reinforcement Learning from Human Feedback (RLHF), migliorando significativamente le prestazioni in compiti complessi come la risoluzione di problemi matematici, la programmazione e la scrittura creativa.

i costi nascosti di DeepSeek

I costi nascosti di DeepSeek

Costa veramente 6 milioni di dollari o ci sono costi nascosti di DeepSeek che non conosciamo?

DiPLab ha appena pubblicato uno studio sulla nascita e la crescita di DeepSeek, analizzando quanto è vera la storia della creazione di un sistema LLM a basso costo. DeepSeek è veramente costata solo 6 milioni di dollari? Nelle interviste sono stati tralasciati altri costi, come quelli del lavoro di addestratori e taggatori? Ricerche e analisi tecnico-economiche iniziano a pubblicare cosa è stato scoperto.

Manus: la rivoluzione dell’AI Autonoma cinese che sfida il futuro

Immaginate un’intelligenza artificiale che non si limita a rispondere alle vostre domande, ma che prende in mano il lavoro e lo porta a termine dall’inizio alla fine, senza bisogno di supervisione umana. Questo non è più un sogno fantascientifico, ma una realtà concreta che la Cina ha appena svelato con il lancio di Manus, un agente AI destinato a ridefinire il panorama tecnologico globale. Presentato il 5 marzo 2025 dall’azienda Monica.im, Manus sta già facendo parlare di sé, suscitando entusiasmo e interrogativi sul futuro dell’automazione.

Consigli e trucchi per l’uso di Grok 3

Nel precedente articolo “Introduzione a Grok 3” abbiamo esplorato le principali caratteristiche del modello, le funzionalità principali, le sue potenzialità e i suoi limiti. Analizziamo adesso come massimizzare l’efficacia di Grok 3, con una serie di suggerimenti utili per ottenere i risultati migliori dal suo utilizzo.

10 straordinari esempi di video creati con Wan 2.1 di Alibaba

Abbiamo visto in un precedente articolo come Alibaba abbia compiuto un passo strategico nell’arena dell’Intelligenza Artificiale generativa, rendendo open-source il suo modello Wan 2.1, specializzato nella creazione di immagini e video. Vediamone da vicino le potenzialità con 10 esempi particolarmente impressionanti.

Introduzione a Grok 3: potenza, multilinguismo e ragionamento avanzato

La serie di modelli Grok è costruita su algoritmi avanzati di deep learning, addestrati su vasti set di dati per comprendere le complessità del linguaggio umano. Grazie a queste tecnologie, Grok è in grado di riconoscere schemi e strutture linguistiche sofisticate, generando testi che rispecchiano fedelmente la scrittura umana. Questo lo rende ideale per una vasta gamma di applicazioni di elaborazione del linguaggio naturale (NLP), tra cui completamento del testo, traduzione, riassunti automatici e molto altro.

Con l’arrivo di Grok 3, la nuova generazione della serie, l’intelligenza artificiale compie un ulteriore salto in avanti. Questo modello introduce maggiori capacità computazionali, un supporto multilingue più avanzato e abilità di ragionamento e comprensione migliorate, ampliando il suo impatto in numerosi settori.

conoscere meglio i tuoi utenti

Usare l’AI per conoscere meglio i tuoi utenti

Ci credi se ti dico che l’Intelligenza Artificiale (AI) e l’apprendimento automatico (ML) sono gli strumenti ideali per conoscere meglio i tuoi utenti?

Grazie a queste tecnologie, è possibile raccogliere, analizzare e interpretare una grande e varia quantità di dati per ottenere una comprensione più profonda dei comportamenti, delle preferenze e delle esigenze degli utenti. Questo permette di personalizzare l’esperienza utente, migliorare i prodotti e i servizi offerti e, in ultima analisi, aumentare la soddisfazione e la fidelizzazione dei clienti.

Vediamo come.

Adobe lancia Generate Video: l’IA al servizio della creatività

Adobe ha recentemente lanciato in beta pubblica il suo innovativo strumento di generazione video basato su intelligenza artificiale, denominato

. Questo strumento, accessibile tramite la rinnovata applicazione web Firefly, rappresenta un significativo passo avanti nell’integrazione dell’IA nei processi creativi, offrendo funzionalità avanzate sia per professionisti che per appassionati del settore.

Generate Video si articola in due principali funzionalità: Text-to-Video e Image-to-Video. La prima consente agli utenti di creare video a partire da descrizioni testuali dettagliate, permettendo una traduzione diretta delle idee in sequenze visive. La seconda, Image-to-Video, permette di utilizzare un’immagine di riferimento insieme al prompt testuale, fornendo un punto di partenza visivo per la generazione del video. Queste funzionalità sono arricchite da opzioni che consentono di affinare o guidare i risultati, come la simulazione di stili, angolazioni della telecamera, movimenti e distanze di ripresa.

Goku e Goku+: l’AI di ByteDance che cancella i confini tra immagini e video

ByteDance, in collaborazione con l’Università di Hong Kong, ha presentato Goku e Goku+, una nuova famiglia di modelli di intelligenza artificiale progettati per superare il divario tra la generazione di immagini e quella di video. Grazie a un’architettura unificata e tecniche avanzate di elaborazione visiva, questi modelli stanno ridefinendo gli standard del settore, ottenendo prestazioni da record nei principali benchmark visivi e aprendo nuove possibilità per la creazione di contenuti commerciali iperrealistici.

6ai Technologies: L’Intelligenza Applicata che Rivoluziona la Strategia e l’Esecuzione

6ai Technologies non si limita a sviluppare un altro Large Language Model (LLM), ma adotta un approccio radicalmente differente, basato su un’architettura altamente ottimizzata e proprietaria. Partendo dall’open-source, integra elementi utili in un framework esclusivo che combina FLM-T (Focused Language Model – Tuned) e CCQF (Cognitive Computational Query Framework), con l’obiettivo di offrire un sistema di intelligenza applicata estremamente specifico, performante e scalabile.

AquilaMoE: Rivoluzionare l’Addestramento dei Modelli MoE con EfficientScale

Il Beijing Academy of Artificial Intelligence (BAAI) ha introdotto AquilaMoE, un avanzato modello linguistico basato su una struttura Mixture of Experts (MoE) da 8*16B, progettato per ottenere prestazioni elevate con un’efficienza senza precedenti. Il cuore della sua innovazione è EfficientScale, una metodologia di addestramento a due fasi che massimizza il trasferimento di conoscenza riducendo il fabbisogno di dati e calcolo.

L’approccio Scale-Up permette di inizializzare un modello più grande a partire dai pesi di uno più piccolo, ottimizzando l’uso dei dati e accelerando l’apprendimento. Successivamente, la fase Scale-Out trasforma un modello denso in un modello MoE, migliorando ulteriormente l’efficienza computazionale e la capacità del modello. Queste strategie consentono ad AquilaMoE di superare le limitazioni degli attuali modelli di linguaggio, offrendo prestazioni superiori con minori costi computazionali.

HugginFace Introduce i Modelli Fondamentali per la Robotica π0: Il Futuro dell’Intelligenza Artificiale Generale per i Robot

In un emozionante sviluppo per il mondo della robotica, Hugging Face ha ufficialmente portato i suoi primi modelli fondamentali per la robotica nel repository LeRobot. I modelli π0 e π0-FAST, sviluppati da Physical Intelligence, sono ora disponibili, offrendo all’ecosistema di Hugging Face una soluzione all’avanguardia per l’intelligenza artificiale generale per i robot. Questi nuovi modelli rappresentano un passo significativo verso la creazione di sistemi robotici versatili, in grado di svolgere una vasta gamma di compiti con diverse incarnazioni fisiche. Grazie all’integrazione dei modelli Vision-Language-Action (VLA), questi sviluppi mirano a portare i robot più vicini a un’adattabilità simile a quella umana, permettendo loro non solo di comprendere i compiti, ma anche di interagire fisicamente con l’ambiente circostante.

L’Intelligenza Artificiale si Prende una Pausa Caffè di 30 Minuti per Fare “Deep Research”

OpenAI ha appena lanciato l’ennesima novità per ChatGPT: Deep Research, un’aggiunta che promette di trasformare il chatbot da semplice generatore di testo in un analista autonomo capace di pianificare, eseguire ricerche multi-step e perfino tornare sui propri passi se necessario. Un’intelligenza artificiale che finalmente può correggersi da sola? Quasi, ma non troppo.

L’idea è che ora ChatGPT non si limiti a rispondere con il solito testo preconfezionato, ma mostri un processo di ricerca “trasparente” nella nuova barra laterale, includendo citazioni e spiegazioni su come ha costruito la sua risposta. Un’innovazione che suona rassicurante, fino a quando OpenAI stessa ammette che Deep Research può ancora allucinare fatti inesistenti, confondere bufale con dati ufficiali e non avere la minima idea di quanto sia sicuro delle sue risposte. Insomma, un po’ come un analista finanziario sotto pressione, ma con meno senso della realtà.

Pagina 3 di 19

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie