Salesforce ha recentemente introdotto Agentforce, una suite di agenti autonomi di intelligenza artificiale progettati per semplificare le interazioni con i clienti e migliorare l’efficienza operativa in vari settori. Questa nuova offerta sarà generalmente disponibile dal 25 ottobre 2024.
Autore: Redazione Pagina 49 di 70

È un punto di svolta nella storia dell’industria nucleare statunitense. Constellation Energy intende riattivare la centrale nucleare di Three Mile Island, con la ripresa delle operazioni prevista per il 2028, subordinata all’approvazione della Nuclear Regulatory Commission.
L’incidente di Three Mile Island fu una parziale fusione del nocciolo avvenuto nella centrale nucleare sull’omonima isola, nella Contea di Dauphin, in Pennsylvania, il 28 marzo 1979. Fu il più grave incidente nucleare avvenuto negli Stati Uniti d’America, e ha portato al rilascio di piccole quantità di gas radioattivi e di iodio radioattivo nell’ambiente.
David Tepper, fondatore di Appaloosa Management, (un hedge fund statunitense) ha recentemente espresso il suo scetticismo riguardo al ruolo del nucleare nel futuro del settore energetico, in particolare per alimentare le crescenti necessità energetiche legate all’intelligenza artificiale (AI). In un’intervista a CNBC, Tepper ha dichiarato che il gas naturale sarà una risorsa chiave per alimentare l’AI, mentre ha definito “pazze” le proiezioni che vedono il nucleare come soluzione centrale.

Negli ultimi anni, l’Intelligenza Artificiale (AI) ha suscitato un crescente interesse e preoccupazione sia tra i politici che tra gli esperti del settore. Recentemente, il portavoce Mike Johnson ha condiviso le sue riserve riguardo a una possibile eccessiva regolamentazione da parte del governo federale, affermando di aver avuto conversazioni con aziende di AI che esprimono preoccupazioni simili. Queste aziende temono che una regolamentazione eccessiva possa soffocare l’innovazione e creare ostacoli inutili allo sviluppo tecnologico.

La crescente diffusione di modelli di intelligenza artificiale (IA) come quelli sviluppati da OpenAI ha reso necessario l’impiego di sofisticati sistemi di moderazione per garantire un uso responsabile e sicuro di queste tecnologie. OpenAI ha implementato un modello di moderazione che categorizza i contenuti potenzialmente dannosi o inappropriati in diverse categorie, con l’obiettivo di identificare e prevenire violazioni delle proprie policy d’uso.
Servizio OpenAI di Azure include un sistema di filtro dei contenuti che funziona insieme a modelli di base, inclusi i modelli di generazione immagini DALL-E. Questo sistema funziona eseguendo sia la richiesta che il completamento tramite un insieme di modelli di classificazione concepiti per rilevare e impedire l’output di contenuti dannosi. Il sistema di filtro del contenuto rileva e agisce su categorie specifiche di contenuto potenzialmente dannoso sia nelle richieste di input che nei completamenti di output. Le variazioni nelle configurazioni dell’API e nella progettazione dell’applicazione potrebbero influire sui completamenti e quindi sul comportamento di filtro.
Questo articolo fornisce una panoramica scientifica delle categorie di moderazione impiegate da OpenAI, analizzando la loro funzione, efficacia e limitazioni.
Negli ultimi anni, l’intelligenza artificiale (IA) ha fatto passi da gigante, ma con questi progressi è emersa una sfida significativa: il potere richiesto per addestrare i modelli di IA all’avanguardia sta aumentando a un ritmo allarmante. Secondo un rapporto di Epoch AI, il potere necessario per addestrare questi modelli raddoppia annualmente, mentre il calcolo di addestramento cresce a un ritmo di 4-5 volte all’anno.

Recenti ricerche indicano che l’intelligenza artificiale generativa (IA) potrebbe rappresentare una minaccia significativa per piattaforme come Reddit e altri siti di domande e risposte. Uno studio pubblicato nel mese di settembre 2024 nella rivista scientifica PNAS Nexus evidenzia preoccupazioni riguardo al fatto che i modelli di linguaggio di grandi dimensioni potrebbero compromettere l’integrità e l’affidabilità dei contenuti generati dagli utenti su queste piattaforme.

In un importante sviluppo nelle battaglie legali in corso riguardanti l’intelligenza artificiale e il copyright, OpenAI ha accettato di concedere agli autori l’accesso ai suoi dati di addestramento. Questa decisione è parte di un accordo legale con autori di spicco, tra cui Sarah Silverman, Paul Tremblay e Ta-Nehisi Coates, che stanno citando in giudizio l’azienda per aver presumibilmente utilizzato le loro opere protette da copyright senza permesso o compenso.

Intel è in procinto di finalizzare un accordo con il governo degli Stati Uniti per un finanziamento diretto di 8,5 miliardi di dollari entro la fine dell’anno, secondo quanto riportato dal Financial Times. Questo finanziamento fa parte di un’iniziativa più ampia sotto il CHIPS and Science Act, destinata a rafforzare le capacità di produzione di semiconduttori negli Stati Uniti.

Apple è pronta a lanciare una nuova versione del visore per realtà mista Vision Pro l’anno prossimo, secondo l’analista di TF International Securities Ming-Chi Kuo. Una nuova versione del Vision Pro entrerà in produzione di massa nella seconda metà del 2025 e sarà dotata del chip M5 di Apple, ha scritto Kuo in un post sul blog. Questo offrirà una migliore esperienza utente con Apple Intelligence.

Il piano ambizioso di IBM di sostituire migliaia di posti di lavoro con l’intelligenza artificiale (IA) sta affrontando significative sfide, principalmente a causa dell’inadeguatezza della sua tecnologia IA. L’iniziativa, guidata dal CEO Arvind Krishna, mirava a eliminare circa 7.800 ruoli nell’arco di cinque anni, in particolare nelle funzioni di back-office. Tuttavia, fonti interne indicano che gli strumenti IA sviluppati da IBM non sono ancora in grado di svolgere i compiti necessari per sostituire efficacemente il personale esperto.

Il presidente Joe Biden ha tenuto il suo ultimo discorso alla 79ª Assemblea Generale delle Nazioni Unite (UNGA) il 24 settembre 2024, dove ha sottolineato l’urgenza della cooperazione globale nella gestione dei rischi associati all’intelligenza artificiale (IA). Questo discorso arriva in un momento critico della storia mondiale, poiché Biden ha affermato che le scelte fatte oggi plasmeranno significativamente il futuro.

Il CHIPS Act, ufficialmente conosciuto come CHIPS and Science Act, ha avuto un impatto significativo sull’industria dei semiconduttori sin dalla sua approvazione nell’agosto 2022. Questa legislazione mira a rafforzare la produzione e l’innovazione dei semiconduttori nazionali attraverso sostanziosi sussidi e incentivi federali. Ecco una panoramica dei suoi effetti sull’industria e delle implicazioni per gli investitori.

L’Italian Tech Week 2024 (ITW24) si è conclusa il 27 settembre presso le OGR di Torino, chiudendo un’edizione da record con oltre 20.000 partecipanti, 180 speaker da più di 15 Paesi e un’agenda che ha incanalato l’energia dell’innovazione su scala globale verso l’Italia. Il successo dell’evento non solo rappresenta un consolidamento per il capoluogo piemontese come crocevia tecnologico, ma rafforza anche la posizione del Paese all’interno dell’ecosistema dell’innovazione globale.

Recenti ricerche dell’ETH di Zurigo hanno rivelato che l’intelligenza artificiale avanzata può bypassare efficacemente il reCAPTCHA v2 di Google, un sistema ampiamente utilizzato per differenziare gli utenti umani dai bot automatizzati. Lo studio, pubblicato il 13 settembre 2024, ha dimostrato che i ricercatori sono stati in grado di risolvere il 100% dei captcha presentati da questa misura di sicurezza, utilizzando un numero simile di tentativi rispetto a quelli richiesti dagli utenti umani.
Il coinvolgimento di James Cameron con Stability AI rappresenta un momento cruciale nel dialogo continuo riguardo al ruolo della tecnologia nelle industrie creative. Mentre intraprende questo nuovo capitolo, resta da vedere come la sua visione influenzerà sia il percorso di Stability AI che il panorama più ampio del cinema in un’era sempre più dominata dall’intelligenza artificiale.

IBM ha recentemente ampliato il suo Data Center Quantistico a Poughkeepsie, New York, migliorando significativamente le sue capacità di calcolo quantistico. Questo aggiornamento include l’installazione del nuovo processore IBM Quantum Heron, che vanta un notevole aumento della velocità di 25 volte rispetto ai sistemi disponibili nel 2022, insieme a un miglioramento delle prestazioni fino a 16 volte. Questa espansione posiziona IBM come leader nel calcolo quantistico su scala utilitaria, con il numero più alto di computer quantistici su scala utilitaria situati in un unico sito a livello globale.

La governatrice della Federal Reserve, Lisa Cook, ha recentemente affrontato le implicazioni dell’intelligenza artificiale (AI) sull’economia, evidenziando sia i potenziali benefici che i rischi associati.
Cook ha espresso ottimismo riguardo alla capacità dell’AI di aumentare significativamente la produttività in vari settori.
Le innovazioni tecnologiche, storicamente, hanno portato a una maggiore efficienza e a un aumento della produzione, il che potrebbe tradursi in una crescita economica sostenuta.
Sam Altman, il CEO della startup di intelligenza artificiale generativa OpenAI, ha dichiarato che le recenti partenze esecutive non sono legate a una potenziale ristrutturazione dell’azienda, come riportato da Reuters.
“Non è assolutamente vero,” ha detto Altman all’organizzatore della conferenza Italian Tech Week, John Elkann, secondo il notiziario. “
Molte delle cose che ho visto erano anche completamente sbagliate, ma stiamo pensando a quella (ristrutturazione), il nostro consiglio di amministrazione lo sta facendo, da quasi un anno, indipendentemente, mentre pensiamo a cosa serve per arrivare alla nostra prossima fase,”
ha aggiunto Altman.
Mercoledì, il CTO di OpenAI Mira Murati ha annunciato che avrebbe lasciato l’azienda. Dopo l’annuncio di Murati, i dirigenti senior della ricerca Barret Zoph e Bob McGrew hanno anche annunciato le loro rispettiveuscite dal creatore di ChatGPT.
La partecipazione azionaria di Altman è ancora in fase di negoziazione, ma rappresenta un cambiamento significativo rispetto alla sua posizione precedente in cui aveva scelto di non prendere azioni per garantire una governance imparziale.
Secondo i rapporti, la sua quota potrebbe essere intorno al 7%. Questo cambiamento potrebbe avere implicazioni su come OpenAI gestisce i rischi e la sicurezza dell’IA, poiché si sta orientando verso un modello simile ad altre aziende di IA come Anthropic e xAI di Elon Musk, che sono anche strutturate come società benefit mirate a bilanciare il profitto con la responsabilità sociale

Anche se il regolamento IA basato sul rischio del blocco (AI Act) è entrato in vigore il mese scorso, ci vorranno anni prima che tutte le scadenze di conformità siano operative. Questo crea un vuoto di non conformità che l’UE vuole colmare con l’AI Pact.
Il Patto Europeo sull’Intelligenza Artificiale, lanciato dalla Commissione Europea, ha visto la firma di oltre 100 aziende, tra cui nomi di spicco come OpenAI, Microsoft, Amazon, Google, e IBM. Queste aziende hanno aderito per sostenere impegni volontari volti a prepararsi per l’entrata in vigore dell’AI Act, la prima normativa giuridica al mondo che regola l’uso dell’intelligenza artificiale in base ai rischi associati.
Mira Murati, Chief Technology Officer di OpenAI, ha annunciato mercoledì la sua decisione di lasciare l’azienda. In un post su X, ha dichiarato: “Dopo molta riflessione, ho preso la difficile decisione di lasciare OpenAI.”Murati, che ha lavorato per oltre sei anni nella startup sostenuta da Microsoft, ha spiegato che la sua scelta è motivata dalla volontà di avere “tempo e spazio” per esplorare nuove opportunità.

Il Dipartimento di Giustizia degli Stati Uniti (DOJ) ha recentemente annunciato importanti modifiche alle linee guida utilizzate dai pubblici ministeri per valutare i programmi di conformità delle aziende durante le indagini.
Queste modifiche, presentate da Nicole Argentieri, capo della divisione penale del DOJ, includono ora l’analisi dei rischi associati all’uso dell’intelligenza artificiale (IA) e altre tecnologie da parte delle aziende. Questo aggiornamento rappresenta un cambiamento significativo nel modo in cui le aziende devono considerare e gestire i rischi tecnologici all’interno dei loro programmi di conformità.

L’uso dell’intelligenza artificiale (IA) nelle indagini criminali sta trasformando il modo in cui le forze dell’ordine operano, ma porta con sé anche una serie di sfide etiche e legali. Questo articolo esplorerà le opportunità e i rischi associati all’implementazione dell’IA nel contesto della giustizia penale, facendo riferimento a diverse fonti, tra cui il MIT e altre analisi recenti.

I ricercatori del Massachusetts Institute of Technology (MIT) hanno utilizzato il modello GPT-3.5 di OpenAI per sviluppare un chatbot che simula una conversazione naturale. Gli utenti rispondono a domande sulla loro vita e aspirazioni, e il sistema genera una “memoria sintetica” del loro futuro, permettendo di visualizzare esperienze significative che potrebbero accadere nella loro vita futura.

Recentemente, un interessante studio ha messo in luce le capacità del nuovo modello di OpenAI, o1, confrontandolo con altri modelli di linguaggio (LLM), inclusi quelli open source. I risultati ottenuti non solo offrono uno spaccato delle attuali capacità tecnologiche, ma pongono anche interrogativi sul futuro della medicina e sul ruolo che l’intelligenza artificiale potrebbe giocare nella pratica clinica.

OpenAI ha recentemente subito un attacco informatico che ha compromesso uno dei suoi account ufficiali su X (ex Twitter), utilizzato per promuovere un falso token di criptovaluta chiamato $OPENAI. Questo incidente rappresenta il quarto attacco simile subito dall’azienda, evidenziando le persistenti vulnerabilità nella sicurezza delle sue comunicazioni online.

Cloudflare ha recentemente introdotto un nuovo strumento progettato per contrastare lo scraping dei dati da parte di bot di intelligenza artificiale. Questa innovazione consente ai siti web di bloccare l’accesso ai bot AI e, in alcuni casi, di addebitare un costo per l’utilizzo dei contenuti, mirando a proteggere i diritti degli utenti e a garantire una gestione più sicura delle informazioni.

Kuaishou, una delle principali aziende cinesi nel settore dei video brevi, ha recentemente lanciato KLING 1.5, un generatore video basato su intelligenza artificiale progettato per competere con Sora di OpenAI. Questo nuovo modello rappresenta un significativo passo avanti nella tecnologia di generazione video, promettendo prestazioni superiori rispetto ai suoi concorrenti.

Con l’aumento degli avvistamenti di UFO, il Search for Extraterrestrial Intelligence (SETI) Institute sta utilizzando l’intelligenza artificiale (IA) e l’apprendimento automatico per cercare segnali di “fenomeni ingegnerizzati” e potenziali segnali alieni. Questo approccio innovativo è fondamentale, considerando l’aumento esponenziale dei dati generati dalle osservazioni astronomiche.

OpenAI’s newest GPT-o1 AI model ha dimostrato capacità che potrebbero aiutare gli esperti a riprodurre minacce biologiche conosciute e nuove, ha riferito un ex dipendente dell’azienda ai senatori statunitensi questa settimana.

I modelli di generazione di testo, come quelli sviluppati da OpenAI e Microsoft, operano principalmente come sistemi statistici che analizzano schemi linguistici per prevedere le parole successive in base ai dati su cui sono stati addestrati.

Intel ha ufficialmente lanciato i suoi ultimi progressi nelle soluzioni AI per imprese con l’introduzione dei processori Xeon 6 e degli acceleratori AI Gaudi 3. Questi prodotti sono progettati per migliorare significativamente l’infrastruttura AI, fornendo elevate prestazioni ed efficienza per varie applicazioni.

Duolingo ha annunciato il lancio di nuove funzionalità guidate dall’intelligenza artificiale, progettate per migliorare l’esperienza di apprendimento delle lingue. Queste innovazioni sono state svelate durante la conferenza Duocon 2024 e includono due componenti principali: Adventures e Videochiamata.

Super Micro Computer ha svelato i suoi nuovi server X14, basati sui più recenti processori Intel Xeon, in particolare la serie 6900 con core di prestazione (P-core). Questo lancio, annunciato il 24 settembre 2024, espande significativamente il portafoglio di sistemi ottimizzati per carichi di lavoro di Supermicro, destinati a data center moderni, imprese e fornitori di servizi.

Google ha annunciato oggi che l’app standalone Gemini sarà disponibile per tutti i clienti dei suoi piani Workspace Business, Enterprise e Frontline. Questo assistente alimentato dall’intelligenza artificiale è progettato per aiutare i dipendenti a lavorare in modo più efficiente e sicuro. Secondo un sondaggio condotto tra i clienti, Gemini consente agli utenti di risparmiare in media 105 minuti alla settimana.

Snap Inc. ha annunciato un ampliamento della partnership con Google Cloud per integrare l’AI Gemini di Google nel proprio chatbot My AI, migliorando significativamente le capacità del chatbot. Questa mossa strategica mira a migliorare il coinvolgimento e l’interazione degli utenti all’interno della piattaforma Snapchat, che conta circa 850 milioni di utenti attivi mensili.

Google AI ha recentemente lanciato il Dataset Temporale Open Buildings 2.5D, progettato per migliorare il monitoraggio delle infrastrutture nel Sud del Mondo. Questo dataset rappresenta un significativo progresso nel campo della pianificazione urbana e della gestione delle infrastrutture, fornendo a ricercatori e responsabili politici strumenti critici per analizzare e visualizzare i dati sugli edifici nel tempo.

La chiusura del progetto Wordfreq, che mirava a monitorare e analizzare l’uso della lingua su varie piattaforme, è stata attribuita principalmente alla contaminazione dei suoi dati da parte dell’intelligenza artificiale generativa.
Monitorare e analizzare l’uso della lingua su varie piattaforme è fondamentale per comprendere le tendenze linguistiche, supportare la ricerca accademica e valutare l’apprendimento delle lingue. Questi dati offrono preziose informazioni su come la lingua si evolve in risposta a cambiamenti culturali e sociali, facilitano l’adattamento della comunicazione nei contesti digitali e aiutano a distinguere tra contenuti significativi e quelli generati automaticamente. Google ad esempio ha già reso pubblica la frequenza delle parole tramite il suo servizio ngram, che utilizza la letteratura pubblicata come riferimento/fonte
Questa situazione riflette problemi più ampi nel campo dell’elaborazione del linguaggio naturale (NLP) e solleva preoccupazioni significative sulla affidabilità della ricerca linguistica in un’era dominata dai contenuti generati dall’IA.

Un recente studio globale condotto da SAS e Coleman Parkes Research ha rivelato un interessante paradosso nel mondo del marketing: mentre i Chief Marketing Officer (CMO) sono in testa rispetto ai loro colleghi del settore IT nell’adozione della generative AI (GenAI), una significativa mancanza di comprensione del pieno potenziale di questa tecnologia ne limita l’efficacia.