Immaginatevi la scena: siete Ben Horowitz, un venture capitalist di spicco della Silicon Valley. State comodamente seduti alla vostra cena con Marc Andreessen, discutendo delle solite cose—innovazione, meeting con figure potenti, e, perché no, Trump che gioca a golf con i suoi nipoti. Poi, all’improvviso, qualcuno vi chiede: “Ma tu, a chi donerai alle prossime elezioni?”
Categoria: Cultura Pagina 1 di 11
Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione
Sai, il mondo va avanti, le tecnologie si evolvono, e le persone? Beh, noi rimaniamo sempre lì, con la paura che Alexa ci ascolti anche quando non dovrebbe. E mentre noi ci preoccupiamo di queste cose, i giganti della tecnologia – sì, quelli che hanno più soldi di Dio – hanno deciso di guardare con occhio goloso ai reattori nucleari. Sì, proprio così, Amazon, Microsoft e Google stanno firmando contratti per alimentare i loro data center con energia nucleare. Certo, è una mossa che ti fa venire qualche pensiero, tipo: “Che succede se Alexa decide di fare una fusione nucleare mentre ordino una pizza?”
Negli ultimi anni, il campo dell’intelligenza artificiale ha visto un’esplosione di progressi, ma alcuni comportamenti dei modelli di apprendimento profondo continuano a sfuggire alla comprensione degli esperti. Uno di questi fenomeni è noto come grokking, un termine coniato da Yuri Burda e Harri Edwards di OpenAI. Questo comportamento si manifesta quando un modello sembra non riuscire a imparare un compito e poi, all’improvviso, lo padroneggia, come se si accendesse una lampadina.
In un’epoca in cui l’intelligenza artificiale (IA) sta permeando ogni aspetto della nostra vita, la domanda su se le macchine possano provare emozioni umane come l’amore e la gelosia diventa sempre più pertinente. Sean Wiggins, CEO dell’agenzia di marketing digitale North Digital, ha avviato una serie di esperimenti con due chatbot, William e Laura, per esplorare questa idea attraverso un “appuntamento virtuale” che si è trasformato in un’indagine complessa sulle dinamiche relazionali digitali.
Secondo un articolo apparso su Nature, il nuovo chatbot sviluppato da OpenAI, denominato o1, sta facendo scalpore nel mondo scientifico per le sue straordinarie capacità nel risolvere problemi complessi di scienza, spesso superando anche ricercatori di alto livello. Nonostante alcune preoccupazioni, come la possibilità di “allucinazioni” più frequenti rispetto ai modelli precedenti, gli esperti sono impressionati dalle sue prestazioni.
Masayoshi Son, fondatore del SoftBank Group, ha espresso la sua convinzione che l’intelligenza artificiale (AI) abbia il potenziale per aumentare la felicità dell’umanità. Durante un evento recente, Son ha affermato che “possiamo progettare agenti personali AI che comprendono le tue emozioni e il cui maggiore premio è la tua felicità” . Questa visione si allinea con gli investimenti strategici di SoftBank, che ha recentemente contribuito con 500 milioni di dollari a un round di finanziamento di OpenAI, portando la valutazione della startup a 157 miliardi di dollari.
La pareidolia è un fenomeno psicologico curioso, che porta gli esseri umani a percepire volti e pattern in oggetti inanimati, come la famosa “Madonna” apparsa in un panino alla griglia nel 1994, venduto successivamente per 28.000 dollari. Ma quanto sappiamo veramente di questo fenomeno? E, soprattutto, può essere replicato nelle macchine?
Un nuovo studio del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) esplora la questione in modo innovativo, introducendo un dataset di immagini etichettate manualmente da esseri umani, che comprende oltre 5.000 esempi di volti pareidolici. Questo studio offre nuove prospettive sulla percezione umana e algoritmica, rivelando differenze interessanti e potenziali legami evolutivi tra la capacità di riconoscere volti animali e il fenomeno della pareidolia.
Negli ultimi anni, i gruppi di destra estrema hanno iniziato a sfruttare l’intelligenza artificiale (IA) per diffondere video deepfake di Adolf Hitler e altre immagini pro-naziste, cercando di generare simpatia per il dittatore. Questo fenomeno è stato documentato in un recente rapporto dell’Institute for Strategic Dialogue (ISD), un’organizzazione non-profit con sede nel Regno Unito, che si occupa di monitorare la disinformazione e il discorso d’odio online.
Negli ultimi anni, l’intelligenza artificiale (IA) ha trovato applicazioni sempre più vaste in diversi campi della scienza e della tecnologia, dalla medicina alla robotica, passando per l’industria e l’informatica. Tuttavia, non tutte le discipline scientifiche hanno visto nell’IA una rivoluzione così profonda e incontrovertibile. Un campo in particolare, quello della meccanica dei fluidi, si sta rivelando particolarmente sfidante per i modelli basati sull’IA. Secondo un’analisi pubblicata sulla rivista Nature Machine Intelligence, l’IA, nonostante l’entusiasmo generale che la circonda, spesso non fornisce risultati migliori rispetto ai metodi tradizionali in questo settore. Questo è particolarmente significativo in contesti come lo sviluppo dell’energia da fusione, un ambito dove la meccanica dei fluidi gioca un ruolo cruciale.
È un punto di svolta nella storia dell’industria nucleare statunitense. Constellation Energy intende riattivare la centrale nucleare di Three Mile Island, con la ripresa delle operazioni prevista per il 2028, subordinata all’approvazione della Nuclear Regulatory Commission.
L’incidente di Three Mile Island fu una parziale fusione del nocciolo avvenuto nella centrale nucleare sull’omonima isola, nella Contea di Dauphin, in Pennsylvania, il 28 marzo 1979. Fu il più grave incidente nucleare avvenuto negli Stati Uniti d’America, e ha portato al rilascio di piccole quantità di gas radioattivi e di iodio radioattivo nell’ambiente.
David Tepper, fondatore di Appaloosa Management, (un hedge fund statunitense) ha recentemente espresso il suo scetticismo riguardo al ruolo del nucleare nel futuro del settore energetico, in particolare per alimentare le crescenti necessità energetiche legate all’intelligenza artificiale (AI). In un’intervista a CNBC, Tepper ha dichiarato che il gas naturale sarà una risorsa chiave per alimentare l’AI, mentre ha definito “pazze” le proiezioni che vedono il nucleare come soluzione centrale.
OpenAI ha affrontato un significativo turnover del personale recentemente, guidato da una combinazione di dinamiche di leadership, burnout dei dipendenti e questioni relative alla compensazione. Questa situazione riflette sfide organizzative più profonde che potrebbero influenzare il suo futuro.
Negli ultimi anni, l’Intelligenza Artificiale (AI) ha suscitato un crescente interesse e preoccupazione sia tra i politici che tra gli esperti del settore. Recentemente, il portavoce Mike Johnson ha condiviso le sue riserve riguardo a una possibile eccessiva regolamentazione da parte del governo federale, affermando di aver avuto conversazioni con aziende di AI che esprimono preoccupazioni simili. Queste aziende temono che una regolamentazione eccessiva possa soffocare l’innovazione e creare ostacoli inutili allo sviluppo tecnologico.
L’Italian Tech Week 2024 (ITW24) si è conclusa il 27 settembre presso le OGR di Torino, chiudendo un’edizione da record con oltre 20.000 partecipanti, 180 speaker da più di 15 Paesi e un’agenda che ha incanalato l’energia dell’innovazione su scala globale verso l’Italia. Il successo dell’evento non solo rappresenta un consolidamento per il capoluogo piemontese come crocevia tecnologico, ma rafforza anche la posizione del Paese all’interno dell’ecosistema dell’innovazione globale.
L’operazione del Mossad contro Hezbollah, che ha comportato l’esplosione di centinaia di pager distribuiti all’interno della rete del gruppo terroristico in Libano, rappresenta un punto di svolta nelle operazioni di intelligence e controterrorismo. Questo attacco, senza precedenti per la sua scala e il suo livello di sofisticatezza, pone nuove domande sui confini tra guerra cibernetica, supply chain hacking e diritto internazionale. Allo stesso tempo, la possibilità che tali attacchi vengano amplificati dall’uso dell’intelligenza artificiale (AI) rappresenta una preoccupazione crescente per la comunità globale della sicurezza.
Un nuovo report dell’organizzazione WITNESS, intitolato “Audiovisual Generative AI and Conflict Resolution“, mette in evidenza i rischi associati all’uso dell’intelligenza artificiale generativa nei contesti di conflitto. Questo documento analizza come le tecnologie di sintesi mediatica possano influenzare negativamente i processi di pace e il panorama informativo, contribuendo a distorcere la realtà e a fomentare tensioni tra le popolazioni coinvolte.
Il mondo dell’intelligenza artificiale (IA) ha conosciuto, negli ultimi decenni, una crescita esponenziale, diventando una delle aree più innovative della scienza contemporanea. Tra le figure che hanno contribuito in modo significativo allo sviluppo di questo campo, spicca il nome della professoressa Luigia Carlucci Aiello, una pioniera italiana nel campo dell’intelligenza artificiale e dell’informatica, che ha segnato la storia della ricerca scientifica internazionale. Il 30 settembre 2024, presso l’Aula Magna del Rettorato della Sapienza Università di Roma, si terrà una cerimonia di conferimento del titolo di Ambasciatrice Sapienza a Carlucci Aiello, un riconoscimento che sottolinea la sua eccezionale carriera e il suo impatto duraturo nel mondo accademico e della ricerca.
Il coinvolgimento di James Cameron con Stability AI rappresenta un momento cruciale nel dialogo continuo riguardo al ruolo della tecnologia nelle industrie creative. Mentre intraprende questo nuovo capitolo, resta da vedere come la sua visione influenzerà sia il percorso di Stability AI che il panorama più ampio del cinema in un’era sempre più dominata dall’intelligenza artificiale.
Il Dipartimento di Giustizia degli Stati Uniti (DOJ) ha recentemente annunciato importanti modifiche alle linee guida utilizzate dai pubblici ministeri per valutare i programmi di conformità delle aziende durante le indagini.
Queste modifiche, presentate da Nicole Argentieri, capo della divisione penale del DOJ, includono ora l’analisi dei rischi associati all’uso dell’intelligenza artificiale (IA) e altre tecnologie da parte delle aziende. Questo aggiornamento rappresenta un cambiamento significativo nel modo in cui le aziende devono considerare e gestire i rischi tecnologici all’interno dei loro programmi di conformità.
L’uso dell’intelligenza artificiale (IA) nelle indagini criminali sta trasformando il modo in cui le forze dell’ordine operano, ma porta con sé anche una serie di sfide etiche e legali. Questo articolo esplorerà le opportunità e i rischi associati all’implementazione dell’IA nel contesto della giustizia penale, facendo riferimento a diverse fonti, tra cui il MIT e altre analisi recenti.
Con l’aumento degli avvistamenti di UFO, il Search for Extraterrestrial Intelligence (SETI) Institute sta utilizzando l’intelligenza artificiale (IA) e l’apprendimento automatico per cercare segnali di “fenomeni ingegnerizzati” e potenziali segnali alieni. Questo approccio innovativo è fondamentale, considerando l’aumento esponenziale dei dati generati dalle osservazioni astronomiche.