Penso sempre che dobbiamo ricordarci che un’intelligenza artificiale capace di scrivere poesie, diagnosticare tumori e generare universi digitali non riesce ancora a capire se una mela cadrà dal tavolo. Fei-Fei Li, luminare di Stanford e madre della computer vision moderna, lo ha detto con la calma di chi ha appena trovato il bug nell’universo dell’AI: il vero limite oggi non è la logica, ma la fisica. L’intelligenza artificiale non sa ancora vivere nel mondo che pretende di comprendere. È come un filosofo cieco che discetta sulla luce.
Categoria: Women in AI Pagina 1 di 2
La voce delle donne che si occupano di innovazione, intelligenza artificiale e trasformazione digitale
Il futuro dell’intelligenza artificiale tra fiducia e scetticismo
Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.
“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.
Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.
Rivista.aAi osserva la moda attraverso la lente dell’intelligenza artificiale con Stefania Scrivani. La AI non sostituisce il gusto umano, ma lo amplifica, predicendo trend, suggerendo abbinamenti inaspettati e ottimizzando produzioni per sostenibilità ed efficienza.
Stefania Scrivani evidenzia come la tecnologia trasformi la fashion experience in un mix tra dati e creatività, con avatar virtuali, simulazioni e chatbot che personalizzano l’esperienza. Moda e AI diventano un laboratorio di innovazione dove il futuro estetico è calcolabile, sorprendente e sorprendentemente etico.

Nel tempo in cui l’intelligenza artificiale sembra più un riflesso narcisista dell’umanità che una sua estensione consapevole, la traiettoria di Stefania Scrivani appare come un caso raro di lucidità progettuale e coerenza etica. Mentre molti parlano di AI generativa come di un talento oracolare appena scoperto, lei la tratta da decenni come un linguaggio da educare. Non come un assistente, ma come un apprendista morale. In un settore dominato dalla velocità dell’obsolescenza, Scrivani è la contraddizione incarnata: una pioniera del futuro con la lentezza di chi capisce che ogni codice, se non ha un’etica, è solo un’altra forma di rumore.

Francesca Rossi, una delle figure più influenti nel panorama dell’intelligenza artificiale, ha recentemente guidato un’iniziativa ambiziosa che ha tracciato la rotta futura della ricerca in questo campo. Nel 2024, ha avviato un panel presidenziale per l’Association for the Advancement of Artificial Intelligence (AAAI), coinvolgendo 25 ricercatori di spicco per esplorare le tendenze emergenti nella ricerca sull’IA.
Questo gruppo ha identificato 17 aree chiave che stanno plasmando il futuro dell’IA, spaziando dall’etica alla sostenibilità ambientale, dalla percezione sociale alla governance geopolitica. Il risultato di questo lavoro è stato un rapporto pubblicato durante la conferenza AAAI 2025, che ha suscitato ampie discussioni e riconoscimenti, tra cui il Silver Award ai premi ASAE 2025.
La domanda che Delacroix pone non è accademica ma urgente: la tecnologia può trasformare le nostre abitudini in gabbie morali. Habitual Ethics? smonta con rigore la presunzione moderna secondo la quale qualsiasi abitudine possa essere sempre (e facilmente) piegata alla volontà razionale e ci obbliga a fare i conti con il rovescio oscuro del “comportamento che si ripete”.
In un sistema dove le tecnologie data-intensive modellano pattern di comportamento con precisione quasi chirurgica, le nostre abitudini non sono più solo “abitudini”: diventano infrastrutture morali, elementi silenziosi che determinano cosa consideriamo normale, invisibile, desiderabile. Ma se queste infrastrutture si cristallizzano, siamo davvero ancora liberi di deviarle?
Dal momento in cui ho letto “Bottom-Up Data Trusts”, ho capito che Sylvie Delacroix non è un’altra accademica che strilla contro il capitalismo dei dati: è la versione filosofica di un hacker institutionale, che vuole riprogrammare il dominio digitale dall’interno. Delacroix ha costruito un pensiero che parte dall’agenzia la nostra capacità di agire, di scegliere, di essere soggetti morali e la collega direttamente alla struttura delle infrastrutture digitali. L’obiettivo: che i dati non siano un vincolo ma uno strumento di emancipazione.
Qualche giorno fa, nell’Aula Magna dell’Università degli Studi di Bari “Aldo Moro”, si è tenuto DisclAImer, l’evento dedicato al futuro dell’intelligenza artificiale organizzato dal Corriere della Sera e dal CINECA, condotto con la consueta lucidità visionaria da Riccardo Luna. Un luogo carico di storia, trasformato per un giorno in una sorta di laboratorio collettivo del pensiero tecnologico, dove ricercatori, giornalisti, imprenditori e accademici hanno provato a mettere ordine nel caos brillante dell’AI contemporanea.
Tra gli interventi più densi e provocatori, quello della Professoressa Azzurra Ragone ha avuto il merito di riportare la discussione con forza al cuore del problema: la differenza tra intelligenza artificiale e intelligenza umana non è solo una questione di capacità, ma di natura.
Ci sono momenti nella storia della tecnologia in cui una voce filosofica riesce a interrompere il rumore di fondo dei bit e dei bilanci trimestrali. Shannon Vallor è una di queste voci. Filosofa americana, docente all’Università di Edimburgo e direttrice del Centre for Technomoral Futures, Vallor non parla di etica come un esercizio accademico per addetti ai lavori, ma come una strategia di sopravvivenza per una civiltà che ha affidato la propria capacità di giudizio al calcolo automatizzato. L’etica dell’intelligenza artificiale, nel suo pensiero, non è un paragrafo di regolamento europeo, ma una disciplina morale che decide se l’umanità sarà ancora capace di desiderare un futuro degno di sé.

Designing with Uncertainty Sylvie Delacroix
C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.
La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.
Work Is Not Working. Non è una frase fatta, è una diagnosi precisa della nostra era. I modelli tradizionali di lavoro stanno implodendo sotto il peso delle aspettative moderne: le persone chiedono motivazione reale, equilibrio tra vita privata e professionale, riconoscimento tangibile. Le aziende, ironia della sorte, controllano l’85% dei fattori critici per il benessere e la produttività dei loro collaboratori, eppure il malcontento dilaga. Non si tratta di una mancanza di strumenti, ma di visione.
L’Europa vive un paradosso strutturale che minaccia la sua competitività globale. Mentre il continente si propone come leader in sostenibilità, innovazione e digitalizzazione, le sue infrastrutture critiche immobiliari ed energetiche stanno affrontando un collasso silenzioso. Ciò che dovrebbe essere terreno fertile per il progresso tecnologico si è trasformato in un labirinto di permessi, carenza energetica e resistenza sociale. E il prezzo di questa contraddizione lo paga l’intera catena economica: dal consumatore finale all’investitore istituzionale, dalla startup di intelligenza artificiale all’operatore logistico.
Il dibattito sulla diversità nei consigli di amministrazione delle startup sembra aver perso fascino mediatico, come se fosse un vecchio slogan di cui ci si è stancati. Ma la realtà è che il silenzio odierno nasconde un problema enorme: i board delle startup di intelligenza artificiale, la tecnologia più potente e pervasiva del nostro tempo, sono dominati quasi esclusivamente da uomini.
Non c’è nulla di più ironico del vedere un settore che predica “democratizzazione dell’innovazione” incapace di democratizzare se stesso. Negli Stati Uniti, e in particolare in California, il cuore pulsante dell’AI, le leggi che un tempo cercavano di imporre correttivi sono state smantellate o bloccate dai tribunali. Risultato: un ritorno all’autoselezione, dove i fondatori scelgono altri fondatori, gli investitori scelgono altri investitori, e i tavoli di comando continuano a sembrare circoli privati maschili di inizio Novecento.
Quando pensiamo a Google immaginiamo un motore di ricerca imparziale, una macchina perfettamente logica che restituisce risultati obiettivi. Safiya Noble ci costringe a fare marcia indietro e a guardare la realtà con occhi meno ingenui. La studiosa americana, docente di media studies, ha passato anni a osservare come le persone interagiscono con i motori di ricerca, scoprendo che dietro l’apparente neutralità si nascondono pregiudizi radicati. Digitando parole chiave legate a donne nere o latine, i risultati mostrano contenuti sessisti, degradanti e apertamente razzisti. Non si tratta di incidenti isolati, ma di pattern sistematici. Ogni query diventa uno specchio deformante della società, un amplificatore di stereotipi e discriminazioni.

Chi pensa ancora che l’intelligenza artificiale sia solo una questione di algoritmi macinati a forza bruta dentro data center affamati di energia non ha capito dove si sta muovendo la frontiera. Il vero gioco si gioca altrove, nella capacità di creare modelli ispirati al cervello umano, capaci di raggiungere livelli di astrazione e potenza cognitiva senza però divorare l’equivalente energetico di una piccola città. È qui che il neuromorphic computing entra in scena, non come semplice alternativa, ma come provocazione alla logica stessa che ha dominato l’AI negli ultimi dieci anni. Perché imitare il cervello non è un vezzo accademico, è una scelta di sopravvivenza tecnologica.
Frances Haugen non è nata attivista. È un’ingegnere informatico, una data scientist con un curriculum che farebbe invidia a chiunque nel settore tecnologico. Laureata in ingegneria informatica al Olin College e con un MBA ad Harvard, ha lavorato per Google, Pinterest e Yelp. Nel 2019, entra in Facebook come product manager nel team di “Civic Integrity”, incaricato di contrastare la disinformazione e promuovere la sicurezza online. Un ruolo che, a prima vista, sembrava allinearsi perfettamente con la sua carriera.
Sta succedendo qualcosa di affascinante e inquietante allo stesso tempo. Chatbot spirituali, programmi che promettono di guidarti nella fede, stanno diventando virali, ma il meccanismo alla base di tutto non è divino, è algoritmico.
Bible Chat ha superato i 30 milioni di download, Hallow è stato numero uno sull’App Store, e ci sono piattaforme che ti promettono di chattare con Dio. Rabbi Jonathan Roman lo definisce un “ponte verso la fede” per chi non ha mai messo piede in chiesa o sinagoga.
Sembra una storia edificante finché non si ricorda che questi stessi strumenti funzionano secondo modelli che validano le opinioni degli utenti.
Tradotto: ti dicono quello che vuoi sentire, senza discernimento spirituale, ma con un efficiente uso di dati e pattern, come sottolinea Heidi Campbell. Non importa se stai flirtando con la superstizione o abbracciando teorie cospirative, il bot ti accompagnerà con il sorriso.
Nel panorama digitale attuale, l’intelligenza artificiale (IA) e la blockchain stanno convergendo, ma le strade percorse da Big Tech e Web3 divergono nettamente. Mentre aziende come Google, Amazon e Apple integrano la blockchain solo quando migliora i ricavi e il valore per gli azionisti, gli sostenitori di Web3 immaginano sistemi di IA decentralizzati, di proprietà degli utenti e resistenti al controllo esterno.
Le aziende di Big Tech danno priorità al valore per gli azionisti, concentrandosi sulla crescita dei ricavi e sulla massimizzazione dei profitti. L’integrazione della blockchain viene perseguita selettivamente, solo quando aumenta il vantaggio competitivo o la quota di mercato. In questo contesto, l’IA rimane centralizzata, controllata da entità aziendali che ne determinano l’accesso, l’uso e la monetizzazione.




All’interno della 24ª Esposizione Internazionale della Triennale di Milano, l’installazione “Not For Her. AI Revealing the Unseen” si presenta come un’esperienza immersiva che utilizza l’intelligenza artificiale per mettere in luce le disparità di genere nel mondo del lavoro. Ideata dal Politecnico di Milano, l’opera si sviluppa in due momenti complementari: un trittico visivo che stimola una riflessione collettiva e un’interazione individuale che sfida le convinzioni legate ai ruoli di genere. Ogni elemento è pensato per incoraggiare uno sguardo più attento, consapevole e critico.
Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.
Semiconduttori sotto controllo: la vendetta dell’intelligenza artificiale contro la mediocrità industriale
In un mondo dove ogni iPhone vale più di un paese in via di sviluppo, ci si aspetterebbe che i chip che lo animano nascano in ambienti governati da intelligenze aliene, o quantomeno da qualcosa che somigli a un cervello. Eppure, nel cuore pulsante della produzione di semiconduttori, là dove si giocano miliardi su millisecondi, regna ancora il caos silenzioso di processi manuali, decisioni soggettive e qualità a occhio. L’intelligenza artificiale è entrata in borsa, nei frigoriferi, nei calendari. Ma non nei sensori della fabbrica. Una startup di Singapore, fondata da due donne ingegnere, ha deciso di cambiare le regole del gioco con la precisione chirurgica di un wafer da 3 nanometri. E senza chiedere il permesso.

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.
Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili
La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.
È così: siamo tutti impazziti per i modelli linguistici. Claude, GPT, Gemini e compagnia cantante hanno rubato la scena, ci stiamo tutti incantando davanti a chatbot sempre più brillanti, capaci di conversazioni fluide, imitazioni perfette e persino di comporre poesie. Ma poi arriva Fei-Fei Li, la “madrina” dell’intelligenza artificiale, e ci dà un pugno nello stomaco con una verità che dovremmo sapere da sempre, ma che abbiamo ben nascosto dietro il nostro amore per il testo: il mondo reale è tridimensionale, concreto, fisico, e l’IA attuale, per quanto brillante nel dialogo, è fondamentalmente cieca a questa dimensione.
Il 2 giugno 1946 è una data che ogni algoritmo di coscienza collettiva dovrebbe avere tatuata nel suo codice sorgente. Non perché sia solo il giorno della nascita della Repubblica Italiana, ma perché per la prima volta 13 milioni di donne italiane si presentarono alle urne. E non erano lì per accompagnare il marito. Votavano. Decidevano. Scrivevano una nuova pagina di sistema operativo nazionale.
Sono stato nell R&D per decenni, dopo i grandi successi dei modelli open source cinesi mi ero fatto una idea romantica e magari un po’ utopica sul sistema cinese. Poi ho conosciuto Lin 林 al Bar dei Daini, giovane ricercatrice, “maker” esperta di tecnologia che mi ha detto il suo punto di vista.
I nativi di Shenzhen sono pochi. Lin, nata e cresciuta qui, ha un legame unico con questa città in continua trasformazione. Milioni di persone arrivano dalle province per visitare questo centro tecnologico, che da piccolo villaggio è diventato uno dei principali poli di ricerca in Cina. Shenzhen è cruciale per una Cina che aspira a superare gli Stati Uniti nell’innovazione tecnologica, e Lin è un volto simbolo di questa Cina proiettata al futuro, anche in Occidente.
Nel cuore dell’apparato accademico cinese, oggi, si respira un paradosso surreale. Mentre il Paese investe cifre astronomiche nella ricerca oltre 3,6 trilioni di yuan nel 2024 la possibilità concreta di innovare si sta assottigliando dietro una cortina di burocrazia, conformismo e premi autoreferenziali. L’intelligenza artificiale, teoricamente pilastro del primato tecnologico nazionale, è diventata un campo minato dove la creatività viene soppesata a colpi di titoli, pubblicazioni e connessioni personali.
Donne, algoritmi e pane raffermo: la rivincita del cervello femminile nella Silicon Valley d’Oriente
Nel contesto di una società che celebra la tecnologia come nuovo oracolo, la figura della donna nelle discipline STEM continua a essere sottorappresentata, troppo spesso relegata a ruolo decorativo nei panel aziendali o strumentalizzata nelle campagne pubblicitarie dall’inconfondibile retrogusto di marketing rosa. Il problema non è solo quantitativo, ma profondamente culturale: la matematica, l’ingegneria, la scienza e la tecnologia sono ancora percepite come territori maschili per eccellenza, dove la presenza femminile viene vista come un’eccezione statisticamente tollerabile ma raramente valorizzata.
Eppure, in spazi di innovazione come l’Hong Kong Science and Technology Park, esiste una generazione di professioniste che non chiede inclusione, la impone. Figure come Florence Chan, Angela Wu, Wendy Lam, Gina Jiang e Megan Lam, Inhwa Yeom incarnano un nuovo paradigma: quello della competenza femminile che non solo compete, ma supera. Il loro lavoro è sintesi tra eccellenza accademica e applicazione pratica, tra rigore scientifico e intuito strategico, in una costante tensione verso la risoluzione di problemi complessi che spaziano dalla biomedicina alla neurotecnologia.
Noelle Walsh, tra i volti chiave dietro l’espansione muscolare dell’infrastruttura cloud di Microsoft, ha celebrato i 50 anni dell’azienda lo scorso 4 aprile con un tono da dichiarazione di guerra industriale. Un messaggio che suona più come una risposta diretta alle crescenti pressioni di mercato che come un brindisi istituzionale: Microsoft ha raddoppiato la capacità dei suoi datacenter negli ultimi tre anni, con il 2024 che già promette di essere l’anno più bulimico di sempre. E per il 2025, prepariamoci a un nuovo record. Il tutto condito da una cifra che si stampa in fronte: 80 miliardi di dollari di investimenti solo quest’anno, destinati a rafforzare il colosso cloud e AI che Redmond sta trasformando in una sorta di “Azure-centrismo” globale.
Buongiorno lettore o lettrice,
Oggi in data 04/04/2025 mi trovo qui a scrivere un piccolo tema riguardo il sessismo; è da molto che penso e che raffino la mia teoria; perciò, ho trovato opportuno scrivere un temino visto che la scrittura è la mia forma preferita di espressione e mi permette di esplicitare le mie idee in maniera stabile nel tempo.
In questo temino spiegherò il mio pensiero sul perché esiste la società patriarcale, della sua evoluzione e della sua fine. Partirò dai cacciatori-raccoglitori, soffermandomi a lungo sull’agricoltura di sussistenza e concludendo con le rivoluzioni industriali.
Bending Spoons ha deciso di investire in modo concreto nel futuro delle donne nel settore tecnologico, lanciando un’iniziativa che mira a ridurre il divario di genere nel campo della computer science. Con un budget di 100.000 euro, l’azienda offrirà borse di studio del valore di 5.000 euro ciascuna a 20 giovani donne che stanno intraprendendo un percorso universitario in informatica in Europa, Regno Unito, Svizzera e nei paesi balcanici non appartenenti all’UE.
Questa iniziativa non si limita a un semplice gesto di generosità, ma rappresenta un passo importante per creare una reale parità di opportunità nel mondo della tecnologia, che storicamente ha visto una scarsa rappresentanza femminile. Il settore tech ha bisogno di più voci femminili, di più talenti, di più visioni diverse che possano rispondere alle sfide globali con creatività e inclusività.
Nell’era dell’informazione, l’educazione nelle discipline STEAM (Scienza, Tecnologia, Ingegneria, Arti e Matematica) richiede un approccio innovativo che integri creatività, pensiero critico e interdisciplinarità. Questo metodo non solo rende l’apprendimento più coinvolgente, ma prepara gli studenti ad affrontare le sfide future con una mentalità aperta e analitica.
Promuovere il pensiero critico attraverso attività pratiche e interdisciplinari è fondamentale. Quando gli studenti partecipano a progetti che combinano diverse discipline, sviluppano la capacità di analizzare problemi da multiple prospettive.
L’integrazione di scienze, tecnologia e competenze umanistiche è essenziale per sviluppare una comprensione critica delle tecnologie emergenti, come l’intelligenza artificiale. Questa fusione consente agli studenti di valutare l’impatto sociale ed etico delle innovazioni tecnologiche. ndo una visione olistica delle sfide tecnologiche.
Limitare la riflessione sul ruolo delle donne all’8 marzo significa tradire la complessità storica di un’emancipazione che ha attraversato secoli di lotte, pensiero critico e trasformazioni sociali. Se oggi il dibattito sull’inclusione interseca l’intelligenza artificiale, non è per una questione meramente etica, ma per una necessità strutturale: la tecnologia non è neutra, e il modo in cui viene progettata, implementata e regolata riflette dinamiche di potere consolidate.
Mentre il mondo celebra la Giornata Internazionale della Donna l’8 marzo, le Nazioni Unite ci ricordano che siamo lontani anni luce dall’uguaglianza di genere. Secondo il Segretario Generale António Guterres, i diritti delle donne sono sotto attacco globale, con progressi conquistati con fatica che svaniscono davanti ai nostri occhi.
There are many women who have changed the world, but if I had to choose a few who particularly inspire me, I would think of figures like Marie Curie, Rosalind Franklin, Ada Lovelace, and Malala Yousafzai.
Marie Curie was an absolute pioneer in the fields of physics and chemistry, becoming the first woman to win a Nobel Prize and the only person to receive two in two different scientific disciplines. Her research on radioactivity revolutionized science and laid the foundation for radiation therapy, saving millions of lives.
Rosalind Franklin, on the other hand, provided the crucial evidence for the discovery of the structure of DNA, although the credit was largely given to Watson and Crick. Her dedication to science, despite gender barriers, is an inspiration for anyone who believes in the power of knowledge.
Ada Lovelace is considered the first computer programmer in history: in the 19th century, she envisioned the potential of computers long before they existed. Her vision paved the way for modern computing and shows how innovative thinking can anticipate the future.
Malala Yousafzai, Nobel Peace Prize laureate, is a living example of courage and determination. She risked her life to defend girls’ right to education in Pakistan and continues to fight for equality and access to education worldwide.
How about you? Which women inspire you the most and why?
In un’epoca in cui l’intelligenza artificiale sta riscrivendo non solo i codici del business, ma anche quelli normativi, la parola d’ordine non può più essere solo innovazione. Serve governance. E serve rigore. Oracle Italia, sotto la guida di Carlota Alvarez Pedreira, ha capito che “AI trusted by design” non è uno slogan da conferenza ma un modello operativo indispensabile.
La sfida non è più soltanto chi sviluppa l’algoritmo più avanzato, ma chi riesce a governare in modo trasparente, sicuro e conforme a leggi sempre più stringenti.Il contesto normativo europeo è un labirinto fatto di GDPR, AI Act in divenire, Digital Services Act e normative specifiche per settori come finanza e sanità.
Torna dal vivo l’edizione italiana, moltiplicata in un programma ancora più ricco fatto di tappe di avvicinamento chiamate Stem Days: si parte da Bologna il 21 febbraio con un calendario di appuntamenti per promuovere l’inclusione femminile negli ambiti scientifico-tecnologici.
Dopo il grande successo della prima edizione italiana, accolta entusiasticamente da centinaia di giovani, aziende, istituzioni e i grandi volti del mondo della scienza e della tecnologia, lo STEM Women Congress entra nel suo secondo anno, trasformandosi.
Il format, con un solido heritage internazionale e che ha debuttato per la prima volta lo scorso anno nel nostro Paese, con una trentina di big player, istituzioni e guest star che si sono alternate sul palco, torna, ancora una volta, grazie all’impegno di Orange Media Group, creative content company e di Women at Business, la piattaforma di matching professionale al femminile, costruendo un percorso multiplo su più giornate, chiamate Stem Days, che avrà il suo culmine nel Congresso di Milano il 15 ottobre a Palazzo Castiglioni.
Il debito pubblico degli Stati Uniti rappresenta una questione cruciale che periodicamente riemerge nel dibattito politico, influenzando le dinamiche tra il Congresso e l’amministrazione presidenziale. Recentemente, la discussione ha assunto toni accesi, con figure di spicco come il Presidente eletto Donald Trump e la Senatrice Elizabeth Warren che convergono sorprendentemente sulla necessità di abolire il tetto del debito.
L’appello di Carlien Scheele, Direttrice dell’Istituto Europeo per l’Uguaglianza di Genere (Eige), evidenzia una realtà cruciale: il talento femminile è un pilastro indispensabile per lo sviluppo economico e sociale dell’Unione Europea. Tuttavia, il divario occupazionale di genere continua a rappresentare una perdita economica enorme, stimata in 370 miliardi di euro l’anno. Un costo che l’Europa non può più permettersi di ignorare.
Google ha annunciato la nomina di Debbie Weinstein a Presidente di Google Europa, Middle East e Africa (Emea) con l’obiettivo di supportare utenti, aziende, partner e istituzioni nello sviluppo del pieno potenziale di crescita offerto dall’Intelligenza Artificiale. Debbie Weinstein, una laurea alla Brown University e un Mba alla Harvard Business School, è entrata in Google nel 2014 e da allora ha ricoperto ruoli di leadership sia a livello regionale che globale. In precedenza è stata Vice Presidente e Managing Director di Google nel Regno Unito e in Irlanda. Prima ancora è stata Vice Presidente di Global Advertiser Solutions, assicurandosi che i marketer di tutte le dimensioni in tutto il mondo avessero la possibilità di sviluppare le loro attività con YouTube.
L’Unione Europea ha raggiunto un accordo politico sul nuovo team di 26 commissari che guideranno l’agenda politica del Presidente Ursula von der Leyen per i prossimi cinque anni. Con un voto finale previsto a breve, la Commissione Europea si prepara ad affrontare sfide cruciali per la tecnologia, l’innovazione e la regolamentazione delle grandi piattaforme digitali. Tra le figure più rilevanti emergono tre donne con portafogli strategici che potrebbero ridefinire il panorama tecnologico europeo: Teresa Ribera Rodríguez, Henna Virkkunen ed Ekaterina Zaharieva.