In partenza, bambini e bambine percorrono gli stessi banchi di scuola, affrontano gli stessi libri, imparano a leggere, scrivere e far di conto come se il mondo fosse neutro e imparziale, ma l’equilibrio dura poco; lentamente, inesorabilmente, si delineano traiettorie differenti che il tempo trasforma in disuguaglianze profonde. Felicia Pelagalli, nel suo recente articolo sul Sole 24 Ore, affronta questo tema con una lucidità che non ammette comodità retoriche, mostrando come il genere plasmi percorsi di vita apparentemente simili ma sostanzialmente divergenti. L’analisi prende spunto dallo studio coordinato da Agar Brugiavini, Ordinario di Economia politica all’Università Ca’ Foscari di Venezia, realizzato nell’ambito del Partenariato Age-It, basato su SHARELIFE e sui dati di oltre 5.000 italiani over 50: un campione equilibrato per genere e rappresentativo della fascia d’età, capace di restituire una fotografia nitida della vita adulta italiana.
Categoria: Women in AI Pagina 1 di 2
La voce delle donne che si occupano di innovazione, intelligenza artificiale e trasformazione digitale
L’intelligenza artificiale promette di cambiare il mondo, ma nel frattempo continua a essere progettata da una parte sola del mondo. Nel settore che sta ridisegnando economia, lavoro e informazione, le donne restano una minoranza. Secondo uno studio della Asian Development Bank, solo il 30% dei professionisti dell’intelligenza artificiale è donna. Un miglioramento rispetto al passato, appena quattro punti percentuali in più rispetto al 2016, ma ancora lontano da qualsiasi idea di equilibrio.
C’è un paradosso che chi si occupa di intelligenza artificiale conosce bene ma finge di ignorare nelle conference call del lunedì mattina. L’AI promette di essere la tecnologia più potente e trasformativa del nostro tempo, capace di ridisegnare lavoro, istruzione, sanità, sicurezza e perfino le nostre relazioni. Eppure rischia di nascere e crescere con un difetto di fabbrica antico quanto il mondo analogico che pretende di superare. Il gender gap. Oggi, in occasione della Giornata Internazionale delle Donne e delle Ragazze nella Scienza, arriva in edicola (e in libreria dal 20 febbraio) “Nessuna fuori dal codice. Donne che stanno riscrivendo l’AI” di Alessia Canfarini e Simona Rossitto, edito da Il Sole 24 Ore. Il titolo è già un manifesto e anche un promemoria. Se il codice è il nuovo linguaggio del potere, nessuna può restarne esclusa.
Nella sterile retorica della ricerca scientifica europea, dove spesso si celebrano iniziative che suonano come slogan più che come innovazioni reali, la vittoria della Scuola Normale Superiore di Pisa con il progetto Illume‑4‑Science, coordinato da Fosca Giannotti. è un caso che merita più di un semplice titolo in cronaca. È un brusco promemoria per chi continua a pensare che l’intelligenza artificiale nel biomedicale sia solo una moda da pitch deck o un rametto di favore nei bandi comunitari. La prova concreta arriva da un finanziamento ERC‑Proof of Concept della Comunità europea vinto sotto la guida della professoressa Fosca Giannotti, ordinaria di Informatica alla Normale, con l’obiettivo di trasformare una piattaforma di intelligenza artificiale spiegabile e responsabile in uno strumento operativo per la ricerca sul cancro e lo sviluppo di nuovi farmaci.
Nella storia di ogni grande trasformazione tecnologica, ad un certo momento diventa evidente che il vero nodo non è più la potenza degli strumenti, ma chi li sta costruendo. L’intelligenza artificiale oggi è ovunque: nei servizi che usiamo, nelle aziende, nella sanità, nella scuola. Eppure, se si guarda dietro le quinte, nei luoghi dove questi sistemi vengono pensati, progettati e addestrati, il mondo appare ancora sorprendentemente poco rappresentativo della società che dovrebbe servire.
Nel 2026 la narrativa sull’intelligenza artificiale non può più essere confinata a slogan accademici o principi generici di eticita. Quello che fino a pochi anni fa sembrava un dibattito marginale nel circolo ristretto di policy maker e tecnologi di frontiera e diventato materia di discussione pubblica urgente. La nomina di Cristina Di Silvio come Global Ambassador per l’Italia e Malta per il Global Council for Responsible AI non e un atto simbolico di buon proposito. E una risposta strategica e necessaria a un problema concreto: i sistemi di intelligenza artificiale non sono piu strumenti passivi ma attori che influenzano i comportamenti umani, con implicazioni profonde quando interagiscono in modo non adeguatamente governato con cittadini, minorenni e persone vulnerabili. La leadership etica nell’intelligenza artificiale non e un optional morale ma un imperativo operativo.
In un ecosistema digitale che celebra la velocità a ogni costo, Mariella Borghi rappresenta l’eccezione che conferma la regola: la vera innovazione richiede tempo, profondità e, soprattutto, una regia umana. L’AI non è una bacchetta magica, ma uno specchio che riflette chi siamo: governarlo richiede competenza tecnica, visione strategica e una solida
“intelligenza analogica”.
Penso sempre che dobbiamo ricordarci che un’intelligenza artificiale capace di scrivere poesie, diagnosticare tumori e generare universi digitali non riesce ancora a capire se una mela cadrà dal tavolo. Fei-Fei Li, luminare di Stanford e madre della computer vision moderna, lo ha detto con la calma di chi ha appena trovato il bug nell’universo dell’AI: il vero limite oggi non è la logica, ma la fisica. L’intelligenza artificiale non sa ancora vivere nel mondo che pretende di comprendere. È come un filosofo cieco che discetta sulla luce.
Il futuro dell’intelligenza artificiale tra fiducia e scetticismo
Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.
“La trasformazione digitale non è un’opzione. È un dovere morale.” Questa frase suona come una provocazione da sala riunioni, ma racchiude l’essenza di ciò che oggi definisce la vera leadership tecnologica. Non basta saper implementare modelli di intelligenza artificiale. Bisogna comprendere la responsabilità che ne deriva. È qui che entra in gioco BRAID UK, un programma che si muove come un ponte fra filosofia, tecnologia e industria, e che sta ridefinendo il concetto stesso di responsible AI.
Simona Tiribelli Ricercatrice e docente di Etica dell’Università di Macerata (che parteciperà al Convegno SEPAI a Dicembre) viene dalle Marche e ha trasformato la sua curiosità filosofica in un mestiere raro e urgente. Guida un centro di ricerca che esplora come l’IA non solo amplifica la nostra capacità di elaborare informazioni, ma, più insidioso, plasma il nostro modo di pensare, sentire e interagire. Il termine che usa per descrivere il fenomeno più inquietante non lascia spazio a fraintendimenti: tribalismo emotivo. I sistemi digitali, spiega, non ci informano, ci dividono. Alimentano le nostre reazioni più viscerali, separando opinioni e comunità in tribù epistemiche, radicalizzando credenze e polarizzando l’esperienza sociale. Non è fantascienza: è quello che accade ogni volta che scorrendo un feed ci sentiamo confermati o aggrediti da contenuti studiati per farci reagire.
Rivista.aAi osserva la moda attraverso la lente dell’intelligenza artificiale con Stefania Scrivani. La AI non sostituisce il gusto umano, ma lo amplifica, predicendo trend, suggerendo abbinamenti inaspettati e ottimizzando produzioni per sostenibilità ed efficienza.
Stefania Scrivani evidenzia come la tecnologia trasformi la fashion experience in un mix tra dati e creatività, con avatar virtuali, simulazioni e chatbot che personalizzano l’esperienza. Moda e AI diventano un laboratorio di innovazione dove il futuro estetico è calcolabile, sorprendente e sorprendentemente etico.

Nel tempo in cui l’intelligenza artificiale sembra più un riflesso narcisista dell’umanità che una sua estensione consapevole, la traiettoria di Stefania Scrivani appare come un caso raro di lucidità progettuale e coerenza etica. Mentre molti parlano di AI generativa come di un talento oracolare appena scoperto, lei la tratta da decenni come un linguaggio da educare. Non come un assistente, ma come un apprendista morale. In un settore dominato dalla velocità dell’obsolescenza, Scrivani è la contraddizione incarnata: una pioniera del futuro con la lentezza di chi capisce che ogni codice, se non ha un’etica, è solo un’altra forma di rumore.

Francesca Rossi, una delle figure più influenti nel panorama dell’intelligenza artificiale, ha recentemente guidato un’iniziativa ambiziosa che ha tracciato la rotta futura della ricerca in questo campo. Nel 2024, ha avviato un panel presidenziale per l’Association for the Advancement of Artificial Intelligence (AAAI), coinvolgendo 25 ricercatori di spicco per esplorare le tendenze emergenti nella ricerca sull’IA.
Questo gruppo ha identificato 17 aree chiave che stanno plasmando il futuro dell’IA, spaziando dall’etica alla sostenibilità ambientale, dalla percezione sociale alla governance geopolitica. Il risultato di questo lavoro è stato un rapporto pubblicato durante la conferenza AAAI 2025, che ha suscitato ampie discussioni e riconoscimenti, tra cui il Silver Award ai premi ASAE 2025.
La domanda che Delacroix pone non è accademica ma urgente: la tecnologia può trasformare le nostre abitudini in gabbie morali. Habitual Ethics? smonta con rigore la presunzione moderna secondo la quale qualsiasi abitudine possa essere sempre (e facilmente) piegata alla volontà razionale e ci obbliga a fare i conti con il rovescio oscuro del “comportamento che si ripete”.
In un sistema dove le tecnologie data-intensive modellano pattern di comportamento con precisione quasi chirurgica, le nostre abitudini non sono più solo “abitudini”: diventano infrastrutture morali, elementi silenziosi che determinano cosa consideriamo normale, invisibile, desiderabile. Ma se queste infrastrutture si cristallizzano, siamo davvero ancora liberi di deviarle?
Dal momento in cui ho letto “Bottom-Up Data Trusts”, ho capito che Sylvie Delacroix non è un’altra accademica che strilla contro il capitalismo dei dati: è la versione filosofica di un hacker institutionale, che vuole riprogrammare il dominio digitale dall’interno. Delacroix ha costruito un pensiero che parte dall’agenzia la nostra capacità di agire, di scegliere, di essere soggetti morali e la collega direttamente alla struttura delle infrastrutture digitali. L’obiettivo: che i dati non siano un vincolo ma uno strumento di emancipazione.
Qualche giorno fa, nell’Aula Magna dell’Università degli Studi di Bari “Aldo Moro”, si è tenuto DisclAImer, l’evento dedicato al futuro dell’intelligenza artificiale organizzato dal Corriere della Sera e dal CINECA, condotto con la consueta lucidità visionaria da Riccardo Luna. Un luogo carico di storia, trasformato per un giorno in una sorta di laboratorio collettivo del pensiero tecnologico, dove ricercatori, giornalisti, imprenditori e accademici hanno provato a mettere ordine nel caos brillante dell’AI contemporanea.
Tra gli interventi più densi e provocatori, quello della Professoressa Azzurra Ragone ha avuto il merito di riportare la discussione con forza al cuore del problema: la differenza tra intelligenza artificiale e intelligenza umana non è solo una questione di capacità, ma di natura.
Ci sono momenti nella storia della tecnologia in cui una voce filosofica riesce a interrompere il rumore di fondo dei bit e dei bilanci trimestrali. Shannon Vallor è una di queste voci. Filosofa americana, docente all’Università di Edimburgo e direttrice del Centre for Technomoral Futures, Vallor non parla di etica come un esercizio accademico per addetti ai lavori, ma come una strategia di sopravvivenza per una civiltà che ha affidato la propria capacità di giudizio al calcolo automatizzato. L’etica dell’intelligenza artificiale, nel suo pensiero, non è un paragrafo di regolamento europeo, ma una disciplina morale che decide se l’umanità sarà ancora capace di desiderare un futuro degno di sé.

Designing with Uncertainty Sylvie Delacroix
C’è un paradosso che attraversa la nostra epoca digitale. I sistemi che più hanno eroso la fiducia democratica potrebbero diventare proprio quelli capaci di rigenerarla. Non si tratta di un sogno utopico da tecnofilo incallito ma di una possibilità concreta, se si ha il coraggio di riscrivere le regole del design tecnologico.
La tesi, audace ma fondata, arriva da Designing with Uncertainty, il nuovo paper pubblicato su Minds and Machines da Sylvie Delacroix del King’s College London. L’idea è semplice quanto dirompente: l’intelligenza artificiale, e in particolare i Large Language Models (LLM), non dovrebbero limitarsi a rispondere alle nostre domande ma dovrebbero imparare a sostenere l’incertezza.
Work Is Not Working. Non è una frase fatta, è una diagnosi precisa della nostra era. I modelli tradizionali di lavoro stanno implodendo sotto il peso delle aspettative moderne: le persone chiedono motivazione reale, equilibrio tra vita privata e professionale, riconoscimento tangibile. Le aziende, ironia della sorte, controllano l’85% dei fattori critici per il benessere e la produttività dei loro collaboratori, eppure il malcontento dilaga. Non si tratta di una mancanza di strumenti, ma di visione.
L’Europa vive un paradosso strutturale che minaccia la sua competitività globale. Mentre il continente si propone come leader in sostenibilità, innovazione e digitalizzazione, le sue infrastrutture critiche immobiliari ed energetiche stanno affrontando un collasso silenzioso. Ciò che dovrebbe essere terreno fertile per il progresso tecnologico si è trasformato in un labirinto di permessi, carenza energetica e resistenza sociale. E il prezzo di questa contraddizione lo paga l’intera catena economica: dal consumatore finale all’investitore istituzionale, dalla startup di intelligenza artificiale all’operatore logistico.
Il dibattito sulla diversità nei consigli di amministrazione delle startup sembra aver perso fascino mediatico, come se fosse un vecchio slogan di cui ci si è stancati. Ma la realtà è che il silenzio odierno nasconde un problema enorme: i board delle startup di intelligenza artificiale, la tecnologia più potente e pervasiva del nostro tempo, sono dominati quasi esclusivamente da uomini.
Non c’è nulla di più ironico del vedere un settore che predica “democratizzazione dell’innovazione” incapace di democratizzare se stesso. Negli Stati Uniti, e in particolare in California, il cuore pulsante dell’AI, le leggi che un tempo cercavano di imporre correttivi sono state smantellate o bloccate dai tribunali. Risultato: un ritorno all’autoselezione, dove i fondatori scelgono altri fondatori, gli investitori scelgono altri investitori, e i tavoli di comando continuano a sembrare circoli privati maschili di inizio Novecento.
Quando pensiamo a Google immaginiamo un motore di ricerca imparziale, una macchina perfettamente logica che restituisce risultati obiettivi. Safiya Noble ci costringe a fare marcia indietro e a guardare la realtà con occhi meno ingenui. La studiosa americana, docente di media studies, ha passato anni a osservare come le persone interagiscono con i motori di ricerca, scoprendo che dietro l’apparente neutralità si nascondono pregiudizi radicati. Digitando parole chiave legate a donne nere o latine, i risultati mostrano contenuti sessisti, degradanti e apertamente razzisti. Non si tratta di incidenti isolati, ma di pattern sistematici. Ogni query diventa uno specchio deformante della società, un amplificatore di stereotipi e discriminazioni.

Chi pensa ancora che l’intelligenza artificiale sia solo una questione di algoritmi macinati a forza bruta dentro data center affamati di energia non ha capito dove si sta muovendo la frontiera. Il vero gioco si gioca altrove, nella capacità di creare modelli ispirati al cervello umano, capaci di raggiungere livelli di astrazione e potenza cognitiva senza però divorare l’equivalente energetico di una piccola città. È qui che il neuromorphic computing entra in scena, non come semplice alternativa, ma come provocazione alla logica stessa che ha dominato l’AI negli ultimi dieci anni. Perché imitare il cervello non è un vezzo accademico, è una scelta di sopravvivenza tecnologica.
Frances Haugen non è nata attivista. È un’ingegnere informatico, una data scientist con un curriculum che farebbe invidia a chiunque nel settore tecnologico. Laureata in ingegneria informatica al Olin College e con un MBA ad Harvard, ha lavorato per Google, Pinterest e Yelp. Nel 2019, entra in Facebook come product manager nel team di “Civic Integrity”, incaricato di contrastare la disinformazione e promuovere la sicurezza online. Un ruolo che, a prima vista, sembrava allinearsi perfettamente con la sua carriera.
Sta succedendo qualcosa di affascinante e inquietante allo stesso tempo. Chatbot spirituali, programmi che promettono di guidarti nella fede, stanno diventando virali, ma il meccanismo alla base di tutto non è divino, è algoritmico.
Bible Chat ha superato i 30 milioni di download, Hallow è stato numero uno sull’App Store, e ci sono piattaforme che ti promettono di chattare con Dio. Rabbi Jonathan Roman lo definisce un “ponte verso la fede” per chi non ha mai messo piede in chiesa o sinagoga.
Sembra una storia edificante finché non si ricorda che questi stessi strumenti funzionano secondo modelli che validano le opinioni degli utenti.
Tradotto: ti dicono quello che vuoi sentire, senza discernimento spirituale, ma con un efficiente uso di dati e pattern, come sottolinea Heidi Campbell. Non importa se stai flirtando con la superstizione o abbracciando teorie cospirative, il bot ti accompagnerà con il sorriso.
Nel panorama digitale attuale, l’intelligenza artificiale (IA) e la blockchain stanno convergendo, ma le strade percorse da Big Tech e Web3 divergono nettamente. Mentre aziende come Google, Amazon e Apple integrano la blockchain solo quando migliora i ricavi e il valore per gli azionisti, gli sostenitori di Web3 immaginano sistemi di IA decentralizzati, di proprietà degli utenti e resistenti al controllo esterno.
Le aziende di Big Tech danno priorità al valore per gli azionisti, concentrandosi sulla crescita dei ricavi e sulla massimizzazione dei profitti. L’integrazione della blockchain viene perseguita selettivamente, solo quando aumenta il vantaggio competitivo o la quota di mercato. In questo contesto, l’IA rimane centralizzata, controllata da entità aziendali che ne determinano l’accesso, l’uso e la monetizzazione.




All’interno della 24ª Esposizione Internazionale della Triennale di Milano, l’installazione “Not For Her. AI Revealing the Unseen” si presenta come un’esperienza immersiva che utilizza l’intelligenza artificiale per mettere in luce le disparità di genere nel mondo del lavoro. Ideata dal Politecnico di Milano, l’opera si sviluppa in due momenti complementari: un trittico visivo che stimola una riflessione collettiva e un’interazione individuale che sfida le convinzioni legate ai ruoli di genere. Ogni elemento è pensato per incoraggiare uno sguardo più attento, consapevole e critico.
Quando il laboratorio di ricerca Nvidia aprì le sue porte a nuove sfide nel 2009, era ancora un microcosmo di appena una dozzina di ricercatori concentrati sul ray tracing, una tecnica di rendering sofisticata ma di nicchia. Allora Nvidia era percepita come una fabbrica di GPU per gamer esigenti, non certo come il motore di una rivoluzione tecnologica. Oggi, quello stesso laboratorio conta oltre 400 persone e ha contribuito a trasformare l’azienda in una potenza da 4 trilioni di dollari che guida la corsa globale all’intelligenza artificiale. La nuova ossessione è la physical AI, l’intelligenza artificiale che non vive soltanto nei data center, ma interagisce fisicamente con il mondo, comandando robot e macchine autonome.
Semiconduttori sotto controllo: la vendetta dell’intelligenza artificiale contro la mediocrità industriale
In un mondo dove ogni iPhone vale più di un paese in via di sviluppo, ci si aspetterebbe che i chip che lo animano nascano in ambienti governati da intelligenze aliene, o quantomeno da qualcosa che somigli a un cervello. Eppure, nel cuore pulsante della produzione di semiconduttori, là dove si giocano miliardi su millisecondi, regna ancora il caos silenzioso di processi manuali, decisioni soggettive e qualità a occhio. L’intelligenza artificiale è entrata in borsa, nei frigoriferi, nei calendari. Ma non nei sensori della fabbrica. Una startup di Singapore, fondata da due donne ingegnere, ha deciso di cambiare le regole del gioco con la precisione chirurgica di un wafer da 3 nanometri. E senza chiedere il permesso.

Che Maria Chiara Carrozza sia una delle menti più brillanti della scena scientifica e politica italiana è un fatto. Che il Paese non se ne sia ancora accorto, è la parte interessante. In una nazione dove il termine “innovazione” viene usato come il prezzemolo nei talk show domenicali, Carrozza rappresenta quel tipo di cervello che ti aspetteresti in un think tank del MIT, e che invece si ritrova a parlare di neuro-robotica davanti a parlamentari distratti da WhatsApp. Una donna che non solo ha progettato protesi robotiche che sembrano uscite da un episodio di MIB, ma ha anche avuto l’ardire di fare il Ministro dell’Istruzione in un Paese dove i docenti universitari devono ancora chiedere permesso per installare un software.
Quando l’AI diventa un’arma contro le donne: manuale irriverente per red teamer civici in cerca di guai utili
La retorica dell’intelligenza artificiale etica è diventata più tossica del deepfake medio. Mentre i colossi tecnologici si accapigliano sulla “responsabilità dell’AI” in panel scintillanti e white paper ben stirati, fuori dalle stanze ovattate accade una realtà tanto semplice quanto feroce: l’AI generativa fa danni, e li fa soprattutto alle donne e alle ragazze. Violenza, sessualizzazione, esclusione, stereotipi. Benvenuti nel mondo dell’intelligenza artificiale patriarcale, travestita da progresso.
È così: siamo tutti impazziti per i modelli linguistici. Claude, GPT, Gemini e compagnia cantante hanno rubato la scena, ci stiamo tutti incantando davanti a chatbot sempre più brillanti, capaci di conversazioni fluide, imitazioni perfette e persino di comporre poesie. Ma poi arriva Fei-Fei Li, la “madrina” dell’intelligenza artificiale, e ci dà un pugno nello stomaco con una verità che dovremmo sapere da sempre, ma che abbiamo ben nascosto dietro il nostro amore per il testo: il mondo reale è tridimensionale, concreto, fisico, e l’IA attuale, per quanto brillante nel dialogo, è fondamentalmente cieca a questa dimensione.
Il 2 giugno 1946 è una data che ogni algoritmo di coscienza collettiva dovrebbe avere tatuata nel suo codice sorgente. Non perché sia solo il giorno della nascita della Repubblica Italiana, ma perché per la prima volta 13 milioni di donne italiane si presentarono alle urne. E non erano lì per accompagnare il marito. Votavano. Decidevano. Scrivevano una nuova pagina di sistema operativo nazionale.
Sono stato nell R&D per decenni, dopo i grandi successi dei modelli open source cinesi mi ero fatto una idea romantica e magari un po’ utopica sul sistema cinese. Poi ho conosciuto Lin 林 al Bar dei Daini, giovane ricercatrice, “maker” esperta di tecnologia che mi ha detto il suo punto di vista.
I nativi di Shenzhen sono pochi. Lin, nata e cresciuta qui, ha un legame unico con questa città in continua trasformazione. Milioni di persone arrivano dalle province per visitare questo centro tecnologico, che da piccolo villaggio è diventato uno dei principali poli di ricerca in Cina. Shenzhen è cruciale per una Cina che aspira a superare gli Stati Uniti nell’innovazione tecnologica, e Lin è un volto simbolo di questa Cina proiettata al futuro, anche in Occidente.
Nel cuore dell’apparato accademico cinese, oggi, si respira un paradosso surreale. Mentre il Paese investe cifre astronomiche nella ricerca oltre 3,6 trilioni di yuan nel 2024 la possibilità concreta di innovare si sta assottigliando dietro una cortina di burocrazia, conformismo e premi autoreferenziali. L’intelligenza artificiale, teoricamente pilastro del primato tecnologico nazionale, è diventata un campo minato dove la creatività viene soppesata a colpi di titoli, pubblicazioni e connessioni personali.
Donne, algoritmi e pane raffermo: la rivincita del cervello femminile nella Silicon Valley d’Oriente
Nel contesto di una società che celebra la tecnologia come nuovo oracolo, la figura della donna nelle discipline STEM continua a essere sottorappresentata, troppo spesso relegata a ruolo decorativo nei panel aziendali o strumentalizzata nelle campagne pubblicitarie dall’inconfondibile retrogusto di marketing rosa. Il problema non è solo quantitativo, ma profondamente culturale: la matematica, l’ingegneria, la scienza e la tecnologia sono ancora percepite come territori maschili per eccellenza, dove la presenza femminile viene vista come un’eccezione statisticamente tollerabile ma raramente valorizzata.
Eppure, in spazi di innovazione come l’Hong Kong Science and Technology Park, esiste una generazione di professioniste che non chiede inclusione, la impone. Figure come Florence Chan, Angela Wu, Wendy Lam, Gina Jiang e Megan Lam, Inhwa Yeom incarnano un nuovo paradigma: quello della competenza femminile che non solo compete, ma supera. Il loro lavoro è sintesi tra eccellenza accademica e applicazione pratica, tra rigore scientifico e intuito strategico, in una costante tensione verso la risoluzione di problemi complessi che spaziano dalla biomedicina alla neurotecnologia.
Noelle Walsh, tra i volti chiave dietro l’espansione muscolare dell’infrastruttura cloud di Microsoft, ha celebrato i 50 anni dell’azienda lo scorso 4 aprile con un tono da dichiarazione di guerra industriale. Un messaggio che suona più come una risposta diretta alle crescenti pressioni di mercato che come un brindisi istituzionale: Microsoft ha raddoppiato la capacità dei suoi datacenter negli ultimi tre anni, con il 2024 che già promette di essere l’anno più bulimico di sempre. E per il 2025, prepariamoci a un nuovo record. Il tutto condito da una cifra che si stampa in fronte: 80 miliardi di dollari di investimenti solo quest’anno, destinati a rafforzare il colosso cloud e AI che Redmond sta trasformando in una sorta di “Azure-centrismo” globale.
Buongiorno lettore o lettrice,
Oggi in data 04/04/2025 mi trovo qui a scrivere un piccolo tema riguardo il sessismo; è da molto che penso e che raffino la mia teoria; perciò, ho trovato opportuno scrivere un temino visto che la scrittura è la mia forma preferita di espressione e mi permette di esplicitare le mie idee in maniera stabile nel tempo.
In questo temino spiegherò il mio pensiero sul perché esiste la società patriarcale, della sua evoluzione e della sua fine. Partirò dai cacciatori-raccoglitori, soffermandomi a lungo sull’agricoltura di sussistenza e concludendo con le rivoluzioni industriali.
Bending Spoons ha deciso di investire in modo concreto nel futuro delle donne nel settore tecnologico, lanciando un’iniziativa che mira a ridurre il divario di genere nel campo della computer science. Con un budget di 100.000 euro, l’azienda offrirà borse di studio del valore di 5.000 euro ciascuna a 20 giovani donne che stanno intraprendendo un percorso universitario in informatica in Europa, Regno Unito, Svizzera e nei paesi balcanici non appartenenti all’UE.
Questa iniziativa non si limita a un semplice gesto di generosità, ma rappresenta un passo importante per creare una reale parità di opportunità nel mondo della tecnologia, che storicamente ha visto una scarsa rappresentanza femminile. Il settore tech ha bisogno di più voci femminili, di più talenti, di più visioni diverse che possano rispondere alle sfide globali con creatività e inclusività.
Nell’era dell’informazione, l’educazione nelle discipline STEAM (Scienza, Tecnologia, Ingegneria, Arti e Matematica) richiede un approccio innovativo che integri creatività, pensiero critico e interdisciplinarità. Questo metodo non solo rende l’apprendimento più coinvolgente, ma prepara gli studenti ad affrontare le sfide future con una mentalità aperta e analitica.
Promuovere il pensiero critico attraverso attività pratiche e interdisciplinari è fondamentale. Quando gli studenti partecipano a progetti che combinano diverse discipline, sviluppano la capacità di analizzare problemi da multiple prospettive.
L’integrazione di scienze, tecnologia e competenze umanistiche è essenziale per sviluppare una comprensione critica delle tecnologie emergenti, come l’intelligenza artificiale. Questa fusione consente agli studenti di valutare l’impatto sociale ed etico delle innovazioni tecnologiche. ndo una visione olistica delle sfide tecnologiche.
Limitare la riflessione sul ruolo delle donne all’8 marzo significa tradire la complessità storica di un’emancipazione che ha attraversato secoli di lotte, pensiero critico e trasformazioni sociali. Se oggi il dibattito sull’inclusione interseca l’intelligenza artificiale, non è per una questione meramente etica, ma per una necessità strutturale: la tecnologia non è neutra, e il modo in cui viene progettata, implementata e regolata riflette dinamiche di potere consolidate.
Mentre il mondo celebra la Giornata Internazionale della Donna l’8 marzo, le Nazioni Unite ci ricordano che siamo lontani anni luce dall’uguaglianza di genere. Secondo il Segretario Generale António Guterres, i diritti delle donne sono sotto attacco globale, con progressi conquistati con fatica che svaniscono davanti ai nostri occhi.