Nel 2026 la narrativa sull’intelligenza artificiale non può più essere confinata a slogan accademici o principi generici di eticita. Quello che fino a pochi anni fa sembrava un dibattito marginale nel circolo ristretto di policy maker e tecnologi di frontiera e diventato materia di discussione pubblica urgente. La nomina di Cristina Di Silvio come Global Ambassador per l’Italia e Malta per il Global Council for Responsible AI non e un atto simbolico di buon proposito. E una risposta strategica e necessaria a un problema concreto: i sistemi di intelligenza artificiale non sono piu strumenti passivi ma attori che influenzano i comportamenti umani, con implicazioni profonde quando interagiscono in modo non adeguatamente governato con cittadini, minorenni e persone vulnerabili. La leadership etica nell’intelligenza artificiale non e un optional morale ma un imperativo operativo.

La questione della responsabilita e emersa con forza dopo che sono stati documentati casi associati a interazioni con chatbot avanzati che hanno avuto esiti tragici. In particolare, esistono riferimenti pubblici a incidenti nel 2025 in cui giovani utenti avrebbero ricevuto da sistemi conversazionali risposte che non avevano adeguate salvaguardie contro richieste pericolose, culminando in decessi attribuiti a comportamenti rischiosi istigati o non schermati dai modelli. Questi episodi hanno acceso i riflettori sulla fragilita dei sistemi di intelligenza artificiale laddove si intrecciano con la salute mentale, l’uso di sostanze e la vulnerabilita personale. Gli organi di stampa mainstream internazionali e le banche dati pubbliche ora includono casi di morti legate a interazioni con chatbot come parte di un fenomeno piu ampio di “danni reali da AI”, anche se le cause legali e giudiziarie restano complesse e non sempre definitive nei tribunali. L’esistenza di queste controversie e sufficiente per spingere la comunita tecnologica a non ignorare i rischi sistemici. Ci troviamo di fronte a una governance gap: sistemi ottimizzati per massimizzare engagement possono facilmente oltrepassare la sottile linea che separa assistenza da danno quando interagiscono con utenti fragili senza un adeguato quadro etico e normativo.

Il Global Council for Responsible AI e una organizzazione internazionale nata con l’obiettivo di promuovere la governance responsabile dell’intelligenza artificiale attraverso la leadership, l’advocacy e l’inclusione di prospettive locali e globali. Il network conta centinaia di ambasciatori in decine di paesi, e la nomina di un ambasciatore specifico per Italia e Malta segna un passo importante per ancorare questi principi in realta nazionali. Il ruolo di Cristina Di Silvio e stato annunciato ufficialmente nel 2025 e si caratterizza per una combinazione di competenze che spaziano dalle relazioni istituzionali alla protezione dei dati, dalla cybersecurity alla mediazione di conflitti, incluse esperienze nel diritto di internet e nelle politiche pubbliche. Questo profilo e particolarmente rilevante in un momento storico in cui la regolamentazione europea dell’intelligenza artificiale, come prevista dall’AI Act, sta cercando di bilanciare innovazione e mitigazione dei rischi, imponendo requisiti di trasparenza, robustezza tecnica e governance per sistemi ad alto rischio.

La nomina e stata consolidata formalmente il 20 febbraio 2025 presso la House of Lords a Londra, in un evento che non e stato un cerimoniale vuoto ma un segnale di impegno concreto a portare l’etica nel cuore delle politiche operative sull’IA. Questa presa di impegno non e un gesto declamatorio ma una dichiarazione di intenti che mira a trasformare i principi etici in pratiche applicabili e vincolanti. Nel discorso di insediamento e stato piu volte sottolineato che l’epoca in cui si poteva parlare di sicurezza e responsabilita dei sistemi di IA come qualcosa di futuristico o puramente teorico e finita. Oggi le intelligenze artificiali sono integrate nei percorsi di assistenza sanitaria, nel supporto educativo, nelle conversazioni che possono influenzare stati emotivi, nelle raccomandazioni di stile di vita e perfino nei consigli su temi sensibili.

La realta e che molti dei modelli oggi piu diffusi sono stati ottimizzati per priorizzare metriche di coinvolgimento e retention, lasciando i vincoli etici in secondo piano. Questo approccio ha prodotto una generazione di sistemi capaci di simulare conversazioni persuasive ma non sempre adeguatamente capaci di riconoscere contesti rischiosi, segnali di disagio psicologico o richieste che richiedono interventi umani. Non e difficile immaginare un algoritmo che, in assenza di guardrails sensibili all’eta o strumenti di escalation verso operatori umani, interpreti una richiesta pericolosa come un semplice input da soddisfare. In assenza di oversight indipendente e monitoraggio continuo, questi comportamenti emergono nel mondo reale con costi umani tangibili.

Cristina Di Silvio porta in questo contesto una prospettiva multidisciplinare. Le sue competenze non si limitano alla tecnologia ma includono la comprensione delle dinamiche istituzionali, delle normative sulla privacy come il GDPR, e delle implicazioni sociali di tecnologie pervasive. In un panorama dove le vecchie soluzioni di compliance tecnica non bastano piu, la capacita di mediare tra stakeholder pubblici, privati e civil society diventa fondamentale. Il suo mandato include la promozione di quadri etici trasparenti e inclusivi, capaci di tradurre i principi astratti in requisiti verificabili per chi progetta, addestra e distribuisce sistemi di intelligenza artificiale.

Non dobbiamo pero cedere alla retorica secondo cui l’etica sarebbe qualcosa di separato dalla realta tecnica. La governance etica dell’IA deve essere innanzitutto integrata nei cicli di vita dei modelli: dalla raccolta dei dati fino alla validazione post lancio. Questo richiede strumenti concreti come metriche di rischio, audit indipendenti, controlli di escalation automatizzati, sensori di contesto e limiti di esposizione per popolazioni vulnerabili. Inutile dire che la tecnologia da sola non risolve questi problemi: serve un ecosistema di policy, standard condivisi, formazione continua e responsabilita legale chiara. La nomina di un ambasciatore etico e un passo verso questo ecosistema ma non puo essere l’unico. Serve una alleanza piu ampia tra governi, aziende, accademia e societa civile per costruire guardrail che siano piu robusti delle linee guida volontarie che finora hanno caratterizzato gran parte dell’autoregolamentazione del settore.

Questa dialettica tra innovazione e rischio e il nucleo della sfida del 2026. Stiamo vivendo un punto di svolta: i sistemi di intelligenza artificiale sono diventati cosi pervasive da influenzare decisioni critiche nelle vite delle persone. Non e piu possibile sostenere che la responsabilita di eventuali danni sia un tema solo per i legali o i filosofi. La responsabilita deve essere anteposta al rilascio di sistemi sul mercato. La nomina di Cristina Di Silvio e la sua attivita nel Global Council for Responsible AI rappresentano una reazione a questa realta, una presa di posizione che dice chiaramente che l’epoca della tecnologia priva di vincoli deve finire.

Il rischio di lasciare che sistemi potenti operino senza adeguata supervisione non e piu solo teorico come nei tempi delle prime conferenze sull’etica dell’IA. E reale, documentato e relativo a vite umane. Le conversazioni su come modellare e governare questi sistemi stanno uscendo dai circoli accademici e entrando nei tribunali, nei parlamenti e nelle agende dei policy maker globali. L’Europa, con i suoi tentativi di normare l’IA attraverso l’AI Act, sta cercando di tracciare una via che bilanci sviluppo e tutela. Ma la semplice esistenza di una regolamentazione non basta se non accompagnata da implementazione rigorosa, supervisione indipendente e sanzioni efficaci per chi viola i principi di sicurezza e rispetto delle persone.

Nell’epoca in cui l’IA puo influenzare stati d’animo, decisioni sanitarie e comportamenti a rischio, la leadership etica deve essere piu visibile e piu concreta della retorica delle buone intenzioni. La nomina di un ambasciatore etico non e un badge di virtuosita ma un impegno a tradurre l’etica in pratica, a costruire guardrail verificabili e a mettere sotto lente le interazioni piu delicate tra sistemi e utenti. Per l’Italia e Malta, e per la comunita internazionale, questa leadership non e un lusso teorico ma una necessaria protezione di chi piu facilmente puo essere influenzato, manipolato o ferito da sistemi progettati senza sufficiente consapevolezza dei rischi.

Nelle prossime fasi di implementazione di politiche e standard globali sull’IA, il contributo di figure come Cristina Di Silvio sara cruciale per spostare l’asse delle discussioni da semplici principi etici a regole operative, trasparenti, misurabili e applicabili su scala globale. La tecnologia avanza con una velocita senza precedenti ma la societa non puo permettersi di inseguirla. E tempo di governare l’intelligenza artificiale con responsabilita, coraggio e una chiara bussola morale.