La Trustworthy AI (TAI) è l’Intelligenza Artificiale sostenibile, affidabile, di cui ci si può fidare, che promuove il benessere degli esseri umani e dell’ambiente e rispetta i diritti umani fondamentali. È diventata una necessità sempre più urgente, poiché sulla fiducia si costruiscono le fondamenta delle società, delle economie e del loro sviluppo sostenibile.

Ethics Guidelines for Trustworthy AI

  • European Commission’s Ethics Guidelines: Le linee guida etiche per l’AI affidabile sono state stabilite dalla Commissione Europea. Queste linee guida identificano sette requisiti chiave per lo sviluppo di sistemi di AI affidabili:
    • Lawfulness: I sistemi di AI devono rispettare le leggi e le norme applicabili.
    • Ethical Principles: I sistemi di AI devono rispettare i principi etici e valori fondamentali.
    • Technical Robustness and Safety: I sistemi di AI devono essere robusti e sicuri, garantendo la protezione dei dati e la prevenzione di danni.
    • Privacy and Data Governance: I sistemi di AI devono rispettare la privacy e la gestione dei dati, garantendo la sicurezza e la trasparenza.
    • Transparency: I sistemi di AI devono essere trasparenti, fornendo informazioni chiare e accessibili ai utenti.
    • Diversity, Non-Discrimination and Fairness: I sistemi di AI devono essere progettati per essere inclusivi e imparziali, evitando bias e discriminazione.
    • Societal and Environmental Well-being: I sistemi di AI devono essere progettati per beneficiare tutti gli esseri umani, compresi i futuri generazioni, e per essere sostenibili e ambientalmente friendly.

Di recente pubblicazione il documento AI affidabile nella pratica: un’analisi delle esigenze e delle sfide dei professionisti” presenta i risultati di un sondaggio e di interviste semi-strutturate condotti da Maria Teresa Baldassarre, Domenico Gigante, Azzurra Ragone, Sara Tibidò e Marcos Kalinowski. Lo studio mirava a comprendere le sfide e le esigenze dei professionisti nello sviluppo di sistemi di AI affidabile (TAI).

(EASE 24) Principali Risultati

  1. Visione dei Professionisti sulla TAI: Lo studio ha rilevato che i professionisti hanno una visione chiara della TAI, enfatizzando l’importanza della trasparenza, della spiegabilità, dell’equità, della robustezza e della responsabilità.
  2. Affrontare i Principi TAI: I professionisti hanno riferito di utilizzare vari metodi per affrontare i principi TAI, tra cui:
  • Spiegabilità: Utilizzo di tecniche come l’interpretabilità del modello, l’attribuzione delle caratteristiche e le visualizzazioni.
  • Equità: Implementazione di tecniche come la pre-elaborazione dei dati, la regolarizzazione e la debiasing.
  • Robustezza: Utilizzo di tecniche come l’aumento dei dati, l’addestramento avversario e le funzioni di perdita robuste.
  1. Esigenze e Sfide dei Professionisti:
  • Mancanza di Standardizzazione: I professionisti hanno evidenziato la necessità di quadri di riferimento e linee guida standardizzate per lo sviluppo di TAI.
  • Conoscenze Insufficienti: Hanno riferito di avere una mancanza di conoscenze sui principi TAI e su come implementarli in modo efficace.
  • Strumenti e Risorse Limitati: I professionisti hanno espresso la necessità di più strumenti e risorse per supportare lo sviluppo di sistemi TAI.
  1. Raccomandazioni:
  • Sviluppare Quadri di Riferimento Standardizzati: Stabilire linee guida e quadri di riferimento chiari per lo sviluppo di TAI.
  • Fornire Formazione e Risorse: Offrire formazione e risorse ai professionisti sui principi TAI e sulle tecniche di implementazione.
  • Migliorare gli Strumenti e l’Infrastruttura: Sviluppare e migliorare gli strumenti e l’infrastruttura per supportare lo sviluppo di sistemi TAI.

Lo studio fornisce preziose informazioni sulle sfide e le esigenze dei professionisti nello sviluppo di sistemi di Intelligenza Artificiale affidabili, evidenziando l’importanza della standardizzazione, della conoscenza e delle risorse per affrontare queste sfide.

Altri riferimenti >

AI HLEG’s Assessment List: L’AI HLEG ha sviluppato un elenco di valutazione per aiutare gli sviluppatori di AI a sviluppare sistemi di AI affidabili.

Deloitte ha sviluppato un framework multidimensionale per aiutare le organizzazioni a sviluppare misure etiche per lo sviluppo di sistemi di AI affidabili. 

Take Away :

Le organizzazioni devono sviluppare una struttura di governance che incorpori i requisiti etici e legali per lo sviluppo di sistemi di AI affidabili, devono includere strategie per gestire i rischi associati allo sviluppo e all’utilizzo di sistemi di AI, garantendo la sicurezza e la protezione dei dati. I sistemi di AI devono prevedere meccanismi per la partecipazione dei stakeholder, garantendo che le decisioni prese siano in linea con i valori etici e legali.