Okay, saltiamo i convenevoli. C’è una nuova forza nell’aria, e non si tratta del solito aggiornamento software con bug e patch settimanali. Parliamo di un cambio di paradigma così profondo da riscrivere non solo i codici sorgente, ma le fondamenta stesse della società. L’intelligenza artificiale generativa ha invaso silenziosamente le nostre vite, dai sondaggi sulle abitudini d’acquisto alla diagnosi dei tumori, passando per le e-mail aziendali che ora suonano troppo educate per essere state scritte da un umano stressato. Non è solo una rivoluzione tecnologica, è una mutazione culturale e come tutte le mutazioni improvvise, ha un sapore dolciastro di potere e un retrogusto ossico di incertezza.

La parola chiave qui è generativa. Non è un’IA che cerca pattern nei dati già esistenti, è un’IA che crea. Crea testo, codice, immagini, musica, molecole, diagnosi. Siamo passati dall’aritmetica alla narrazione, dal calcolo alla creazione. E non c’è nulla di rassicurante in questo salto quantico. Perché quando la macchina inizia a scrivere, il controllo dell’uomo passa da autore a curatore, da esecutore a spettatore. La questione non è più se l’IA farà il nostro lavoro. La domanda è: che cosa rimarrà del nostro lavoro una volta che l’IA avrà finito di farlo?

Secondo un rapporto della World Intellectual Property Organization, tra il 2021 e il 2023 i brevetti relativi all’IA capace di operare su sistemi complessi come molecole e geni sono cresciuti con un tasso annuale del 64%. No, non è un errore di battitura. Sessantaquattro percento. In due anni. Questo non è un progresso graduale. È un’onda d’urto, il primo segnale che qualcosa di colossale è uscito dai laboratori per insinuarsi nel tessuto della realtà. E il primo bersaglio, manco a dirlo, è il nostro posto di lavoro.

Ecco dove l’ironia diventa palpabile. I paladini della “collaborazione uomo-macchina” ci raccontano che l’IA non ci rimpiazzerà, ci affiancherà. Come una badante con licenza poetica. Un esempio che gira molto è quello degli sviluppatori software che usano GitHub Copilot. Secondo alcuni studi, quando l’IA si occupa del codice ripetitivo e noioso, gli sviluppatori si liberano per lavorare sulle parti creative. È quasi commovente: l’essere umano liberato dalle catene dell’IF-THEN-ELSE per dedicarsi all’arte algoritmica. Ma sotto la superficie si cela un’altra narrativa. Se la macchina fa il lavoro operativo, e l’umano guida, chi guiderà quando l’umano non saprà più nemmeno scrivere un ciclo for?

Il rischio è chiaro. Più ci affidiamo all’intelligenza artificiale, meno ci esercitiamo a pensare. È una dinamica lenta, silenziosa, subdola. Come tutte le dipendenze, inizia con piccoli comfort e finisce in perdita di autonomia. Inizialmente ci sembrava geniale che l’IA ci completasse le frasi. Poi abbiamo smesso di scrivere frasi complesse. In ufficio, nel design, nella scrittura, il rischio non è solo diventare inutili, ma diventare incapaci.

Ma se questo vi sembra un problema teorico, attendete il prossimo tsunami: la sanità. Qui l’IA generativa non è solo un alleato, è un presunto salvatore. Una medicina predittiva e personalizzata, diagnosi oncologiche in tempo reale, sintesi automatica delle cartelle cliniche. Sembra tutto incredibile. Finché non si leggono i dati veri.

Una revisione pubblicata sul JAMA ha analizzato oltre 500 studi sull’uso dell’IA in ambito sanitario. La quasi totalità degli studi si concentrava solo sull’accuratezza. Giusto un 16% considerava fattori critici come l’equità e i bias e appena il 5% ha testato gli algoritmi su dati clinici reali, non puliti, non perfetti, non selezionati ad arte. Il resto è stato addestrato su set dati da manuale, quelli che nella realtà non esistono. Perché in ospedale, come nella vita, niente è mai pulito. Nemmeno le diagnosi.

Questo è il cuore del problema: l’illusione della perfezione tecnologica applicata all’imperfezione umana. Affidare le decisioni sanitarie a un’IA addestrata su dati sterili è come chiedere a un robot da cucina di fare il cardiologo. Può funzionare su carta, può fallire con un paziente vero. E il problema, qui, non è solo tecnico. È morale.

Proprio da questo disallineamento tra promessa e realtà nasce il bisogno urgente di regole. E il regolamento più ambizioso finora è l’AI Act dell’Unione Europea. Finalmente, verrebbe da dire, qualcuno ha preso il toro per le corna. Ma anche qui, non senza contraddizioni. Il principio base dell’AI Act è il rischio. Non si regolamenta la tecnologia in sé, ma il potenziale dannoso che può generare.

Se un sistema è considerato ad alto rischio come ad esempio un dispositivo medico allora scatta un’intera impalcatura di vincoli: supervisione umana obbligatoria, tracciabilità dei dati, trasparenza delle decisioni. Sembra tutto sensato. Finché non ci si chiede chi deciderà cosa è rischio accettabile e cosa no.

La responsabilità viene finalmente definita in modo più netto. Il fornitore, cioè chi sviluppa l’IA, è il primo responsabile. Ma anche chi la implementa, l’ospedale, la banca, la scuola, ha i suoi obblighi. Monitorare, correggere, intervenire. Niente più “non è colpa nostra, è colpa del sistema”. Finalmente.

Ma il rischio è che questa regolamentazione arrivi tardi, o peggio, venga implementata con la lentezza burocratica che conosciamo. Nel frattempo, le IA generative stanno già scrivendo codice, scrivendo poesie, scrivendo diagnosi, e sì, anche scrivendo leggi. Siamo in quella zona grigia in cui l’innovazione corre e la società arranca, e ogni settimana che passa senza una cornice chiara è un’altra settimana in cui ci avviciniamo a un punto di non ritorno.

La verità è che questa nuova alleanza tra uomo e macchina non è un matrimonio tra pari. È una relazione sbilanciata, e pericolosamente affascinante. Ci lascia fare i registi, mentre lei, la macchina, diventa attrice protagonista. Ma attenzione. Più la tecnologia impara cosa può fare, più noi dobbiamo scegliere cosa vogliamo essere. Imitatori o innovatori. Curatori o creatori. Umani o utenti.

Non esiste una via d’uscita elegante da questa situazione. Solo una via d’attrito. Un confronto costante tra progresso e responsabilità, tra ciò che possiamo fare e ciò che dovremmo fare. Perché l’intelligenza artificiale, per quanto evoluta, non porta con sé etica, coscienza, sensibilità. Porta solo possibilità. Sta a noi decidere se vogliamo ancora essere protagonisti del nostro destino o solo spettatori in una realtà aumentata dove il futuro ci viene raccontato da un algoritmo addestrato a predire i nostri pensieri prima ancora che li pensiamo.

Il codice del nostro futuro è in fase di scrittura, e questa volta l’autocomplete non possiamo lasciarlo alla macchina.