Se pensavate che la radio fosse solo cuffie, mixer e un buon caffè bevuto al volo tra un notiziario e un jingle, oggi dovete aggiungere un nuovo ospite in studio: si chiama Intelligenza Artificiale e non è più una comparsa da convegno ma una presenza fissa nel palinsesto del futuro. Oggi, in occasione della Giornata Mondiale della Radio dedicata dall’UNESCO al tema Radio e Intelligenza Artificiale, la COPEAM (Conferenza Permanente dell’Audiovisivo Mediterraneo) accende i riflettori su un esperimento che non è fantascienza né semplice esercizio accademico. Il progetto Artificial Intelligence for Multilingual Radio Broadcasting, realizzato con il supporto dell’UNESCO e il contributo scientifico del CRITS della RAI e dell’Università Ca’ Foscari di Venezia, prova a rispondere alla domanda che rimbalza tra studi di registrazione e riunioni editoriali: l’AI ci ruberà il microfono o ci aiuterà a usarlo meglio? La risposta, almeno per ora, è meno cinematografica e più interessante. L’AI non ruba il microfono, ma chiede una sedia accanto al fonico.

La sperimentazione ha preso in esame un terreno tutt’altro che semplice, la serie in lingua araba Arab Philosophers Ancient and Contemporary, lanciata da COPEAM e ASBU, e ha testato l’integrazione dell’AI nei processi di trascrizione, traduzione e doppiaggio di contenuti culturali complessi. Filosofia, storia, lessico tecnico, variazioni dialettali. In pratica, l’equivalente radiofonico di una pista nera per algoritmi.

I numeri sono incoraggianti ma non miracolosi. La trascrizione automatica si è dimostrata affidabile tra il 75 e l’80 per cento, mentre la traduzione si è fermata tra il 60 e il 65 per cento. Percentuali che in una startup farebbero brindare, ma che in un’emittente di servizio pubblico impongono cautela. Perché quel 20 o 30 per cento di errore, in radio, non è un dettaglio tecnico. È un nome proprio sbagliato, una citazione storica deformata, un tono ironico trasformato in dichiarazione solenne.

Il progetto ha messo in chiaro un primo punto che farà sorridere chi lavora da anni in sala di registrazione. L’Intelligenza Artificiale è velocissima, ma non ama il rumore. Per ottenere un doppiaggio sintetico credibile occorre partire da file audio puliti, tracce vocali isolate, formati non compressi. La clonazione vocale analizza i primi secondi di parlato per mappare il timbro. Se quei secondi sono contaminati da musica o fruscii, il risultato finale produce artefatti, piccole distorsioni che trasformano una voce calda e autorevole in qualcosa di vagamente metallico. In altre parole, prima ancora dell’algoritmo, conta il vecchio e caro silenzio in studio.

Poi c’è la questione culturale, che nessun processore può risolvere da solo. L’arabo, pur essendo lingua di ampia diffusione, è sotto rappresentato nei dataset di addestramento e presenta una forte varietà dialettale. Quando un esperto egiziano usa un’espressione colloquiale per riferirsi con rispetto all’autore di cui parla, l’AI tende a tradurre letteralmente, trasformando un omaggio accademico in una riunione di famiglia. Quando compare un nome storico come Al Hakim, il sistema può scambiarlo per un sostantivo comune e restituire il governatore o il saggio, cancellando l’ancoraggio preciso alla figura fatimide. Non è ignoranza, è statistica applicata senza contesto.

Anche la punteggiatura diventa un campo minato. Il parlato radiofonico è fatto di pause, respiri, esitazioni strategiche. Lo speech to text, invece, ragiona per segmenti. Una pausa troppo lunga viene interpretata come fine frase e il punto inserito nel posto sbagliato spezza il pensiero. Il risultato è una traduzione coerente con la punteggiatura, ma incoerente con il senso. E così la personalità del conduttore, che vive di ritmo e sfumature, rischia di essere livellata da un algoritmo che ama le frasi ordinate più degli esseri umani.

Eppure sarebbe un errore fermarsi agli inciampi. Dal punto di vista organizzativo e produttivo, i benefici sono concreti. Per un episodio di circa trenta minuti, la trascrizione manuale può richiedere sei o sette ore. Con l’AI, la prima bozza arriva in pochi secondi e la revisione umana richiede in media una o due ore, che possono salire a tre in presenza di molto linguaggio colloquiale. La traduzione e la rifinitura stilistica aggiungono altre due o tre ore. In sintesi, l’intero processo di adattamento può essere completato in una giornata lavorativa di circa otto ore, contro tempi ben più lunghi in modalità esclusivamente manuale. L’AI pura si ferma a un livello di accuratezza intorno al 60 per cento, ma l’intervento umano sulla fonte e sulla traduzione può far salire la qualità fino all’80 per cento. È quel margine che separa un contenuto sperimentale da un prodotto editoriale pronto per la messa in onda.

Il messaggio che emerge dal lavoro congiunto di COPEAM, UNESCO, RAI CRITS e Ca’ Foscari è chiaro. L’introduzione dell’AI nei flussi di lavoro non può essere improvvisata. Richiede un processo strutturato, competenze interne, conoscenza sia della tecnologia sia del contesto applicativo. In particolare per i media di servizio pubblico, dove standard etici e normativi non sono un optional ma una condizione di esistenza.

In fondo la radio, mezzo antico e sorprendentemente resiliente, ha sempre saputo integrare la tecnologia senza perdere la propria anima. Ha attraversato l’epoca delle valvole, del transistor, del digitale, dello streaming. Ora dialoga con modelli linguistici e sistemi di sintesi vocale. L’Intelligenza Artificiale amplia la circolazione internazionale dei contenuti, favorisce la collaborazione tra emittenti e apre a nuovi pubblici anche per organizzazioni con risorse limitate. Ma non sostituisce la sensibilità editoriale, la competenza linguistica, la responsabilità culturale.

La radio del futuro parlerà sempre più lingue e lo farà più velocemente. La vera sfida non è tecnica ma editoriale. Accettare che la velocità sia un vantaggio solo se accompagnata da consapevolezza. Perché tra un algoritmo che traduce in pochi secondi e un professionista che ascolta, corregge e comprende, non c’è una competizione. C’è un’alleanza. E nella Giornata Mondiale della Radio 2026, il messaggio più moderno suona sorprendentemente tradizionale. L’Intelligenza Artificiale è un ottimo strumento. Il senso, per fortuna, resta umano.

Link alla serie di brevi video che documentano la sperimentazione: