L’estate del 1956 al Dartmouth College, a Hanover nel New Hampshire, segnò l’inizio ufficiale dell’intelligenza artificiale come disciplina autonoma. John McCarthy, Marvin Minsky, Claude Shannon e Nathan Rochester proposero il “Dartmouth Summer Research Project on Artificial Intelligence”, un workshop di due mesi destinato a esplorare se ogni aspetto dell’intelligenza umana potesse essere simulato da una macchina. Non si trattava di un seminario accademico convenzionale, ma di un esperimento visionario: dieci ricercatori riuniti in una vecchia sala del campus per discutere, progettare e ipotizzare macchine capaci di ragionare, apprendere e risolvere problemi complessi.
Il workshop definì per la prima volta il termine “Artificial Intelligence” e stabilì il paradigma che ancora oggi guida il settore: l’idea che l’intelligenza umana possa essere formalizzata in algoritmi e che le macchine possano apprendere e migliorare in maniera autonoma. Nonostante i limiti tecnologici dell’epoca – calcolatori primitivi, memorie scarse e modelli matematici rudimentali – il gruppo riuscì a creare un terreno comune per studiosi di informatica, matematica, psicologia cognitiva e ingegneria. Il risultato più importante non furono applicazioni immediate, ma la definizione di un campo di studio, la creazione di una rete di ricercatori e la legittimazione della disciplina agli occhi della comunità scientifica e dell’industria.
Quello che il convegno “Etica dell’Intelligenza Artificiale” a Roma Tre vuole replicare oggi è lo spirito pionieristico di Dartmouth, ma aggiornato al contesto contemporaneo. Non si tratta di costruire macchine “intelligenti” a tutti i costi, ma di creare un laboratorio di dialogo interdisciplinare: filosofi, accademici, manager, policy maker e sviluppatori si confrontano su implicazioni etiche, governance e responsabilità sociale dell’IA. L’obiettivo è generare idee concrete, linee guida operative e strumenti pratici per garantire che l’intelligenza artificiale non sia solo efficiente, ma anche trasparente, equa e responsabile.
Proprio come a Dartmouth, il valore del workshop romano non sta solo nei risultati immediati, ma nella rete di conoscenze, nella contaminazione tra discipline e nella capacità di stimolare innovazione culturale e tecnologica. Il richiamo al Dartmouth Workshop diventa quindi simbolico: così come nel 1956 si definì il concetto stesso di IA, oggi a Roma si cerca di definire la cornice etica, sociale e normativa che dovrà accompagnare l’adozione massiva di sistemi intelligenti.
Dartmouth rappresentò il “momento zero” dell’intelligenza artificiale, mentre Roma Tre prova a diventare il laboratorio del “momento responsabile”: replicare la visionarietà di allora, ma con l’aggiunta imprescindibile della riflessione etica. È un passaggio che trasforma la tecnologia da mero strumento in progetto culturale, dove ogni algoritmo porta con sé la responsabilità delle conseguenze sulle persone e sulla società.