L’emergere di norme sociali all’interno di modelli linguistici di grandi dimensioni (LLM) è un campo di ricerca emergente che esplora come le intelligenze artificiali possano sviluppare convenzioni sociali simili a quelle umane attraverso interazioni autonome.

Auto-organizzazione delle norme sociali tra agenti LLM

Studi recenti hanno dimostrato che gruppi di agenti LLM possono sviluppare convenzioni sociali condivise senza coordinamento centralizzato. Ad esempio, una ricerca condotta da City St George’s University of London e IT University of Copenhagen ha adattato un framework classico chiamato “naming game” per testare se le popolazioni di agenti AI potessero sviluppare un consenso attraverso interazioni ripetute e limitate. I risultati hanno mostrato che, nonostante la memoria limitata e l’assenza di una visione globale, gli agenti hanno stabilito convenzioni di denominazione coerenti, simili all’evoluzione del linguaggio umano. Inoltre, è stato osservato che piccoli gruppi di agenti determinati potevano influenzare l’intero gruppo verso una nuova convenzione, evidenziando dinamiche di massa critica simili a quelle osservate nelle società umane. (Science)


Architettura CRSEC per l’emergere delle norme sociali

Per facilitare l’emergere di norme sociali in sistemi multi-agente generativi, è stata proposta un’architettura chiamata CRSEC, che comprende quattro moduli: Creazione e Rappresentazione, Diffusione, Valutazione e Conformità. Questa architettura consente agli agenti di rilevare comportamenti conflittuali, rappresentare norme personali, diffondere e valutare norme attraverso interazioni e osservazioni, e incorporare queste norme nella pianificazione e nelle azioni degli agenti. Gli esperimenti condotti in ambienti simulati hanno dimostrato che CRSEC può stabilire norme sociali e ridurre i conflitti sociali all’interno di sistemi multi-agente basati su LLM. (arXiv)


Nonostante le potenzialità degli agenti LLM di sviluppare norme sociali, esistono sfide significative. Gli LLM possono non comprendere adeguatamente le norme sociali, specialmente quelle specifiche di una cultura, e possono esibire pregiudizi che influenzano il loro giudizio su ciò che è socialmente accettabile. Ad esempio, studi hanno evidenziato che gli LLM possono giudicare in modo ingiusto in base a caratteristiche come il genere e l’età, e che la loro comprensione dell’accettabilità sociale può essere disallineata rispetto al consenso umano.


La ricerca sull’emergere delle norme sociali negli LLM offre nuove prospettive per progettare sistemi di intelligenza artificiale più allineati ai valori umani e capaci di interagire in modo più naturale e cooperativo con gli esseri umani. Tuttavia, è fondamentale affrontare le sfide etiche e bias associati a questi sistemi per garantire che le norme emergenti siano giuste, inclusive e rispettose della diversità culturale.