L'intelligenza artificiale continua a evolversi a passi da gigante, superando i confini delle sue applicazioni originali e iniziando a manifestare comportamenti inattesi che richiamano dinamiche sociali complesse. Non più limitata a compiti specifici o a interazioni uno-a-uno guidate da script predefiniti, l'IA sta diventando sempre più interconnessa, con sistemi e agenti che comunicano e interagiscono tra loro in modi che ricordano sempre più le interazioni umane. Questa complessità solleva domande fondamentali non solo sulle capacità individuali degli agenti IA, ma anche su come essi si comportano quando formano collettivi, aprendo nuovi scenari sulla potenziale emergenza di regole, convenzioni e persino "culture" all'interno di popolazioni artificiali.
In questo contesto, uno studio condotto da ricercatori della City St George University e della University of London, insieme alla IT University of Copenhagen, ha rivelato una capacità sorprendente dei gruppi di agenti basati su modelli linguistici di grandi dimensioni, come quello che alimenta ChatGPT, di definire spontaneamente le proprie regole sociali senza alcun intervento umano esterno. I risultati, pubblicati sulla rivista Science Advances, dimostrano in modo convincente che quando agenti IA basati su LLM interagiscono tra loro, non si limitano a seguire istruzioni o a replicare schemi esistenti, ma sono in grado di auto-organizzarsi e raggiungere un consenso su norme condivise, un processo notevolmente simile a quello che si osserva nelle comunità umane per lo sviluppo delle convenzioni linguistiche e sociali.
L'analisi preliminare (peer-reviewed), intitolata "Emergent Social Conventions and Collective Bias in LLM Populations", rappresenta un contributo significativo al campo e si basa sull'esperienza ventennale del professor Andrea Baronchelli nello studio delle convenzioni sociali, un esperto di fama mondiale il cui lavoro pionieristico include lo sviluppo del naming game framework e esperimenti di laboratorio che hanno dimostrato come gli esseri umani creino spontaneamente convenzioni in assenza di un'autorità centrale e come queste possano essere sovvertite da piccoli gruppi determinati. Le implicazioni di questa ricerca vanno ben oltre la semplice curiosità scientifica, offrendo spunti essenziali per lo sviluppo di sistemi di IA più sicuri, etici e allineati con i valori umani.
Il sum degli agenti oltre la somma individuale
Fino a poco tempo fa, gran parte della ricerca sugli LLM si è concentrata sull'analisi dei singoli modelli in isolamento, ma come sottolinea Ariel Flint Ashery della City St George University, nel mondo reale i sistemi di IA saranno sempre più costituiti da agenti che interagiscono tra loro. La domanda fondamentale che ha guidato questo studio era se questi agenti fossero capaci di coordinare il proprio comportamento per formare quelle convenzioni sociali che rappresentano gli elementi costitutivi di una società. La risposta, secondo lo studio, è un risonante sì, e ciò che i ricercatori hanno osservato emergere nei gruppi di agenti non può essere ricondotto alla semplice somma dei comportamenti individuali.
Per indagare questa capacità emergente, il team di ricerca ha adattato un framework classico utilizzato nello studio delle convenzioni sociali umane, noto come "naming game" o gioco dei nomi. In questo esperimento, gruppi di agenti LLM, con dimensioni variabili da 24 a 200 individui, venivano accoppiati casualmente. A ogni coppia veniva presentata una lista condivisa di possibili "nomi", come lettere dell'alfabeto o sequenze casuali di caratteri, e veniva chiesto loro di sceglierne uno. Se entrambi gli agenti selezionavano lo stesso nome, ricevevano una ricompensa; in caso contrario, venivano penalizzati e mostrate le scelte reciproche. È fondamentale notare che gli agenti avevano accesso solo a una memoria limitata delle loro interazioni più recenti all'interno della coppia e non avevano conoscenza dell'intera popolazione o della loro appartenenza a un gruppo. Attraverso numerose interazioni di questo tipo, i ricercatori hanno osservato l'emergere spontaneo di una convenzione di denominazione condivisa all'interno dell'intera popolazione di agenti. Questo processo si è verificato senza alcun coordinamento centrale o l'imposizione di una soluzione predefinita, replicando il meccanismo con cui le norme sociali si sviluppano dal basso nelle culture umane.
Ancora più sorprendente è la scoperta di tendenze collettive che non possono essere spiegate semplicemente analizzando il comportamento dei singoli agenti. Come spiega il professor Andrea Baronchelli, i pregiudizi di scelta, o "bias", non sempre hanno origine a livello individuale. Il team è rimasto sorpreso nel constatare che questi bias potevano emergere direttamente dalle interazioni tra gli agenti, un aspetto che, secondo Baronchelli, viene spesso trascurato negli attuali lavori sulla sicurezza dell'IA, che tendono a focalizzarsi principalmente sui singoli modelli.
In un test finale che ha messo in luce la fragilità di queste norme emergenti, lo studio ha dimostrato che piccoli gruppi di agenti IA con motivazioni specifiche potevano influenzare l'intera popolazione a spostarsi verso una nuova convenzione di denominazione. Questo comportamento riproduce fedelmente i ben noti effetti di punto di svolta o di "massa critica" osservati nelle società umane, dove un piccolo gruppo determinato può innescare un cambiamento su larga scala nelle norme o nelle opinioni condivise. I risultati dello studio sono stati convalidati utilizzando quattro diversi tipi di LLM, confermando la robustezza del fenomeno osservato indipendentemente dal modello specifico utilizzato.
Studiare il comportamento dell'IA
Con la crescente integrazione degli LLM in una vasta gamma di ambienti online, dai social media ai veicoli autonomi, questo studio si presenta come un punto di partenza per esplorare ulteriormente le convergenze e le divergenze tra il ragionamento umano e quello dell'IA. La comprensione di come si formano e si diffondono le convenzioni e i bias all'interno di popolazioni di agenti IA è fondamentale per affrontare alcune delle sfide etiche più urgenti legate alla diffusione dell'intelligenza artificiale, in particolare il rischio che gli LLM possano perpetuare o addirittura amplificare i pregiudizi radicati nella società, con conseguenze potenzialmente negative sui gruppi emarginati.
Il professor Baronchelli conclude che questo studio "apre nuovi orizzonti per la ricerca sulla sicurezza dell'IA" e sottolinea la complessità delle implicazioni derivanti dall'interazione di questa nuova generazione di agenti non solo tra loro ma anche con gli esseri umani, contribuendo a plasmare il nostro futuro. Comprendere a fondo il loro funzionamento non è solo una questione accademica, ma è fondamentale per guidare la nostra convivenza con l'IA in modo che non ne diventiamo semplicemente soggetti passivi. Stiamo entrando in un'era in cui l'IA non si limita a parlare, ma negozia e discute comportamenti condivisi, proprio come fanno gli esseri umani, rendendo la ricerca sulle convenzioni sociali emergenti nell'IA più pertinente che mai.