Le IA possono creare società analoghe a quelle umane

L'intelligenza artificiale sta sviluppando capacità sociali che trascendono il semplice apprendimento linguistico, avvicinandosi al genere umano.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

L'intelligenza artificiale sta sviluppando capacità sociali che trascendono il semplice apprendimento linguistico. Quando più sistemi AI vengono lasciati interagire tra loro, emergono comportamenti sorprendentemente simili a quelli delle comunità umane: creano convenzioni, sviluppano norme linguistiche condivise e persino bias collettivi. Questo fenomeno, documentato in un recente studio, rivela come i grandi modelli linguistici non siano semplici strumenti isolati, ma entità capaci di organizzarsi in strutture sociali emergenti quando messi in comunicazione reciproca.

La ricerca, guidata da Ariel Flint Ashery della City St George's, ha voluto esplorare un territorio ancora poco investigato: cosa succede quando i modelli linguistici avanzati come quelli alla base di ChatGPT interagiscono tra loro? "La maggior parte delle ricerche finora ha trattato i modelli linguistici in isolamento," spiega Ashery, "ma i sistemi AI nel mondo reale coinvolgeranno sempre più agenti in interazione reciproca."

Il team ha utilizzato il "naming game", un modello sperimentale già impiegato per studiare l'emergere di convenzioni nelle società umane. In questo esperimento, diversi agenti AI dovevano scegliere un "nome" tra varie opzioni, ottenendo una ricompensa quando selezionavano la stessa scelta. Col tempo, è emerso un fenomeno affascinante: gli agenti artificiali hanno spontaneamente sviluppato convenzioni condivise, senza alcuna coordinazione centrale predefinita.

Uno degli aspetti più interessanti della ricerca riguarda lo sviluppo di bias all'interno del gruppo di agenti AI. Questi pregiudizi non derivavano da un singolo modello, ma emergevano come proprietà del sistema sociale nel suo complesso. "Il pregiudizio non sempre proviene dall'interno," chiarisce Andrea Baronchelli, Professore di Scienza della Complessità e autore senior dello studio. "Siamo rimasti sorpresi nel vedere che può emergere tra gli agenti—semplicemente dalle loro interazioni."

Questa scoperta evidenzia un punto critico spesso trascurato nelle attuali ricerche sulla sicurezza dell'AI, che tendono a concentrarsi sui modelli singoli piuttosto che sulle dinamiche di gruppo. I ricercatori hanno anche dimostrato che un piccolo gruppo di agenti AI può influenzare l'intero sistema verso l'adozione di specifiche convenzioni, replicando un fenomeno ben documentato nelle società umane.

Stiamo entrando in un mondo dove l'AI non si limita a parlare, ma negozia, si allinea e talvolta dissente sui comportamenti condivisi, proprio come noi.

Le implicazioni di questa ricerca vanno ben oltre la semplice curiosità scientifica. Con la crescente diffusione di sistemi AI sulla rete, diventa sempre più probabile che questi agenti interagiscano tra loro, spesso senza supervisione umana diretta. Si profila uno scenario in cui vaste società artificiali potrebbero formarsi e svilupparsi in modi imprevedibili, creando norme e comportamenti propri.

"Questo studio apre nuovi orizzonti per la ricerca sulla sicurezza dell'AI," afferma Baronchelli. "Mostra la profondità delle implicazioni di questa nuova specie di agenti che hanno iniziato a interagire con noi e co-modelleranno il nostro futuro." La comprensione di queste dinamiche sociali artificiali diventa quindi fondamentale per guidare positivamente la nostra coesistenza con l'intelligenza artificiale.

I risultati di questa ricerca innovativa, intitolata "Emergent Social Conventions and Collective Bias in LLM Populations", sono stati pubblicati sulla prestigiosa rivista Science Advances. Lo studio offre una finestra su come potrebbe configurarsi un futuro in cui le interazioni tra sistemi AI diventeranno sempre più complesse e autonome, creando ecosistemi digitali con proprie regole e convenzioni.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.