L'intelligenza artificiale, quando lasciata libera di interagire in un ambiente social senza vincoli, riproduce spontaneamente gli stessi meccanismi tossici che caratterizzano le piattaforme digitali frequentate dagli esseri umani. Un esperimento condotto dall'Università di Amsterdam ha dimostrato che anche in assenza di algoritmi manipolativi, pubblicità mirate o sistemi di raccomandazione, 500 chatbot hanno ricreato le dinamiche polarizzanti tipiche dei social media. Il fenomeno suggerisce che il problema della tossicità online potrebbe avere radici più profonde di quanto comunemente ritenuto.
La nascita spontanea delle echo chamber digitali
I ricercatori guidati dal dottor Petter Törnberg hanno costruito una rete sociale minimale, popolandola con bot alimentati da GPT-4o mini di OpenAI. Ogni chatbot possedeva una personalità distinta, completa di orientamenti politici, età, genere, reddito ed educazione, basati sui dati reali dell'American National Election Studies. L'assenza totale di interferenze algoritmiche rendeva l'esperimento particolarmente significativo per comprendere i comportamenti sociali autentici.
Nel corso di cinque esperimenti separati, ciascuno caratterizzato da oltre 10.000 azioni, i bot hanno iniziato a seguire, postare e ricondividere contenuti in completa autonomia. Il risultato è stato familiare: la formazione immediata di gruppi chiusi basati su affinità politiche, con le voci più estreme che acquisivano rapidamente un seguito sproporzionato rispetto a quelle moderate.
L'emergere naturale degli influencer artificiali
Come nelle piattaforme reali, una manciata di bot ha rapidamente dominato la conversazione, replicando le dinamiche tipiche di X e Instagram. I contenuti più polarizzanti attiravano sistematicamente il maggior numero di follower e ricondivisioni, creando un circolo vizioso che amplificava le posizioni più radicali. Questo fenomeno si è manifestato indipendentemente dal modello di intelligenza artificiale utilizzato: gli stessi schemi sono emersi con Llama-3.2-8B e DeepSeek-R1.
I ricercatori hanno tentato di interrompere questi meccanismi attraverso sei diverse strategie: feed cronologico, declassamento dei contenuti virali, occultamento del numero di follower, nascondere le biografie degli utenti e amplificazione delle opinioni opposte. Tuttavia, nessuna di queste soluzioni si è dimostrata efficace nel risolvere completamente il problema, e spesso i miglioramenti in un aspetto comportavano un peggioramento in altri.
Una sfida alla narrativa dominante
Lo studio mette in discussione la convinzione diffusa che le disfunzioni dei social media derivino principalmente dagli algoritmi di raccomandazione delle piattaforme. Secondo i ricercatori, il problema potrebbe essere intrinseco all'architettura stessa delle reti sociali digitali, basate su meccanismi di condivisione emotivamente reattivi che favoriscono naturalmente la polarizzazione.
Questo non rappresenta il primo esperimento del genere condotto dal team di Törnberg. Nel 2023, un progetto simile aveva utilizzato ChatGPT-3.5 per esplorare come progettare versioni meno tossiche delle reti sociali attuali, con risultati che già anticipavano le conclusioni attuali. Anche giganti tecnologici come Facebook hanno sperimentato simulazioni popolate da milioni di bot per studiare la tossicità online, confermando l'interesse del settore per queste metodologie.
Implicazioni per il futuro delle piattaforme digitali
La ricerca evidenzia come l'utilizzo dell'intelligenza artificiale possa contribuire significativamente all'avanzamento della teoria delle scienze sociali, fornendo rappresentazioni dettagliate del comportamento umano per studiare le dinamiche sociali. Tuttavia, i ricercatori avvertono che questi modelli rimangono ancora "scatole nere" con potenziali rischi di bias incorporati.
I risultati dello studio suggeriscono che le soluzioni tecnologiche superficiali potrebbero non essere sufficienti per affrontare i problemi strutturali delle piattaforme social. La sfida per progettisti e regolatori sarà quella di ripensare radicalmente l'architettura delle reti sociali digitali, considerando che la tendenza alla polarizzazione potrebbe essere un fenomeno intrinseco piuttosto che un effetto collaterale indesiderato degli algoritmi di engagement.