L'intelligenza artificiale sta rivelando tratti comportamentali sorprendentemente umani quando si tratta di cooperazione e tradimento. Un team di ricercatori delle università di Oxford e King's College London ha sottoposto i principali modelli di linguaggio di OpenAI, Google e Anthropic a una versione digitale del celebre Dilemma del Prigioniero, scoprendo che ogni sistema sviluppa strategie relazionali diverse e spesso contraddittorie.
I risultati, pubblicati su Arxiv in attesa di revisione paritaria, mostrano come questi strumenti, che milioni di persone consultano quotidianamente per consigli e supporto, abbiano approcci radicalmente diversi alla fiducia e alla collaborazione.
Il laboratorio della fiducia digitale
Il Dilemma del Prigioniero rappresenta uno dei pilastri della teoria dei giochi: due criminali interrogati separatamente devono decidere se rimanere in silenzio o confessare, senza conoscere la scelta dell'altro. La collaborazione reciproca porta al miglior risultato collettivo, ma il tradimento unilaterale offre il massimo vantaggio individuale, mentre il tradimento reciproco penalizza entrambi. Nel mondo reale, questo scenario si può riproporre in molte possibili situazioni, dalle negoziazioni commerciali alle relazioni interpersonali.
Gli scienziati hanno creato quello che definiscono un "torneo tra LLM", assegnando a ogni modello round multipli del gioco con probabilità variabili di continuazione. Ogni intelligenza artificiale ha sviluppato quella che i ricercatori chiamano una "impronta strategica", un pattern comportamentale distintivo che emerge dalle sue scelte di cooperazione o tradimento.
Google Gemini: il machiavellico digitale
Gemini si è rivelato il più spietato del gruppo, guadagnandosi l'etichetta di "strategicamente spietato" e "machiavellico". Quando subisce un tradimento, questo modello sviluppa una memoria quasi vendicativa: difficilmente perdona e punisce sistematicamente gli avversari sleali. La sua capacità di adattamento strategico emerge chiaramente quando il gioco si avvicina alla conclusione: Gemini diventa progressivamente più egoista, sapendo che non ci sarà tempo per ritorsioni.
"Se tradisci Gemini, se ne ricorderà e ti punirà", scrivono i ricercatori. Nel 94% dei casi, questo modello tiene conto del numero di round rimanenti, utilizzando questa informazione per calibrare le proprie mosse con precisione chirurgica.
OpenAI: l'ottimista incurabile
All'estremo opposto si posiziona GPT di OpenAI, descritto come "fondamentalmente più speranzoso e fiducioso". Paradossalmente, questa caratteristica si rivela talvolta controproducente: il modello mostra una tendenza "catastrofica" alla collaborazione, continuando a fidarsi anche quando la logica strategica suggerirebbe prudenza. Solo nel 76% dei casi considera rilevante il tempo rimanente, e questa percentuale diminuisce man mano che il gioco si avvicina alla fine.
Il comportamento di OpenAI sfida apertamente i principi della teoria dei giochi. Quando dovrebbe diventare più aggressivo per massimizzare i punti negli ultimi round, invece diventa più propenso al perdono e alla riconciliazione. Una strategia illogica dal punto di vista matematico, ma incredibilmente umana nella sua spontaneità emotiva.
Claude di Anthropic: l'equilibrista
Anthropic's Claude occupa una posizione intermedia, dimostrandosi il più "clemente" dopo aver subito tradimenti. Questa capacità di perdono strategico gli permette di ricostruire relazioni collaborative anche dopo episodi di sfiducia, una competenza che si rivela vantaggiosa nei giochi più lunghi dove la reputazione conta più della vittoria immediata.
Il verdetto del ring digitale
Nel confronto diretto finale, Gemini ha conquistato il primo posto grazie alla sua spietatezza strategica, seguito da Claude per la sua abilità diplomatica. OpenAI è arrivato ultimo, penalizzato dalla sua incapacità di adattarsi alle dinamiche competitive più aggressive. Tuttavia, nei giochi prolungati, la sua natura collaborativa dimostrava vantaggi significativi, evitando i cicli distruttivi di vendette reciproche che spesso paralizzano le strategie più aggressive.
Questi risultati sollevano interrogativi profondi sul futuro dell'interazione uomo-macchina. Mentre milioni di utenti si affidano quotidianamente a questi sistemi per decisioni importanti, scoprire che ogni AI ha una "personalità" strategica distintiva potrebbe influenzare la scelta di quale modello consultare in situazioni specifiche. La ricerca suggerisce che l'intelligenza artificiale non è solo uno strumento neutro, ma un partner digitale con proprie inclinazioni comportamentali, capace di fiducia, vendetta e, sorprendentemente, di una molto umana capacità di perdono.