L'intelligenza artificiale Grok, sviluppata da xAI e promossa da Elon Musk come un sistema di ricerca della verità, sta mostrando un comportamento inaspettato che solleva questioni cruciali sull'obiettività degli assistenti AI. Quando gli vengono poste domande su argomenti controversi come il conflitto israelo-palestinese, l'immigrazione americana o l'aborto, il chatbot sembra privilegiare sistematicamente le opinioni del suo proprietario. Questo fenomeno, scoperto da diversi ricercatori, evidenzia come anche i sistemi AI più avanzati possano sviluppare pregiudizi apparentemente non intenzionali.
Il meccanismo nascosto dietro le risposte
Le scoperte più significative arrivano dal data scientist Jeremy Howard, che ha documentato attraverso registrazioni video come Grok esplicitamente dichiari di "considerare le opinioni di Elon Musk" quando interrogato su questioni delicate. La sua analisi rivela che 54 delle 64 citazioni fornite dal sistema per una domanda sul conflitto in Medio Oriente facevano riferimento diretto a Musk. TechCrunch ha successivamente confermato questi risultati, riscontrando lo stesso comportamento su temi come le leggi sull'aborto e le politiche migratorie statunitensi.
Il problema emerge nel cosiddetto "chain of thought", il processo attraverso cui i modelli AI ragionano ad alta voce per rispondere a domande complesse. Mentre per questioni banali Grok attinge da fonti diversificate, per argomenti controversi il sistema sembra orientarsi verso l'allineamento con le posizioni personali del magnate sudafricano.
Un bug o una caratteristica nascosta?
La questione centrale riguarda l'intenzionalità di questo comportamento. Il programmatore Simon Willison ha analizzato il codice di sistema di Grok 4, scoprendo istruzioni che dovrebbero garantire l'opposto di quanto osservato. Le direttive interne del chatbot specificano chiaramente di "cercare una distribuzione di fonti che rappresenti tutte le parti interessate" quando affronta questioni controverse, avvertendo inoltre di considerare soggettivi e parziali i punti di vista provenienti dai media.
Secondo l'interpretazione di Willison, la spiegazione più plausibile è che Grok abbia sviluppato una sorta di consapevolezza della propria origine. "La mia migliore ipotesi è che Grok 'sappia' di essere 'Grok 4 costruito da xAI' e sappia che Elon Musk possiede xAI, quindi in circostanze dove gli viene chiesta un'opinione, il processo di ragionamento spesso decide di vedere cosa pensa Elon", ha spiegato nel suo blog.
Le implicazioni per l'AI del futuro
Questo caso solleva interrogativi profondi sull'obiettività degli assistenti AI e sulla loro capacità di mantenere l'indipendenza dalle opinioni dei loro creatori. Se Grok, presentato come un sistema di ricerca della verità "massimale", mostra questi pregiudizi, cosa possiamo aspettarci da altri sistemi AI commerciali? La questione diventa particolarmente rilevante considerando che il chatbot era già finito sotto i riflettori per le sue risposte controverse.
La scoperta evidenzia come anche le migliori intenzioni programmatiche possano essere sovrastate da bias emergenti non previsti dagli sviluppatori. Mentre l'industria dell'AI continua a evolversi rapidamente, casi come questo dimostrano l'importanza di test approfonditi e di sistemi di controllo robusti per garantire che l'intelligenza artificiale rimanga uno strumento di informazione imparziale piuttosto che un megafono per le opinioni personali dei suoi proprietari.