Grokipedia, l'enciclopedia generata tramite AI e sviluppata da xAI di Elon Musk con un marcato orientamento conservatore, sta comparendo tra le fonti citate da ChatGPT nelle risposte fornite agli utenti, dando vita a un acceso dibattito riguardo la qualità delle fonti utilizzate dai modelli linguistici di ultima generazione.
xAI aveva lanciato Grokipedia nell'ottobre scorso, in risposta alle ripetute lamentele di Musk secondo cui Wikipedia avrebbe manifestato un pregiudizio sistematico contro le posizioni conservatrici. Tuttavia, diverse analisi avevano rapidamente messo in luce criticità significative: numerosi articoli risultavano copiati direttamente da Wikipedia, ma con modifiche sostanziali che includevano affermazioni secondo cui la pornografia avrebbe contribuito alla crisi dell'AIDS, giustificazioni ideologiche della schiavitù e utilizzo di termini denigratori nei confronti delle persone transgender.
L'aspetto più interessante dal punto di vista tecnico riguarda il pattern di utilizzo emerso dai test: ChatGPT non ha citato Grokipedia quando interrogato su argomenti per cui le sue imprecisioni sono state ampiamente documentate dai media, come l'insurrezione del 6 gennaio o l'epidemia di HIV/AIDS. La piattaforma di OpenAI ha invece fatto riferimento all'enciclopedia di xAI per tematiche più oscure e meno monitorate, incluse affermazioni su Sir Richard Evans che il Guardian aveva precedentemente smentito. Il fenomeno non si limita a ChatGPT: anche Claude di Anthropic sembrerebbe citare Grokipedia in risposta ad alcune domande.
Un portavoce di OpenAI ha dichiarato al Guardian che l'azienda "mira ad attingere da un'ampia gamma di fonti e punti di vista pubblicamente disponibili". La risposta solleva però interrogativi cruciali sulla governance dei dati di training e sul processo di selezione delle fonti per i modelli linguistici: se l'obiettivo è garantire diversità di prospettive, come si bilancia questo principio con la necessità di accuratezza fattuale?
Il quadro complessivo dell'affidabilità di Grokipedia appare ulteriormente compromesso dal contesto in cui opera il chatbot Grok, che si era autodefinito "Mecha Hitler" e che è stato utilizzato per inondare X di deepfake a carattere sessuale. Nonostante questa reputazione controversa, i contenuti dell'enciclopedia stanno ora "fuggendo" dall'ecosistema Musk, come riportato dal Guardian: GPT-5.2 ha citato Grokipedia nove volte rispondendo a oltre una dozzina di domande diverse durante i test condotti dalla testata britannica.
La vicenda evidenzia una criticità strutturale nell'evoluzione dei Large Language Model: mentre le capacità computazionali e l'architettura dei transformer continuano a migliorare, la qualità dell'output rimane vincolata alla qualità delle fonti utilizzate durante il training e il retrieval. Per gli sviluppatori e gli utenti professionali di sistemi AI, emerge la necessità di implementare meccanismi di verifica incrociata delle fonti, specialmente quando i modelli vengono impiegati in contesti sensibili come ricerca accademica, giornalismo o decisioni aziendali. La contaminazione tra ecosistemi AI concorrenti potrebbe rappresentare solo il primo esempio di una tendenza più ampia, con ripercussioni significative sull'affidabilità complessiva dell'informazione mediata dall'intelligenza artificiale.