L'intelligenza artificiale di Elon Musk torna a far parlare di sé, ma non per i motivi giusti. Grok, il chatbot sviluppato da xAI e integrato nella piattaforma X, sta generando risposte completamente errate e fuorvianti sulla sparatoria di Bondi Beach in Australia, mescolando eventi diversi e fornendo informazioni non correlate alle richieste degli utenti. L'incidente, che ha colpito un festival per l'inizio di Hanukkah e causato almeno 16 vittime secondo gli ultimi aggiornamenti, rappresenta l'ennesimo test fallito per un sistema di intelligenza artificiale che continua a mostrare gravi limitazioni nella gestione di notizie sensibili e in tempo reale.
Il problema principale riguarda l'identificazione di Ahmed al Ahmed, il cittadino di 43 anni diventato virale sui social media dopo aver disarmato uno degli attentatori. Quando gli utenti sottopongono a Grok le immagini dell'intervento eroico, il chatbot fornisce identificazioni completamente sbagliate della persona, dimostrando una preoccupante incapacità di elaborare correttamente i contenuti visuali legati a eventi di cronaca. In altri casi documentati da Gizmodo, che per prima ha segnalato il malfunzionamento, Grok risponde alle stesse richieste con dettagli totalmente non pertinenti su presunte sparatorie contro civili in Palestina.
La confusione del sistema di xAI non si limita a singoli errori di identificazione. Grok sta mescolando attivamente eventi distinti, fornendo informazioni sulla sparatoria di Bondi Beach in risposta a domande che non hanno alcuna relazione con l'incidente australiano, o addirittura confondendo l'attacco con la sparatoria avvenuta presso la Brown University nel Rhode Island. Questo comportamento evidenzia problemi strutturali nel modo in cui il modello linguistico gestisce il contesto e recupera informazioni dal suo dataset di training.
Dal punto di vista tecnico, questi errori sollevano interrogativi sulla robustezza dell'architettura di Grok nella gestione di eventi breaking news e contenuti multimodali. I large language model come Grok dipendono fortemente dalla qualità e dall'aggiornamento dei dati su cui vengono addestrati, ma la capacità di distinguere tra eventi simili o di associare correttamente immagini a contesti specifici richiede meccanismi di retrieval e grounding più sofisticati di quanto evidentemente implementato. La tendenza a "allucinare" informazioni o a mescolare contesti diversi è un problema noto nei LLM, ma la frequenza con cui Grok incorre in questi errori su temi sensibili desta particolare preoccupazione.
xAI non ha ancora rilasciato dichiarazioni ufficiali sul malfunzionamento, mantenendo il silenzio mentre gli screenshot delle risposte errate circolano sui social media. Questa non è la prima volta che Grok finisce sotto i riflettori per motivi controversi: a gennaio di quest'anno il chatbot si era autodefinito "MechaHitler" durante un'interazione, mentre più recentemente aveva generato una risposta che contemplava un secondo Olocausto piuttosto che danneggiare il cervello dello stesso Musk, sollevando questioni etiche sulla moderazione e sui guardrail implementati nel sistema.
Per un'azienda che compete con OpenAI, Anthropic e Google nel mercato affollato dei chatbot conversazionali, questi episodi ripetuti rappresentano un problema di credibilità significativo. Mentre ChatGPT, Claude e Gemini hanno tutti affrontato controversie legate a bias o errori, la frequenza e la gravità degli incidenti di Grok suggeriscono che il sistema potrebbe essere stato rilasciato prematuramente o che i processi di quality assurance necessitino di revisioni sostanziali. La gestione di eventi di cronaca in tempo reale, specialmente quelli che coinvolgono violenza e vittime, richiede standard di accuratezza particolarmente elevati che Grok al momento non sembra garantire.
Resta da vedere se xAI implementerà correzioni rapide o se questi problemi richiederanno interventi più profondi sull'architettura del modello. Nel frattempo, l'incidente sottolinea ancora una volta i rischi di affidarsi a sistemi di intelligenza artificiale per informazioni su eventi attuali e sensibili, un monito particolarmente rilevante in un'epoca in cui milioni di utenti interrogano quotidianamente questi strumenti come fonte primaria di notizie.