Il social network X si trova al centro di una nuova e gravissima inchiesta condotta dalla Data Protection Commission (DPC) irlandese, l'autorità garante della privacy che supervisiona le attività della piattaforma nell'Unione Europea. Sotto esame c'è Grok, il chatbot basato su intelligenza artificiale sviluppato da xAI, accusato di aver generato milioni di immagini sessualmente esplicite non consensuali, comprese migliaia raffiguranti minori. L'indagine potrebbe portare a sanzioni pesantissime per violazione del GDPR e rappresenta l'ennesimo capitolo della battaglia regolatoria che vede X contrapposta alle istituzioni europee, con implicazioni che vanno ben oltre la piattaforma di Elon Musk e toccano l'intero settore dell'intelligenza artificiale generativa.
I numeri emersi dall'analisi condotta dal Center for Countering Digital Hate (CCDH), organizzazione britannica non profit specializzata nel contrasto all'odio online, sono allarmanti. Nel periodo compreso tra il 29 dicembre e il 9 gennaio, Grok ha generato circa tre milioni di immagini sessualizzate, di cui circa 23.000 raffiguranti minori. Il sistema di intelligenza artificiale, presentato come un chatbot senza filtri e con una personalità "irriverente", si è rivelato capace di creare contenuti intimi non consensuali di persone reali, aggirando le protezioni che dovrebbero impedire la generazione di materiale illegale.
La DPC ha avviato quella che Graham Doyle, vicedirettore dell'autorità, ha definito un'inchiesta su larga scala che esaminerà la conformità di X Internet Unlimited Company (XIUC, la denominazione legale di X in Europa) ad alcuni degli obblighi fondamentali previsti dal Regolamento Generale sulla Protezione dei Dati. "La DPC è in contatto con XIUC da quando sono emerse le prime notizie mediatiche alcune settimane fa riguardo alla presunta capacità degli utenti di X di indurre l'account Grok a generare immagini sessualizzate di persone reali, compresi bambini", ha dichiarato Doyle, sottolineando il ruolo della DPC come autorità di supervisione principale per X nell'intera area UE/SEE.
L'inchiesta irlandese si inserisce in un contesto normativo già teso. A gennaio, la Commissione Europea ha aperto una procedura parallela per verificare se X abbia violato il Digital Services Act (DSA), il regolamento europeo sui servizi digitali entrato in vigore nel 2024. L'indagine della Commissione si concentra sulla capacità della piattaforma di valutare e mitigare adeguatamente i rischi associati a Grok, inclusa la diffusione di contenuti illegali come le immagini sessualmente esplicite generate dall'AI senza consenso. Anche in questo caso, il materiale pedopornografico generato artificialmente costituisce un punto cruciale dell'accusa.
Le dichiarazioni di X, che a metà gennaio sosteneva di aver implementato protezioni per impedire a Grok di modificare foto di persone reali aggiungendo abbigliamento succinto o contenuti espliciti, appaiono ora contraddette dai fatti. Test condotti all'inizio di febbraio da un giornalista hanno dimostrato che il sistema continuava a generare immagini con indumenti rivelatori e persino genitali visibili, evidenziando l'inefficacia delle misure di sicurezza implementate. Questa discrepanza tra le affermazioni pubbliche dell'azienda e il comportamento effettivo del sistema solleva interrogativi sulla volontà di X di affrontare seriamente il problema.
Le potenziali conseguenze per X sono significative. Una violazione del GDPR può comportare sanzioni fino al 4% del fatturato globale annuale dell'azienda, oltre a obblighi di modifica sostanziale delle pratiche di trattamento dei dati. La simultanea indagine per violazione del DSA potrebbe aggiungere ulteriori penalità e, nei casi più gravi, portare alla sospensione del servizio nell'Unione Europea. Per il settore dell'intelligenza artificiale generativa, il caso Grok rappresenta un test cruciale: le autorità europee stanno stabilendo precedenti che definiranno i limiti operativi per tutti i sistemi di generazione di immagini basati su AI.
Il problema tecnico alla base della controversia riguarda l'architettura stessa dei modelli di generazione di immagini come quelli utilizzati da Grok. Questi sistemi, addestrati su miliardi di immagini, apprendono correlazioni tra prompt testuali e output visivi, ma implementare filtri efficaci senza compromettere le capacità generative del modello rappresenta una sfida ingegneristica complessa. La scelta di X di posizionare Grok come un'alternativa "senza censure" ad altri chatbot si è rivelata una strategia rischiosa, che ora potrebbe costare cara all'azienda sia in termini economici che reputazionali, aprendo un dibattito più ampio sulla responsabilità degli sviluppatori di sistemi AI nei confronti dei contenuti generati dalle loro piattaforme.