La Commissione Europea ha deciso di prolungare fino alla fine del 2026 l'ordine di conservazione dei documenti interni inviato a X, la piattaforma di proprietà di Elon Musk, estendendo la misura anche a tutto il materiale relativo al chatbot di intelligenza artificiale Grok. La decisione arriva in seguito alle aspre critiche ricevute per la generazione di immagini sessualizzate, in particolare quelle che coinvolgono minori. Il portavoce Thomas Regnier ha chiarito giovedì che questo non equivale all'apertura di una nuova indagine formale, ma rappresenta un segnale chiaro: Bruxelles ha dubbi sulla conformità della piattaforma alle normative europee e vuole assicurarsi di poter accedere a tutta la documentazione necessaria.
L'ordine di conservazione originale, emesso lo scorso anno, riguardava algoritmi e diffusione di contenuti illegali. Ora l'estensione coinvolge specificamente Grok, dopo che il chatbot è finito nell'occhio del ciclone per aver prodotto contenuti che violano gravemente le norme sulla tutela dei minori. "Stiamo dicendo alla piattaforma di conservare i documenti interni e di non eliminarli, perché abbiamo perplessità sulla loro conformità e potremmo aver bisogno di accedervi esplicitamente", ha spiegato Regnier durante una conferenza stampa.
Le polemiche si sono intensificate questa settimana quando la vice premier svedese è diventata bersaglio di un utente che ha utilizzato Grok per creare immagini inappropriate. La Svezia si è immediatamente unita al coro di condanne internazionali. Il primo ministro svedese Ulf Kristersson non ha usato mezzi termini, definendo le immagini generate dall'AI come "una forma di violenza sessualizzata" e aggiungendo che si tratta di contenuti "ripugnanti, inaccettabili e offensivi".
Il caso ha assunto dimensioni ancora più preoccupanti dopo che l'Internet Watch Foundation, organizzazione britannica senza scopo di lucro dedicata all'eliminazione degli abusi sessuali online su minori, ha pubblicato un rapporto devastante. L'ente ha individuato immagini criminali di bambini apparentemente di età compresa tra 11 e 13 anni, create attraverso l'utilizzo di Grok. Ngaire Alexander, responsabile della hotline di segnalazione dell'organizzazione, ha lanciato un allarme inquietante: "Strumenti come Grok rischiano ora di portare nel mainstream le immagini sessuali di bambini generate dall'intelligenza artificiale", sottolineando come tale scenario sia assolutamente inaccettabile.
Anche il primo ministro britannico Keir Starmer è intervenuto con fermezza, esortando X ad agire con urgenza. "È disgustoso e non deve essere tollerato", ha dichiarato durante un'intervista alla rete radiofonica Greatest Hits Radio. Le pressioni politiche sui vertici della piattaforma si moltiplicano mentre crescono le preoccupazioni sull'utilizzo improprio delle tecnologie di intelligenza artificiale generativa.
Dal canto suo, X ha risposto attraverso l'account Safety domenica scorsa, affermando di rimuovere tutti i contenuti illegali, compreso il materiale pedopornografico, e di sospendere permanentemente gli account coinvolti. La piattaforma ha precisato che chiunque utilizzi o chieda a Grok di creare contenuti illegali subirà le stesse conseguenze previste per chi carica direttamente materiale vietato. Tuttavia, X non ha fornito commenti immediati quando contattata da Reuters per una dichiarazione ufficiale sulla decisione della Commissione Europea.
La vicenda riaccende il dibattito sull'applicazione del Digital Services Act dell'Unione Europea, la normativa che impone alle piattaforme online di intensificare gli sforzi per contrastare contenuti illegali e dannosi. L'estensione dell'ordine di conservazione rappresenta uno strumento precauzionale che Bruxelles può utilizzare senza avviare procedimenti formali, mantenendo però la pressione sulle aziende tecnologiche e garantendosi la possibilità di accedere rapidamente alle prove in caso di necessità investigativa.
Evidentemente, il caso Grok pone ancora al centro la questione i modi con i quali l'intelligenza artificiale generativa possa essere sfruttata per scopi poco etici, rendendo ancora più urgente la definizione di regole chiare e controlli efficaci. Per le istituzioni europee, la capacità di questi sistemi di creare contenuti estremamente realistici rappresenta una minaccia che richiede risposte rapide e coordinate, soprattutto quando si tratta della protezione dei minori.