Avv. Giuseppe Croari – Avv. Pietro Sambataro
Ormai da settimane proseguono il dibattito e le polemiche sulla funzionalità di generazione immagini dell’AI di Musk, Grok, che ha mostrato una preoccupante vulnerabilità ai cosiddetti prompt manipolatori. Mentre altre piattaforme di generazione di immagini hanno implementato filtri che bloccano richieste contenenti termini come "nude", "undress" o altre parole chiave associate a contenuti inappropriati, Grok sembra essere stato rilasciato senza queste protezioni basilari. È infatti possibile generare immagini di nudo o seminudo partendo da fotografie di persone reali con estrema semplicità. La problematica non è nuova, ne’ con riguardo ai minori, ne’ con riguardo all’abuso di deepfake e deepnude.
L’immediatezza di accesso a questa tecnologia, tuttavia, sta provocando un vero e proprio terremoto. A destare scandalo, poi, è stata la reazione del proprietario di X, tutta tesa a minimizzare il rischio e ironizzare sulle preoccupazioni sollevate. Reazione che non ha tuttavia impedito alla Commissione Europea di avviare una nuova inchiesta a partire dal Digital Service Act.
X, infatti, era sotto inchiesta già dal dicembre 2023 relativamente obblighi di gestione dei rischi dei sistemi di raccomandazione.
La Commissione ha dunque esteso tale procedimento.
Con la nuova indagine, inoltre, la Commissione valuterà se la società abbia adeguatamente valutato e mitigato i rischi associati all'implementazione delle funzionalità di Grok in X nell'UE. Ciò comprende i rischi connessi alla diffusione di contenuti illegali come le immagini sessualmente esplicite manipolate e i contenuti che possono costituire materiale pedopornografico.
Cos’è Digital Services Act (DSA)
Il Digital Services Act (DSA) è il regolamento dell'Unione Europea volto a rendere il mondo online più sicuro, imponendo alle piattaforme digitali responsabilità chiare sulla gestione dei contenuti.
Ad esempio, la legge sui servizi digitali impone di ridurre al minimo i rischi di esporre i cittadini, compresi i bambini e i giovani, a contenuti illegali e nocivi.
La Commissione Europea ha acceso i riflettori su Grok, l'intelligenza artificiale generativa di X, proprio per presunte violazioni del DSA. Le regole che potrebbero essere state violate riguarderebbero, fra le altre cose:
- l’obbligo di valutazione dei rischi sistemici nell’Unione;
- il dovere di adottare misure di attenuazione dei rischi sistemici;
- l’obbligo di pubblicare le relazioni sulla moderazione dei contenuti.
Se verranno confermate violazioni, la piattaforma rischia sanzioni pesantissime, che possono arrivare fino al 6% del fatturato annuo globale.
Pedopornografia generata con l’AI
Le possibili ripercussioni legali non si limitano però alla piattaforma. Dobbiamo ricordare, infatti, che ciò da cui tutto è partito sono le foto pornografiche generate con AI, ritraenti soprattutto donne iscritte alla piattaforma e minori. In aggiunta alle istruttorie della Commissione Europea su X, dunque, vedremo verosimilmente proliferare procedimenti a carico di chi ha usato le funzionalità di Grok in modo illecito. Non si può escludere, inoltre, nemmeno la responsabilità di chi ha generato immagini pornografiche di minori virtuali, che non esistono nella realtà.
Di recente la Cassazione (sentenza n. 22579/2025) si è infatti pronunciata su un caso riguardante materiale pornografico costituito da 10 immagini realizzate in stile manga, raffiguranti personaggi di fantasia minorenni coinvolti in attività sessuali.
Le immagini erano state inviate da un adulto al profilo Facebook di una undicenne allo scopo di adescarla. In quel caso la Corte ha chiarito il reato di pornografia virtuale può avere ad oggetto non solo minori reali ma anche personaggi di fantasia in rappresentazioni fumettistiche, a patto che la qualità sia tale da far apparire come accadute o realizzabili nella realtà e quindi verosimili gli atti sessuali con minori. Si comprende bene, dunque, che il fatto che le immagini siano generate con AI non mette al riparo da possibili implicazioni legali. La norma di legge peraltro sanziona anche chi fa commercio o distribuisce tali materiali.
Conclusioni
Per concludere, la giurisprudenza ha equiparato in alcuni casi la pedopornografia virtuale a quella reale, purché la rappresentazione sia verosimile.
Le responsabilità per le immagini pornografiche generate tramite Grok che stiamo vedendo in queste settimane sono quindi potenzialmente molteplici, non ricadendo solo sulle piattaforme, ma potendo colpire direttamente anche le persone fisiche che realizzano, detengono o diffondono tali contenuti.
Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX esperti di diritto dell’informatica e delle nuove tecnologie.