Scandalo IA in Florida: due minorenni dietro le sbarre per aver creato dei deepfake

Due adolescenti sono stati arrestati per aver creato e diffuso immagini “deepfake” di nudi, dei loro compagni di classe, utilizzando l’IA

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

In un’epoca in cui l’intelligenza artificiale (IA) si sta rapidamente integrando nella nostra vita quotidiana, un incidente in Florida solleva questioni legali, e morali, indubbiamente urgenti.

Due adolescenti sono stati arrestati per aver creato e diffuso immagini “deepfake” di nudi, utilizzando l’IA per generare rappresentazioni esplicite dei loro compagni di classe minorenni.

Questo caso, che potrebbe essere il primo del suo genere negli Stati Uniti, ha portato a capire meglio le implicazioni legali e le lacune esistenti nella legislazione attuale.

L'attenzione verso i deepfake è aumentata in seguito alla distribuzione di immagini esplicite, false, di Taylor Swift

I due studenti, di 13 e 14 anni, sono stati accusati di reati di terzo grado in base a una legge della Florida del 2022, che criminalizza la diffusione di immagini sessualmente esplicite, anche di stampo deepfake, senza il consenso della vittima.

Gli arresti e le accuse sono considerati i primi nel paese relativi alla condivisione di nudi generati dall’IA. L’incidente è stato segnalato dopo la sospensione degli studenti da parte della Pinecrest Cove Academy di Miami e la successiva indagine da parte del Dipartimento di Polizia di Miami-Dade.

Il fenomeno dei nudi e delle immagini esplicite generate dall’IA da parte di minori sta diventando un problema sempre più comune nei distretti scolastici degli Stati Uniti.

Tuttavia, al di fuori dell’incidente della Florida, non si sono verificati incidenti simili. La mancanza di una legge federale che affronti specificamente i nudi deepfake non consensuali ha lasciato agli stati il compito di gestire, autonomamente, l’impatto dell’IA generativa su questioni delicate come il materiale di abuso sessuale infantile e il revenge porn.

L’ordine esecutivo sull’IA emesso dal presidente Joe Biden lo scorso autunno ha sollecitato le agenzie a esaminare il divieto dell’uso dell’IA generativa per produrre materiale di abuso sessuale infantile.

Sebbene il Congresso non abbia ancora approvato una legge sulla pornografia deepfake, la recente introduzione del DEFIANCE Act del 2024 da parte di entrambe le camere potrebbe segnare un cambiamento significativo, con un supporto bipartisan che suggerisce una crescente consapevolezza del problema.

Nonostante la maggior parte degli stati abbia leggi contro il revenge porn, solo pochi hanno leggi che affrontano le immagini sessualmente esplicite generate dall’IA.

Le vittime negli stati senza protezioni legali hanno iniziato a cercare giustizia attraverso azioni legali, come nel caso di un adolescente del New Jersey che ha fatto causa a un compagno di classe per aver condiviso falsi nudi realizzati con l'IA.

In California, il Dipartimento di Polizia di Beverly Hills sta indagando su un caso simile, ma la legge dello stato non menziona esplicitamente le immagini generate dall’IA, lasciando incertezza su se sia stato commesso un crimine. Nel frattempo, il distretto scolastico locale ha preso provvedimenti espellendo cinque studenti coinvolti nello scandalo.

Questo caso in Florida, rimarca le preoccupazioni mosse da Microsoft, così come la necessità di una legislazione aggiornata e specifica che possa tenere il passo con l’avanzamento tecnologico e proteggere efficacemente le vittime di abusi generati dall’IA.

Mentre la società si adatta a una nuova era digitale, è fondamentale che le leggi riflettano le sfide etiche e legali presentate da queste potenti tecnologie.