Securus Technologies, una delle principali aziende di telecomunicazioni che gestisce le comunicazioni nelle strutture di detenzione, ha sviluppato e sta già sperimentando modelli di intelligenza artificiale addestrati su anni di chiamate, videochiamate, messaggi e email dei detenuti, con l'obiettivo dichiarato di identificare e prevenire attività criminali prima che vengano compiute. Si tratta di un caso emblematico di come l'innovazione nell'AI possa entrare in collisione con diritti fondamentali, sollevando interrogativi sulla sorveglianza di massa, sul consenso informato e sull'uso commerciale di dati raccolti in contesti di totale assenza di alternative.
La tecnologia sviluppata da Securus si basa su large language models addestrati su database massicci di conversazioni registrate. Uno dei modelli, ad esempio, è stato costruito utilizzando sette anni di chiamate effettuate da detenuti nel sistema carcerario del Texas. L'azienda ha inoltre creato modelli specifici per diversi stati e contee, sfruttando quella che il presidente dell'azienda, Kevin Elder, ha definito un'autentica "miniera d'oro di dati". Questi sistemi analizzano in tempo reale comunicazioni telefoniche, video, testi ed email, segnalando agli operatori umani le sezioni ritenute sospette, che vengono poi trasmesse agli investigatori delle strutture detentive.
La metodologia operativa prevede che gli strumenti di AI possano essere applicati sia a conversazioni selezionate casualmente sia a quelle di individui già sospettati di attività criminali dagli investigatori delle strutture. Secondo Elder, l'obiettivo è "rilevare e comprendere quando si stanno pianificando o contemplando crimini, in modo da intercettarli molto prima nel ciclo". L'azienda sostiene che i suoi sistemi di monitoraggio abbiano contribuito a smantellare operazioni di traffico di esseri umani e attività di gang coordinate dall'interno delle prigioni, oltre a identificare personale penitenziario coinvolto nel contrabbando. Tuttavia, Securus non ha fornito alla MIT Technology Review casi specifici scoperti grazie ai nuovi modelli di AI.
Le questioni etiche e legali sollevate da questa applicazione dell'intelligenza artificiale sono molteplici e complesse. Bianca Tylek, direttrice esecutiva di Worth Rises, organizzazione che difende i diritti dei detenuti, sottolinea come il consenso ottenuto in questo contesto sia intrinsecamente coercitivo: i detenuti vengono informati che le loro conversazioni sono registrate, ma questo non significa che siano consapevoli che possano essere utilizzate per addestrare modelli di AI. "Non c'è letteralmente nessun altro modo per comunicare con la tua famiglia", afferma Tylek, aggiungendo che nella stragrande maggioranza degli stati i detenuti pagano per queste chiamate, creando il paradosso per cui vengono addebitati servizi mentre i loro dati vengono raccolti e utilizzati commercialmente.
Un portavoce di Securus ha precisato che l'utilizzo dei dati per addestrare lo strumento "non è focalizzato sulla sorveglianza o sul targeting di individui specifici, ma piuttosto sull'identificazione di modelli più ampi, anomalie e comportamenti illeciti nell'intero sistema di comunicazione". L'azienda ha inoltre specificato che sono le strutture correzionali a determinare le proprie politiche di registrazione e monitoraggio, che Securus si limita a seguire, senza però chiarire direttamente se i detenuti possano opporsi all'utilizzo delle loro registrazioni per l'addestramento dell'AI.
La storia di Securus è già segnata da controversie relative alla violazione dei diritti civili. Fughe di notizie dai database delle registrazioni hanno rivelato che l'azienda aveva registrato impropriamente migliaia di chiamate tra detenuti e loro avvocati, violando il privilegio avvocato-cliente. Corene Kendrick, vicedirettrice del National Prison Project dell'ACLU, definisce il nuovo sistema AI come l'abilitazione di un sistema di sorveglianza invasiva, sottolineando che i tribunali hanno specificato pochissimi limiti a questo potere. "Impediremo i crimini prima che accadano monitorando ogni parola e pensiero delle persone incarcerate?", si chiede Kendrick. "Questa è una delle tante situazioni in cui la tecnologia è molto più avanti della legge".
La questione del finanziamento di questi sistemi di AI ha recentemente vissuto sviluppi significativi sul piano normativo. Nel 2024, la Federal Communications Commission aveva emanato una riforma importante, sostenuta dalle organizzazioni per i diritti dei detenuti, che vietava alle aziende di telecomunicazioni di trasferire i costi di registrazione e sorveglianza delle chiamate sui detenuti stessi. Le aziende potevano continuare ad applicare una tariffa massima per le chiamate, ma prigioni e carceri dovevano pagare la maggior parte dei costi di sicurezza con i propri budget.
La reazione a questo cambiamento fu immediata e negativa. Associazioni di sceriffi lamentarono di non poter più permettersi un monitoraggio adeguato delle chiamate, e procuratori generali di 14 stati intentarono causa contro la decisione. Alcune strutture minacciarono di interrompere del tutto l'accesso alle telefonate. Mentre costruiva e sperimentava il suo strumento AI, Securus ha tenuto incontri con la FCC e fatto lobbying per una modifica delle regole, sostenendo che la riforma del 2024 fosse andata troppo oltre e chiedendo che l'agenzia permettesse nuovamente alle aziende di utilizzare le tariffe pagate dai detenuti per finanziare la sicurezza.
Nel giugno scorso, Brendan Carr, nominato da Donald Trump a capo della FCC, ha annunciato la sospensione di tutte le scadenze per l'adozione delle riforme del 2024 da parte di carceri e prigioni, segnalando addirittura l'intenzione dell'agenzia di aiutare le aziende di telecomunicazioni a finanziare i loro sforzi di sorveglianza tramite AI con le tariffe pagate dai detenuti. In un comunicato stampa, Carr ha scritto che il rollback delle riforme del 2024 "porterebbe a un'adozione più ampia di strumenti benefici per la sicurezza pubblica che includono AI avanzata e machine learning". Il 28 ottobre, l'agenzia è andata oltre: ha votato per approvare nuovi tetti tariffari più alti e permettere ad aziende come Securus di trasferire sui detenuti i costi di sicurezza relativi alla registrazione e al monitoraggio delle chiamate, inclusi archiviazione, trascrizione e sviluppo di strumenti AI per l'analisi.
L'unica voce dissenziente all'interno della FCC è stata quella della commissaria Anna Gomez, che ha scritto in una dichiarazione: "Le forze dell'ordine dovrebbero pagare il conto per i costi di sicurezza non correlati, non le famiglie delle persone incarcerate". Un portavoce di Securus ha dichiarato che l'azienda mira a bilanciare l'accessibilità economica con la necessità di finanziare strumenti essenziali di sicurezza, definendo queste tecnologie "fondamentali per mantenere strutture sicure per i detenuti e il personale correzionale e per proteggere il pubblico".
La FCC raccoglierà commenti su queste nuove regole prima che entrino definitivamente in vigore, ma il caso Securus rappresenta già un precedente significativo nell'intersezione tra intelligenza artificiale, sorveglianza di massa e diritti fondamentali. Rimangono aperti interrogativi cruciali: fino a che punto la tecnologia predittiva può spingersi nel monitoraggio del pensiero umano? Chi dovrebbe sostenere i costi della sicurezza nelle strutture detentive? E soprattutto, quale tutela esiste per i diritti di una popolazione già vulnerabile e priva di alternative reali nel comunicare con il mondo esterno?