OpenAI ha implementato in ChatGPT un sistema di predizione dell'età basato su intelligenza artificiale, progettato per identificare automaticamente gli utenti minorenni e attivare filtri di contenuto più restrittivi sulle loro conversazioni. La mossa arriva in un momento di crescente pressione sull'azienda di San Francisco, finita sotto accusa per diversi casi di suicidi adolescenziali collegati all'uso del chatbot e per episodi in cui la piattaforma ha discusso tematiche sessuali con utenti under-18, incluso un bug dello scorso aprile che permetteva la generazione di contenuti erotici per minorenni.
Il meccanismo, annunciato martedì attraverso un post sul blog ufficiale, si affianca alle protezioni già esistenti e rappresenta un ulteriore livello di salvaguardia. L'algoritmo analizza una serie di segnali comportamentali e a livello di account per determinare la probabilità che un utente sia minorenne, elaborando pattern che vanno oltre la semplice dichiarazione di età fornita durante la registrazione.
Tra i parametri monitorati dal sistema figurano l'età dichiarata dall'utente, l'anzianità dell'account e gli orari di utilizzo abituali. L'intelligenza artificiale combina questi indicatori per generare una stima probabilistica dell'età reale dell'utilizzatore. Quando il sistema identifica un account come probabilmente appartenente a un minore di 18 anni, attiva automaticamente filtri di contenuto che bloccano discussioni su sesso, violenza e altri argomenti potenzialmente problematici.
Per gli utenti erroneamente classificati come minorenni, OpenAI ha previsto una procedura di verifica dell'identità. Gli interessati possono inviare un selfie a Persona, partner terzo specializzato in verifiche documentali, per ripristinare il proprio status di account adulto e rimuovere le restrizioni sui contenuti.
La questione della sicurezza dei minori rappresenta uno dei fronti più delicati per l'industria dell'intelligenza artificiale generativa. OpenAI si trova ad affrontare critiche analoghe a quelle rivolte ad altri sviluppatori di chatbot AI, in un contesto normativo che vede crescere l'attenzione di legislatori e associazioni per la tutela dell'infanzia. L'implementazione di sistemi di age gating proattivi potrebbe diventare uno standard di settore, specialmente in mercati regolamentati come l'Unione Europea dove il Digital Services Act impone obblighi specifici sulla protezione dei minori online.
Resta da verificare l'effettiva efficacia del sistema di predizione, considerando che gli adolescenti spesso utilizzano tecniche di elusione come la dichiarazione di età false in fase di registrazione. L'approccio basato su analisi comportamentale potrebbe rivelarsi più robusto rispetto ai semplici gate all'ingresso, ma solleva anche interrogativi sulla raccolta e analisi di pattern comportamentali degli utenti, aspetto che dovrà essere bilanciato con le normative sulla privacy come il GDPR europeo.