OpenAI torna al centro delle polemiche sulla sicurezza dei dati dopo che un incidente occorso presso Mixpanel, fornitore terzo di analisi web, ha esposto informazioni personali di un numero imprecisato di utenti della piattaforma API. La violazione, che risale al 9 novembre 2025 ma è stata comunicata agli utenti interessati solo il 27 novembre, solleva nuovamente interrogativi sulla gestione della privacy da parte delle aziende che operano nel settore dell'intelligenza artificiale, in un momento in cui milioni di persone affidano quotidianamente dati sensibili a servizi come ChatGPT. Sebbene l'azienda di Sam Altman si affretti a specificare che nessun sistema interno è stato compromesso, l'episodio rappresenta l'ennesima crepa nella fiducia degli utenti verso i giganti dell'AI.
Secondo quanto riportato nella comunicazione ufficiale inviata via email agli utenti coinvolti, l'attaccante ha avuto accesso a un dataset contenente nomi degli account registrati su platform.openai.com, indirizzi email associati agli account API, posizioni geografiche approssimative ricavate dagli indirizzi IP, informazioni sul sistema operativo e browser utilizzati, oltre agli ID utente e alle organizzazioni salvate negli account API. OpenAI precisa che non sono stati compromessi né le conversazioni con ChatGPT, né le richieste API, né password, credenziali, chiavi API, dettagli di pagamento o documenti d'identità governativi utilizzati per la verifica dell'età.
Il breach ha avuto origine nei sistemi di Mixpanel, società specializzata in analytics che OpenAI utilizzava per monitorare l'interfaccia frontend della propria piattaforma API. L'attacco informatico è stato rilevato da Mixpanel il 9 novembre, ma solo il 25 novembre l'azienda ha condiviso con OpenAI il dataset completo dei dati sottratti, permettendo finalmente all'azienda di Sam Altman di identificare gli utenti coinvolti e avvisarli. Nel frattempo, OpenAI ha interrotto l'integrazione con Mixpanel e avviato un'indagine interna per valutare l'estensione dell'incidente.
La tipologia di dati esposti, pur non includendo le conversazioni o credenziali d'accesso, rappresenta comunque materiale prezioso per attacchi di phishing e tecniche di ingegneria sociale sempre più sofisticate. Conoscere l'email, il nome e la posizione approssimativa di un utente permette infatti agli attaccanti di costruire campagne mirate particolarmente credibili, sfruttando la fiducia degli utenti verso comunicazioni apparentemente ufficiali. OpenAI ha esplicitamente avvertito gli utenti di prestare particolare attenzione a email sospette che potrebbero sfruttare questi dati per truffe.
L'episodio si inserisce in un contesto già problematico per OpenAI sul fronte della sicurezza e della privacy. L'azienda è stata più volte criticata per la gestione dei dati degli utenti e per le politiche di trasparenza, specialmente considerando la mole di informazioni personali e potenzialmente confidenziali che transitano attraverso ChatGPT e le sue API. Organizzazioni, professionisti e utenti privati condividono quotidianamente con questi sistemi documenti aziendali, codice sorgente, informazioni mediche e conversazioni private, rendendo la sicurezza dei dati una questione di primaria importanza.
Le violazioni di dati tramite fornitori terzi rappresentano una vulnerabilità sempre più sfruttata nel settore tecnologico. Aziende come OpenAI, Microsoft, Google e Meta si affidano a decine di servizi esterni per analytics, infrastruttura cloud, gestione dei contenuti e altri servizi accessori, creando una superficie d'attacco estremamente ampia. Ogni fornitore nella catena rappresenta un potenziale punto debole, anche quando i sistemi interni dell'azienda principale sono adeguatamente protetti. Questa dinamica rende insufficiente concentrare gli sforzi di sicurezza solo sui sistemi proprietari.
Gli esperti di sicurezza informatica raccomandano da tempo l'adozione di pratiche come l'utilizzo di alias email differenti per ogni servizio, l'attivazione dell'autenticazione a più fattori su tutti gli account sensibili e l'impiego di password manager per generare credenziali uniche e complesse. Sebbene queste misure non possano prevenire breach a livello di fornitore, limitano significativamente i danni derivanti dalla compromissione di un singolo account, impedendo agli attaccanti di utilizzare le credenziali sottratte per accedere ad altri servizi.