Avv. Giuseppe Croari – Dott. Francesco Rabottini
È possibile far dimenticare qualcosa a un’intelligenza artificiale? Con l’adozione sempre più massiccia di sistemi di machine learning nei servizi digitali, emerge un problema tutt’altro che secondario: che fine fanno i dati personali una volta utilizzati per addestrare un algoritmo? E soprattutto: come si applica, in questo contesto, il diritto alla cancellazione previsto dall’articolo 17 del GDPR?
Da queste domande nasce un nuovo campo di ricerca: il Machine Unlearning, tecnica che promette di rimuovere selettivamente informazioni dai modelli di IA, modificandone il comportamento senza doverli riaddestrare da capo. Ma la strada è tutt’altro che semplice: si tratta di un processo costoso, tecnicamente complesso e potenzialmente rischioso per la stabilità e la sicurezza dei sistemi.
Nonostante i limiti, il Machine Unlearning si sta affermando come una possibile via di equilibrio tra le esigenze della protezione dei dati personali e le spinte dell’innovazione algoritmica.
Machine Unlearning: definizione e criticità
Ilo “Machine unlearning” consiste nel rimuovere determinate informazioni, ossia dati, dal pool utilizzato in fase di addestramento di un particolare modello, con il fine ultimo di modificare il comportamento del modello stesso successivamente ad una fase di “re-training”.
Detta così, sembra una procedura facile e veloce: al contrario, questa pratica risulta eccessivamente dispendiosa sia sotto il profilo temporale, sia sotto quello economico.
La rilevazione di queste criticità, però, ha incoraggiato la creazione di algoritmi capaci di asportare parti di informazioni senza la necessità di addestrare nuovamente il modello a partire da zero. Iniziative innovative e lungimiranti, ma, come spesso accade nella realtà, ad ogni nuova soluzione corrisponde un nuovo ostacolo: nel caso di specie, è stato rilevato come la rimozione dei dati utilizzati in fase di addestramento possa avere effetti catastrofici sulle prestazioni dei modelli impiegati, inibendone la capacità di funzionare correttamente.
Questo effetto negativo caratterizza tutti i metodi di unlearning attualmente conosciuti.
Il Machine Unlearning come mezzo di compliance privacy aziendale
Nonostante questi “incidenti di percorso”, il Machine unlearning, che comunque è ancora ad uno stadio embrionale, promette di essere un ottimo alleato delle aziende intenzionate ad assicurare la protezione della privacy dei propri clienti, e a potenziare la sicurezza dei modelli usati insieme alla conformità del proprio business alla normativa di riferimento.
Relativamente alla protezione della privacy, il MU permetterebbe l’applicazione sostanziale del già menzionato diritto all’oblio, consentendo la rimozione di dati personali dai modelli addestrati. Per quanto riguarda la sicurezza dei modelli, questa nuova procedura consentirebbe anche di eliminare i dati “tossici” conseguenza di attacchi di “data poisoning” diretti alla manipolazione dell’output di un determinato modello. Infine, l’adozione di tale procedura contribuirebbe a garantire la corrispondenza tra le peculiari esigenze attinenti a ciascuna azienda e la costante evoluzione di leggi e regolamenti.
Purtuttavia, è necessario tenere presente come sia stato acutamente fatto notare che, nel caso in cui un particolare modello, a seguito della procedura di unlearning, rispondesse particolarmente male all’inserimento di un determinato input, si configurerebbe la possibilità per un eventuale aggressore di realizzare come inizialmente l’input rimosso fosse stato incluso nel set di dati di addestramento originario: questa ipotesi corrisponde all’esecuzione di un peculiare tipo di attacco conosciuto come “membership inference” o “inferenza di appartenenza”, per mezzo del quale il malintenzionato riesce a rivelare un dato o un gruppo di dati sensibili riconducibili a un determinato utente.
Riduzione dei costi aumentando la fiducia: perché il Machine Unlearning serve alle aziende
Le problematiche esposte rendono necessaria la verificabilità dei modelli di Machine learning impiegati dalle aziende con riferimento all’avvenuta cancellazione dei dati personali in essi contenuti.
Tale verifica rappresenta un ottimo punto di partenza per assicurare trasparenza ed aumentare la fiducia nei confronti delle aziende che utilizzano procedure di MU all’interno di pratiche privacy.
Questo outcome positivo potrà essere raggiunto sfruttando la capacità delle procedure in parola di ridurre i costi e la complessità dei modelli usati dalle organizzazioni attraverso l’eliminazione di dati irrilevanti o ridondanti, limitando così la probabilità di incorrere in bias o errori e, al tempo stesso, aumentando la capacità dei sistemi di resistere ai cyber-attacchi.
Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX e chiedi dell’Avvocato Giuseppe Croari esperto di diritto dell’informatica e delle nuove tecnologie.