Meta ha fatto retro front rispetto all'idea di utilizzare i dati degli utenti di Facebook e Instagram per addestrare la sua IA. La decisione è arrivata dopo che i gli enti per la tutela dei consumatori hanno respinto le affermazioni del colosso tecnologico riguardo agli "interessi legittimi" nel trattamento dei dati degli utenti provenienti dall'Unione Europea e dallo Spazio Economico Europeo (SEE). Questi dati includevano post personali e immagini da impiegare per addestrare futuri strumenti di IA.
Non sappiamo molto altro sui motivi che hanno spinto Meta a cambiare strategia. Tuttavia, la Commissione irlandese per la protezione dei dati (DPC), che regola Meta nell'UE, ha confermato lo stop attraverso un comunicato.
"La DPC accoglie con favore la decisione di Meta di sospendere i suoi piani di addestramento del suo modello linguistico usando contenuti pubblici condivisi da adulti su Facebook e Instagram in tutta l'UE/SEE," ... "Questa decisione è stata presa dopo intensi confronti tra la DPC e Meta."
Il Centro Europeo per i Diritti Digitali, noto come Noyb, aveva presentato 11 reclami in tutta l'UE e intendeva presentarne altri per fermare i piani di Meta. Inizialmente, la DPC aveva dato luce verde ai progetti di Meta AI, ma successivamente ha fatto marcia indietro, come ha riportato Noyb.
Meta aveva annunciato nuove feature IA per l'UE, tra cui adesivi personalizzati per le chat e le storie, oltre a Meta AI, un "assistente virtuale" in grado di rispondere a domande e generare immagini. Il colosso tecnologico aveva sostenuto che l'addestramento sui dati degli utenti europei fosse necessario per riflettere "le diverse culture e lingue delle comunità europee che utilizzeranno questi servizi."
Prima della sospensione, Meta contava di basarsi sulla "base legale degli 'interessi legittimi" per trattare i dati, sostenendo che fosse fondamentale per migliorare la sua IA nel contesto social. Tuttavia, Noyb e i regolatori europei hanno contestato che questa base legale non fosse conforme al Regolamento Generale sulla Protezione dei Dati (GDPR). L'Autorità norvegese per la protezione dei dati ha dichiarato che "la cosa più naturale sarebbe stata chiedere aiuti degli utenti prima di utilizzare i loro post e immagini in questo modo."
Invece di chiedere il consenso, Meta aveva dato agli utenti europei fino al 26 giugno per opt-out. Noyb ha sostenuto che, in questo modo, Meta prevedeva di utilizzare "modelli oscuri" per ostacolare le opzioni di opt-out per l'IA in Europa e raccogliere il maggior numero possibile di dati per alimentare tecnologie AI non divulgate. Una volta che i dati degli utenti sarebbero stati nel sistema, Noyb ha sostenuto che "gli utenti non avrebbero la possibilità di rimuoverli."
Noyb ha affermato che la "spiegazione ovvia" per la sospensione dei piani di Meta è stata la pressione degli ufficiali europei. Tuttavia, il gruppo di tutela della privacy ha anche avvertito che la politica sulla privacy di Meta non è stata ancora completamente aggiornata per riflettere la sospensione.
Max Schrems, presidente di Noyb, si è espresso a favore della decisione presa da Meta:
"Accogliamo con favore questo sviluppo ma lo monitoreremo da vicino," ... "Finora non c'è stato un cambiamento ufficiale nella politica sulla privacy di Meta, il che renderebbe questo impegno legalmente vincolante. I casi che abbiamo presentato sono ancora in corso e necessitano di una determinazione."