Avv. Giuseppe Croari – Avv. Cristina Atanasi Brilli
È stata di recente annunciata la conclusione di un accordo pluriennale tra le società Apple Inc. e Google Inc. per l’integrazione del modello di intelligenza artificiale “Gemini”, sviluppato appunto da Google, nella piattaforma Apple Intelligence.
Questo accordo, ovviamente rilevante per la centralità delle aziende coinvolte e per i possibili risvolti su mercato e utenti, segue in realtà una tendenza che si sta consolidando già da qualche tempo nel settore tecnologico: l’adozione di sistemi di IA ibridi, ovvero basati su modelli sviluppati e messi a disposizioni da colossi del settore, ma personalizzati e controllati da altri fornitori di servizi che li integrano nei propri ecosistemi.
I possibili vantaggi di questa modalità operativa risiederebbero infatti nella qualità del modello e delle prestazioni elevate che diversamente un’azienda di medie o piccole dimensioni non potrebbe raggiungere, ma anche nella possibilità di preservare un maggiore controllo sui dati personali trattati e di determinarne i limiti e le modalità di utilizzo, come richiesto dalle vigenti normative europee, in materia di privacy e di intelligenza artificiale.
Dal modello proprietario all’IA integrata
La rapida crescita del settore dell’intelligenza artificiale e delle potenzialità offerte da questi strumenti stanno spingendo molte aziende al passaggio da un modello di IA interamente sviluppato in casa ad un approccio più flessibile e condiviso.
Per ottenere innovazione e strumenti efficienti, le imprese hanno infatti iniziato ad appoggiarsi a modelli di base, chiamati “foundation model”, forniti dai principali operatori del settore – come, appunto, Google, ma anche Microsoft, OpenAI, ecc. – per poi personalizzarli in base alle proprie esigenze, sul piano delle funzionalità e degli ambiti operativi, ma anche degli standard di sicurezza.
In sostanza, si potrebbe così realizzare un’integrazione controllata che consente di:
- sfruttare la potenza e la scalabilità dei modelli generalisti già esistenti senza dover partire da zero nello sviluppo di sistemi di IA;
- configurare i sistemi di intelligenza artificiale su focus sempre più specifici e settoriali (ad esempio, analisi legale, ricerca scientifica, assistenza clienti, ecc.);
- mantenere una diretta governance dei dati trattati, stabilendo a priori limiti precisi su cosa sarà condiviso con il fornitore del foundation model e su quali saranno i trattamenti di dati personali consentiti.
E questo sembra essere uno degli obiettivi alla base anche dell’accordo tra Apple e Google: dalle (per ora scarne) dichiarazioni rilasciate dalle società coinvolte, infatti, il sistema Gemini dovrebbe essere integrato in modo tale da essere eseguito su infrastruttura di Apple, garantendo così che le informazioni degli utenti Apple non escano dal suo perimetro di controllo, limitando fortemente le interazioni con i modelli esterni ed escludendone la condivisione con Google.
Privacy by design come leva competitiva
Secondo quanto rappresentato dalle società, questo meccanismo dovrebbe favorire l’applicazione di quelle procedure di privacy by design – intesa come protezione dei dati fin dalla fase di progettazione del sistema -, alla base della normativa, soprattutto europea, in tema di protezione dei dati personali (art. 25 GDPR), che hanno come obiettivo la massima tutela della privacy degli utenti, caratteristica che Apple ha sempre valorizzato dei propri sistemi, proprio per distinguersi in positivo da altri competitor.
Avvalendosi di modelli di intelligenza artificiale integrata, le aziende dovrebbero avere infatti la possibilità di fruire di tecnologie all’avanguardia da personalizzare, sicuramente sul piano informatico, ma anche riducendo l’uso dei dati personali per finalità di machine learning e, in generale, limitando i rischi di uso improprio dei dati, garantendo maggiore trasparenza e tracciabilità e un’effettiva supervisione umana dei sistemi di intelligenza artificiale.
AI Act: controllo umano e catena delle responsabilità
Le aziende del settore devono ora confrontarsi non solo con il rispetto della normativa privacy, ma anche con il rispetto del Reg. UE 2024/1689 (A.I. Act), che ha stabilito una serie di regole e obblighi per i sistemi di intelligenza artificiale, per chi li sviluppa e per chi li commercializza.
Tra i principali precetti di questa normativa spiccano gli obblighi di informativa e trasparenza verso gli utenti, di tracciabilità e sicurezza delle operazioni effettuate da sistemi di IA e, soprattutto, di controllo umano sui sistemi, tanto sulla struttura complessiva, quanto sulle interazioni compiute (si veda, in particolare, la Sez. 2 del Capo III, Reg. UE 2024/1689).
Una gestione diretta e consapevole dei trattamenti che vengono effettuati tramite i sistemi di IA risulta quindi un presupposto di grande importanza anche per riuscire a rispettare concretamente questi principi.
Conclusioni
Le effettive modalità che Apple adotterà per implementare le funzioni di Gemini per gli utenti europei e come sarà garantito il rispetto delle normative vigenti non sono ancora note, ma questo accordo sembrerebbe avvalorare – almeno nelle dichiarazioni rilasciate dalle società - l’importanza riconosciuta a questi principi e a un approccio conforme alle normative sulla privacy.
In un simile contesto normativo, diventa infatti sempre più importante, da un lato, poter personalizzare e progettare queste tecnologie secondo predefinite policy interne che rispettino gli stringenti requisiti normativi e, dall’altro lato, poter effettivamente controllare e gestire l’applicazione di questi criteri, per essere in grado di renderne conto sia agli interessati che alle Autorità competenti.
Se sei un’azienda e necessiti di supporto in tema di privacy rivolgiti ai nostri partner dello Studio Legale FCLEX esperti di diritto dell’informatica e delle nuove tecnologie.