Avv. Giuseppe Croari – Dott. Francesco Rabottini
Non ci sono dubbi. L’AI Act ha segnato la fine di un’epoca e l’inizio di una nuova. Il regolamento sull’intelligenza artificiale, in vigore dal 1° agosto 2024, rappresenta il primo tentativo di disciplina sistematica e uniforme dell’IA non solo a livello europeo, ma internazionale.
È proprio la portata generale caratterizzante l’ambito di applicazione di tale atto giuridico vincolante, direttamente applicabile in tutti gli Stati membri dell'Unione, a causare la maggior parte dei problemi. L’impatto che questo strumento normativo sta avendo sui settori tecnologico e giuridico, infatti, fatica ad essere unanimemente definito in maniera positiva.
Le aziende che si occupano di sviluppare sistemi di IA, in particolare quelli classificabili come “General Purpose AI”, dal 2 agosto 2025 saranno le prime a dover scendere a patti con una cospicua serie di prescrizioni in materia di origine dei dati usati per addestrare i modelli, di documentazione tecnica degli stessi, nonché di marcatura dei contenuti e di rispetto del diritto d’autore.
Le multe sono salate ma non funzionano
L’approccio adottato dal Parlamento europeo e dal Consiglio dell’UE nella stesura del regolamento in parola è basato sul rischio, elemento comune anche ad altre normative, prime fra tutte il GDPR: quanto più è alto il rischio connesso all’impiego di un dato sistema di IA, tanto maggiori saranno le responsabilità in capo ai suoi sviluppatori.
Questo assetto, se da una parte risulta essere volto ad assicurare un consono livello di protezione dei diritti fondamentali delle persone, dall’altro, a prima vista, potrebbe apparire alquanto gravoso per le tech companies, le quali, in caso di mancato rispetto delle citate previsioni normative sarebbero costrette a fare i conti con sanzioni amministrative a dir poco significative, potendo raggiungere cifre fino a 35 milioni di euro o, nel caso in cui la cifra fosse maggiore, al 7% del fatturato annuo.
Se si ragiona unicamente in termini di percentuali tali sanzioni potrebbero sembrare esorbitanti, ma agli occhi di un osservatore esperto risultano essere decisamente poco incisive. Una prova di come l’assetto sanzionatorio previsto dall’AI Act pecchi di efficacia può essere ravvisata ove lo si metta a confronto con le conseguenze previste nel caso in cui un’azienda ponga in essere pratiche commerciali vietate. In questo caso, infatti, l’autorità antitrust non si limiterà ad erogare ed applicare una sanzione pecuniaria, ma potrà bloccare la pratica scorretta e imporre a chi l’ha messa in atto di “annullarne gli effetti e riparare illecito”.
Al contrario, nel caso in cui un’azienda violi almeno uno dei divieti imposti dall’AI Act, la sanzione pecuniaria sembra essere l’unica reazione possibile da parte dell’Autorità vigilante: infatti, non è chiaro se quest’ultima possa ordinare un blocco del modello di IA in via cautelare.
Dunque, continua a esistere la possibilità che un’eventuale azienda possa decidere che pagare la sanzione sia un costo accettabile per continuare con politiche illegali. Uno scenario che, invece, si vorrebbe evitare.
La risposta della Commissione Europea
L’insieme di regole costituenti l’AI Act, seppure primo nel suo genere per quanto riguarda il suo oggetto, è riuscito a complicare ulteriormente la situazione dei soggetti suoi destinatari con previsioni eccessivamente generiche e terminologie a dir poco ambigue.
Come rimediare? Ci hanno pensato 13 esperti indipendenti e più di 1.000 stakeholder, tra cui sviluppatori, PMI e accademici, le menti che hanno permesso di arrivare alla pubblicazione, da parte della Commissione Europea, del Codice di Condotta per l’IA di uso generale. Si tratta di uno strumento di fondamentale importanza, a cui è possibile aderire su base volontaria e che la Commissione medesima ha voluto ulteriormente specificare con delle vere e proprie linee guida, concepite al fine di permetterne un’interpretazione chiara e semplificatrice.
Il Codice di condotta: trasparenza, copyright e sicurezza
Il codice, che la vicepresidente della Commissione Henna Virkkunen ha definito come un “importante passo avanti nel rendere disponibili i più avanzati modelli di IA che non siano solo innovativi ma anche sicuri e trasparenti” ha ad oggetto l’utilizzo di strumenti di IA generativa, ossia quelli che più di tutti, per loro natura, posseggono un elevato potenziale sistemico.
Il testo del codice è suddiviso in tre capitoli.
Il primo capitolo, incentrato sulla trasparenza, impone alle aziende di illustrare sia agli utenti finali sia a chi integra questi sistemi nei propri processi produttivi due aspetti fondamentali: primo, le modalità di funzionamento dei modelli e, secondo, le misure adottate per rispettare le regole UE.
Il secondo capitolo è invece dedicato alla tutela del copyright. Rispondendo all’art. 53, par.1 lett. c dell’AI Act, si viene ad introdurre l’obbligo di adottare una copyright policy per garantire che i modelli di IA general purpose impiegati non vengano addestrati su contenuti oggetto di protezione da parte delle normative vigenti: in tale ambito, nel caso in cui i firmatari del Codice incorrano in problematiche legate a questo tipo di violazioni, gli stessi devono essere a completa disposizione dei titolari dei diritti lesi, recependone i reclami attraverso la previa designazione di un punto di contatto elettronico.
Il terzo ed ultimo capitolo, infine, si concentra sulla sicurezza dei sistemi. In base a quanto previsto dall’art.55 del Regolamento di riferimento, i fornitori di GPAI con rischio sistemico sono tenuti a notificare alla Commissione, quanto prima possibile, il momento in cui un modello di IA raggiunge una certa quantità di risorse computazionali utilizzate per addestrarlo.
Conclusioni
Più passa il tempo, più l’intelligenza artificiale si rivela per quello che è, nel bene e nel male. Sono però gli aspetti negativi a destare il maggior numero di sospetti e a fare più paura. Questo il legislatore lo ha compreso. Dopo le molteplici critiche da parte del mondo dell’industria tech, è infatti intervenuto per tentare di aggiustare il tiro, probabilmente nella speranza che, almeno questa volta, la pallina raggiunga almeno il green vicino alla buca.
Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX e chiedi dell’Avvocato Giuseppe Croari esperto di diritto dell’informatica e delle nuove tecnologie.