Qualche giorno fa, l'Italia ha approvato la legge 132 del 2025, il primo tentativo organico di regolamentazione nazionale dell'IA, ponendo al centro un principio filosofico preciso: l'antropocentrismo. Una scelta che non è soltanto teorica, ma che si traduce in conseguenze pratiche concrete per professionisti, aziende e cittadini. Il testo normativo italiano va oltre il mero recepimento delle direttive comunitarie, tracciando una strada autonoma che potrebbe fare da apripista per altri paesi europei.
"Il nucleo della nuova legislazione ruota attorno a un concetto apparentemente semplice ma rivoluzionario: l'intelligenza artificiale deve rimanere uno strumento al servizio dell'essere umano" spiega l'esperto Fabrizio Degni. Non un collega, non un socio in affari, non un'entità autonoma dotata di propria coscienza, ma un martello incredibilmente sofisticato che resta comunque un martello. Questa visione filosofica permea ogni articolo della legge e trova la sua applicazione più diretta nell'articolo 13, dedicato alle professioni intellettuali.
La normativa traccia una linea di demarcazione netta per avvocati, medici e ingegneri: possono utilizzare l'IA, ma esclusivamente per attività di supporto. "L'intelligenza artificiale può condurre ricerche giurisprudenziali in pochi secondi, analizzare montagne di documenti per individuare clausole nascoste, redigere bozze di atti legali". Tuttavia, il nucleo della prestazione professionale - "la decisione finale, il giudizio critico, il rapporto fiduciario con il cliente - rimane territorio esclusivamente umano".
Le sfide della responsabilità professionale
Questa impostazione genera però due sfide enormi che il legislatore ha dovuto affrontare. La prima riguarda la responsabilità: cosa accade quando l'assistente artificiale diventa più accurato del professionista umano? Quando l'analisi di un'AI su una cartella clinica risulta più precisa di quella elaborata da un medico in carne e ossa, la legge continua a proteggere la centralità umana, ma ci pone davanti a un paradosso. Un giorno la scelta umana potrebbe rivelarsi più fallibile di quella di una macchina, creando un dilemma etico e pratico di non poco conto.
La seconda sfida concerne la trasparenza obbligatoria. Se da un lato il professionista deve dichiarare al cliente l'utilizzo dell'IA - principio sacrosanto - dall'altro il cliente potrebbe rifiutarsi e richiedere un servizio "tradizionale", anche se meno efficiente. "Inoltre, il sistema giudiziario deve dotarsi di strumenti per comprendere quanto l'intelligenza artificiale abbia influenzato il giudizio finale umano, distinguendo tra un utilizzo iniziale che può aver condizionato tutto il processo decisionale e un impiego finale limitato al miglioramento stilistico di una relazione".
La legge dimostra di non essere ingenua riguardo ai rischi. L'articolo 26 aggiorna il codice penale, stabilendo che utilizzare l'IA per commettere reati costituisce un'aggravante. Una truffa organizzata tramite intelligenza artificiale è considerata più grave perché può personalizzare l'inganno su larga scala, colpendo le debolezze psicologiche di migliaia di persone simultaneamente. È il riconoscimento che l'IA non è soltanto un mezzo, ma un vero e proprio moltiplicatore di pericolosità.
Particolarmente significativo è il trattamento riservato ai deep fake, fenomeno che ha smesso di essere una curiosità tecnologica per diventare una minaccia concreta. La facilità con cui oggi è possibile creare contenuti audiovisivi falsi - bastano poche fotografie scattate per strada per generare video di persone che fanno o dicono cose mai accadute - ha spinto il legislatore a intervenire con decisione. "Le tecnologie di deep learning sono ormai accessibili economicamente e tecnicamente a una platea sempre più ampia di utenti".
Il nuovo reato di manipolazione digitale
L'articolo 612 quater del codice penale introduce un nuovo reato specifico per la creazione e diffusione di video, audio o fotografie false realizzate con intelligenza artificiale. I criteri fondamentali sono due: l'assenza di consenso della persona rappresentata e l'intento di ingannare il pubblico. Questo distingue la satira evidente - come un video che mostra un ottantenne sovrappeso scalare l'Everest - dai tentativi credibili di manipolazione dell'opinione pubblica.
Le implicazioni pratiche sono enormi: un amministratore delegato che annuncia falsamente il fallimento aziendale può far crollare i titoli in borsa arricchendo chi ha creato il deep fake, oppure video compromettenti di politici diffusi 24 ore prima di un'elezione possono alterare i risultati elettorali. La pornografia non consensuale rappresenta forse l'aspetto più grave e personalmente devastante di questa tecnologia.
Tuttavia, la legge si scontra con un problema pratico fondamentale: l'identificazione dell'autore. Determinare chi abbia generato un video falso rimane quasi impossibile dal punto di vista tecnico. Il rischio è di trovarsi con infinite denunce contro ignoti e indagini che non si risolvono mai, rendendo questa apparente arma legale formidabile di fatto inutilizzabile.
"La normativa affronta anche il tema del plagio 2.0, estendendo il reato di violazione del copyright alle riproduzioni ed estrazioni di dati tramite IA". Se un utente utilizza l'intelligenza artificiale per generare contenuti palesemente copiati da fonti protette da copyright, diventa perseguibile legalmente. La legge punta il dito direttamente sull'utilizzatore finale: chi firma un contenuto ne è responsabile, indipendentemente dal fatto che l'abbia scritto personalmente, tramite IA o delegando a terzi.
Questa impostazione ridefinisce il concetto di opera dell'ingegno e impatta significativamente su studenti, ricercatori, giornalisti, musicisti e sceneggiatori. L'Italia si posiziona così come paese pioniere, anticipando molte altre nazioni europee con una mossa considerata coraggiosa da alcuni, azzardata da altri. Il rischio principale è quello di imbrigliare l'innovazione con regole troppo severe su minacce reali ma che potrebbero essere mitigate diversamente.
Il trade-off tra protezione e innovazione rimane difficile da equilibrare. Se l'Italia mantiene una posizione pionieristica mentre altri paesi non si muovono nella stessa direzione, il rischio è quello di diventare un'isola di iperprotezione che scoraggia lo sviluppo tecnologico. La velocità del time-to-market continua a guidare i mercati, e normative troppo stringenti potrebbero paradossalmente allontanare l'innovazione invece di regolarla in modo costruttivo.