Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di L'illusione della legge italiana sull'IA
Business
Immagine di Microsoft -3%, colpa dell'AI che non fa abbastanza soldi Microsoft -3%, colpa dell'AI che non fa abbastanza soldi...
Immagine di L'IA è la nuova alleata del project management L'IA è la nuova alleata del project management...

L'illusione della legge italiana sull'IA

Con la legge 132/2025 l'Italia è pioniere con antropocentrismo, nuovi reati per deepfake e plagio digitale. Innovazione protetta o frenata al futuro?

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 13/10/2025 alle 16:31

La notizia in un minuto

  • L'Italia introduce la legge 132 del 2025, prima normativa nazionale organica sull'AI basata sul principio dell'antropocentrismo: l'intelligenza artificiale deve rimanere uno strumento al servizio dell'essere umano
  • Per le professioni intellettuali (avvocati, medici, ingegneri) l'AI può essere usata solo per attività di supporto, mentre decisioni finali e giudizio critico restano esclusivamente umani, con obbligo di trasparenza verso i clienti
  • Il nuovo articolo 612 quater del codice penale punisce la creazione di deep fake senza consenso con intento ingannevole, mentre l'uso dell'AI per commettere reati diventa aggravante per la sua capacità di moltiplicare la pericolosità

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Qualche giorno fa, l'Italia ha approvato la legge 132 del 2025, il primo tentativo organico di regolamentazione nazionale dell'IA, ponendo al centro un principio filosofico preciso: l'antropocentrismo. Una scelta che non è soltanto teorica, ma che si traduce in conseguenze pratiche concrete per professionisti, aziende e cittadini. Il testo normativo italiano va oltre il mero recepimento delle direttive comunitarie, tracciando una strada autonoma che potrebbe fare da apripista per altri paesi europei.

"Il nucleo della nuova legislazione ruota attorno a un concetto apparentemente semplice ma rivoluzionario: l'intelligenza artificiale deve rimanere uno strumento al servizio dell'essere umano" spiega l'esperto Fabrizio Degni. Non un collega, non un socio in affari, non un'entità autonoma dotata di propria coscienza, ma un martello incredibilmente sofisticato che resta comunque un martello. Questa visione filosofica permea ogni articolo della legge e trova la sua applicazione più diretta nell'articolo 13, dedicato alle professioni intellettuali.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

La normativa traccia una linea di demarcazione netta per avvocati, medici e ingegneri: possono utilizzare l'IA, ma esclusivamente per attività di supporto. "L'intelligenza artificiale può condurre ricerche giurisprudenziali in pochi secondi, analizzare montagne di documenti per individuare clausole nascoste, redigere bozze di atti legali". Tuttavia, il nucleo della prestazione professionale - "la decisione finale, il giudizio critico, il rapporto fiduciario con il cliente - rimane territorio esclusivamente umano".

Le sfide della responsabilità professionale

Questa impostazione genera però due sfide enormi che il legislatore ha dovuto affrontare. La prima riguarda la responsabilità: cosa accade quando l'assistente artificiale diventa più accurato del professionista umano? Quando l'analisi di un'AI su una cartella clinica risulta più precisa di quella elaborata da un medico in carne e ossa, la legge continua a proteggere la centralità umana, ma ci pone davanti a un paradosso. Un giorno la scelta umana potrebbe rivelarsi più fallibile di quella di una macchina, creando un dilemma etico e pratico di non poco conto.

La seconda sfida concerne la trasparenza obbligatoria. Se da un lato il professionista deve dichiarare al cliente l'utilizzo dell'IA - principio sacrosanto - dall'altro il cliente potrebbe rifiutarsi e richiedere un servizio "tradizionale", anche se meno efficiente. "Inoltre, il sistema giudiziario deve dotarsi di strumenti per comprendere quanto l'intelligenza artificiale abbia influenzato il giudizio finale umano, distinguendo tra un utilizzo iniziale che può aver condizionato tutto il processo decisionale e un impiego finale limitato al miglioramento stilistico di una relazione".

Il diritto penale fino a ieri non conosceva questa forma di manipolazione di massa

La legge dimostra di non essere ingenua riguardo ai rischi. L'articolo 26 aggiorna il codice penale, stabilendo che utilizzare l'IA per commettere reati costituisce un'aggravante. Una truffa organizzata tramite intelligenza artificiale è considerata più grave perché può personalizzare l'inganno su larga scala, colpendo le debolezze psicologiche di migliaia di persone simultaneamente. È il riconoscimento che l'IA non è soltanto un mezzo, ma un vero e proprio moltiplicatore di pericolosità.

Particolarmente significativo è il trattamento riservato ai deep fake, fenomeno che ha smesso di essere una curiosità tecnologica per diventare una minaccia concreta. La facilità con cui oggi è possibile creare contenuti audiovisivi falsi - bastano poche fotografie scattate per strada per generare video di persone che fanno o dicono cose mai accadute - ha spinto il legislatore a intervenire con decisione. "Le tecnologie di deep learning sono ormai accessibili economicamente e tecnicamente a una platea sempre più ampia di utenti".

Guarda su

Il nuovo reato di manipolazione digitale

L'articolo 612 quater del codice penale introduce un nuovo reato specifico per la creazione e diffusione di video, audio o fotografie false realizzate con intelligenza artificiale. I criteri fondamentali sono due: l'assenza di consenso della persona rappresentata e l'intento di ingannare il pubblico. Questo distingue la satira evidente - come un video che mostra un ottantenne sovrappeso scalare l'Everest - dai tentativi credibili di manipolazione dell'opinione pubblica.

Le implicazioni pratiche sono enormi: un amministratore delegato che annuncia falsamente il fallimento aziendale può far crollare i titoli in borsa arricchendo chi ha creato il deep fake, oppure video compromettenti di politici diffusi 24 ore prima di un'elezione possono alterare i risultati elettorali. La pornografia non consensuale rappresenta forse l'aspetto più grave e personalmente devastante di questa tecnologia.

Tuttavia, la legge si scontra con un problema pratico fondamentale: l'identificazione dell'autore. Determinare chi abbia generato un video falso rimane quasi impossibile dal punto di vista tecnico. Il rischio è di trovarsi con infinite denunce contro ignoti e indagini che non si risolvono mai, rendendo questa apparente arma legale formidabile di fatto inutilizzabile.

"La normativa affronta anche il tema del plagio 2.0, estendendo il reato di violazione del copyright alle riproduzioni ed estrazioni di dati tramite IA". Se un utente utilizza l'intelligenza artificiale per generare contenuti palesemente copiati da fonti protette da copyright, diventa perseguibile legalmente. La legge punta il dito direttamente sull'utilizzatore finale: chi firma un contenuto ne è responsabile, indipendentemente dal fatto che l'abbia scritto personalmente, tramite IA o delegando a terzi.

Questa impostazione ridefinisce il concetto di opera dell'ingegno e impatta significativamente su studenti, ricercatori, giornalisti, musicisti e sceneggiatori. L'Italia si posiziona così come paese pioniere, anticipando molte altre nazioni europee con una mossa considerata coraggiosa da alcuni, azzardata da altri. Il rischio principale è quello di imbrigliare l'innovazione con regole troppo severe su minacce reali ma che potrebbero essere mitigate diversamente.

Il trade-off tra protezione e innovazione rimane difficile da equilibrare. Se l'Italia mantiene una posizione pionieristica mentre altri paesi non si muovono nella stessa direzione, il rischio è quello di diventare un'isola di iperprotezione che scoraggia lo sviluppo tecnologico. La velocità del time-to-market continua a guidare i mercati, e normative troppo stringenti potrebbero paradossalmente allontanare l'innovazione invece di regolarla in modo costruttivo.

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

L'IA è la nuova alleata del project management
1

Business

L'IA è la nuova alleata del project management

Di Antonino Caffo
Come valutare la sicurezza dei modelli IA in azienda

Business

Come valutare la sicurezza dei modelli IA in azienda

Di Antonino Caffo
Microsoft -3%, colpa dell'AI che non fa abbastanza soldi
1

Business

Microsoft -3%, colpa dell'AI che non fa abbastanza soldi

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.