Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata Abbiamo fatto un giro in Silicon Valley, ecco com'è andata...
Immagine di C'è chi è convinto che i large language model possano pensare C'è chi è convinto che i large language model possano pens...

Ai Act e aziende tech: una tempesta prima dell’uragano?

L'AI Act, in vigore dal 1° agosto 2024, introduce la prima disciplina uniforme dell'IA, ma presenta problemi di applicazione e sanzioni poco incisive. La Commissione Europea ha pubblicato un Codice di Condotta volontario per chiarire le normative.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Avv. Giuseppe Croari

a cura di Avv. Giuseppe Croari

avv.

Pubblicato il 24/07/2025 alle 18:00

Immagine id 15003

Avv. Giuseppe Croari – Dott. Francesco Rabottini

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Non ci sono dubbi. L’AI Act ha segnato la fine di un’epoca e l’inizio di una nuova. Il regolamento sull’intelligenza artificiale, in vigore dal 1° agosto 2024, rappresenta il primo tentativo di disciplina sistematica e uniforme dell’IA non solo a livello europeo, ma internazionale. 

È proprio la portata generale caratterizzante l’ambito di applicazione di tale atto giuridico vincolante, direttamente applicabile in tutti gli Stati membri dell'Unione, a causare la maggior parte dei problemi. L’impatto che questo strumento normativo sta avendo sui settori tecnologico e giuridico, infatti, fatica ad essere unanimemente definito in maniera positiva.

Le aziende che si occupano di sviluppare sistemi di IA, in particolare quelli classificabili come “General Purpose AI”, dal 2 agosto 2025 saranno le prime a dover scendere a patti con una cospicua serie di prescrizioni in materia di origine dei dati usati per addestrare i modelli, di documentazione tecnica degli stessi, nonché di marcatura dei contenuti e di rispetto del diritto d’autore.

Le multe sono salate ma non funzionano

Immagine id 55677

L’approccio adottato dal Parlamento europeo e dal Consiglio dell’UE nella stesura del regolamento in parola è basato sul rischio, elemento comune anche ad altre normative, prime fra tutte il GDPR: quanto più è alto il rischio connesso all’impiego di un dato sistema di IA, tanto maggiori saranno le responsabilità in capo ai suoi sviluppatori. 

Questo assetto, se da una parte risulta essere volto ad assicurare un consono livello di protezione dei diritti fondamentali delle persone, dall’altro, a prima vista, potrebbe apparire alquanto gravoso per le tech companies, le quali, in caso di mancato rispetto delle citate previsioni normative sarebbero costrette a fare i conti con sanzioni amministrative a dir poco significative, potendo raggiungere cifre fino a 35 milioni di euro o, nel caso in cui la cifra fosse maggiore, al 7% del fatturato annuo.

Se si ragiona unicamente in termini di percentuali tali sanzioni potrebbero sembrare esorbitanti, ma agli occhi di un osservatore esperto risultano essere decisamente poco incisive. Una prova di come l’assetto sanzionatorio previsto dall’AI Act pecchi di efficacia può essere ravvisata ove lo si metta a confronto con le conseguenze previste nel caso in cui un’azienda ponga in essere pratiche commerciali vietate. In questo caso, infatti, l’autorità antitrust non si limiterà ad erogare ed applicare una sanzione pecuniaria, ma potrà bloccare la pratica scorretta e imporre a chi l’ha messa in atto di “annullarne gli effetti e riparare illecito”. 

Al contrario, nel caso in cui un’azienda violi almeno uno dei divieti imposti dall’AI Act, la sanzione pecuniaria sembra essere l’unica reazione possibile da parte dell’Autorità vigilante: infatti, non è chiaro se quest’ultima possa ordinare un blocco del modello di IA in via cautelare.

Dunque, continua a esistere la possibilità che un’eventuale azienda possa decidere che pagare la sanzione sia un costo accettabile per continuare con politiche illegali. Uno scenario che, invece, si vorrebbe evitare. 

La risposta della Commissione Europea

L’insieme di regole costituenti l’AI Act, seppure primo nel suo genere per quanto riguarda il suo oggetto, è riuscito a complicare ulteriormente la situazione dei soggetti suoi destinatari con previsioni eccessivamente generiche e terminologie a dir poco ambigue.

Come rimediare? Ci hanno pensato 13 esperti indipendenti e più di 1.000 stakeholder, tra cui sviluppatori, PMI e accademici, le menti che hanno permesso di arrivare alla pubblicazione, da parte della Commissione Europea, del Codice di Condotta per l’IA di uso generale. Si tratta di uno strumento di fondamentale importanza, a cui è possibile aderire su base volontaria e che la Commissione medesima ha voluto ulteriormente specificare con delle vere e proprie linee guida, concepite al fine di permetterne un’interpretazione chiara e semplificatrice. 

Il Codice di condotta: trasparenza, copyright e sicurezza

Il codice, che la vicepresidente della Commissione Henna Virkkunen ha definito come un “importante passo avanti nel rendere disponibili i più avanzati modelli di IA che non siano solo innovativi ma anche sicuri e trasparenti” ha ad oggetto l’utilizzo di strumenti di IA generativa, ossia quelli che più di tutti, per loro natura, posseggono un elevato potenziale sistemico.

Il testo del codice è suddiviso in tre capitoli.

Il primo capitolo, incentrato sulla trasparenza, impone alle aziende di illustrare sia agli utenti finali sia a chi integra questi sistemi nei propri processi produttivi due aspetti fondamentali: primo, le modalità di funzionamento dei modelli e, secondo, le misure adottate per rispettare le regole UE.

Il secondo capitolo è invece dedicato alla tutela del copyright. Rispondendo all’art. 53, par.1 lett. c dell’AI Act, si viene ad introdurre l’obbligo di adottare una copyright policy per garantire che i modelli di IA general purpose impiegati non vengano addestrati su contenuti oggetto di protezione da parte delle normative vigenti: in tale ambito, nel caso in cui i firmatari del Codice incorrano in problematiche legate a questo tipo di violazioni, gli stessi devono essere a completa disposizione dei titolari dei diritti lesi, recependone i reclami attraverso la previa designazione di un punto di contatto elettronico.

Il terzo ed ultimo capitolo, infine, si concentra sulla sicurezza dei sistemi. In base a quanto previsto dall’art.55 del Regolamento di riferimento, i fornitori di GPAI con rischio sistemico sono tenuti a notificare alla Commissione, quanto prima possibile, il momento in cui un modello di IA raggiunge una certa quantità di risorse computazionali utilizzate per addestrarlo.

Conclusioni

Più passa il tempo, più l’intelligenza artificiale si rivela per quello che è, nel bene e nel male. Sono però gli aspetti negativi a destare il maggior numero di sospetti e a fare più paura. Questo il legislatore lo ha compreso. Dopo le molteplici critiche da parte del mondo dell’industria tech, è infatti intervenuto per tentare di aggiustare il tiro, probabilmente nella speranza che, almeno questa volta, la pallina raggiunga almeno il green vicino alla buca.

Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX e chiedi dell’Avvocato Giuseppe Croari esperto di diritto dell’informatica e delle nuove tecnologie.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram
Live

I più letti di oggi


  • #1
    Il ragno delle Canarie che ha dimezzato il suo genoma
  • #2
    Windows 7 “mini” da 69 MB: geniale o inutile?
  • #3
    Nascita e morte del CD: la tecnologia che ha cambiato tutto
  • #4
    Allenarsi rallenta il cuore (e ti fa guadagnare anni)
  • #5
    Intel rilancia: AVX e AMX tornano con Nova Lake
  • #6
    Siri cambia anima: l’AI di Google arriva su iPhone
Articolo 1 di 5
C'è chi è convinto che i large language model possano pensare
Un'analisi confronta il ragionamento CoT con i processi cognitivi umani e i risultati dei benchmark.
Immagine di C'è chi è convinto che i large language model possano pensare
1
Leggi questo articolo
Articolo 2 di 5
Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Dalle aule di Stanford ai laboratori Google, il nostro Grand Tour in Silicon Valley ha svelato il vero spirito della disruption AI. Abbiamo trovato una forte comunità italiana tra campus, startup e big tech: l'innovazione è qui.
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Leggi questo articolo
Articolo 3 di 5
Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
Per la resilienza industriale, gli UPS trifase sono un pilastro contro i blackout. Evitano danni e fermi. Caratteristiche chiave: modularità, scalabilità e monitoraggio remoto.
Immagine di Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
1
Leggi questo articolo
Articolo 4 di 5
25 strumenti AI per la creazione di contenuti e il marketing
Una guida analizza 25 strumenti IA per la creazione di contenuti, evidenziando una tendenza all'automazione accessibile che promette di abbassare la barriera d'ingresso al mercato.
Immagine di 25 strumenti AI per la creazione di contenuti e il marketing
Leggi questo articolo
Articolo 5 di 5
Perché Alphabet trasforma i progetti moonshot in società indipendenti
L'interesse concreto nei progetti resta quando questi diventano aziende indipendenti.
Immagine di Perché Alphabet trasforma i progetti moonshot in società indipendenti
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.