Microsoft e altri: chi sbaglia paghi, anche se usa l'IA

Microsoft e altri giganti tech hanno affermato che se viene violato il Copyright con l'uso dell'IA, la colpa è degli utenti.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

Ricordate quando Microsoft ha dichiarato che avrebbe pagato gli avvocati ai propri utenti, nel caso in cui venissero intentate cause legali per contenuti generati con Copilot? Sembra che le cose siano cambiate, almeno leggendo la dichiarazione rilasciata dall’azienda all’Ufficio del Copyright degli Stati Uniti.

L’Ente sta prendendo in considerazione nuove regolamentazioni per l’IA generativa e, lo scorso agosto, ha chiesto l’opinione di Microsoft, Google, OpenAI e altre aziende. Le risposte dei tre giganti tech sono ora pubbliche (si possono recuperare a questo indirizzo), sottolineano come le aziende credano che la produzione non autorizzata di materiali protetti da copyright violi le protezioni esistenti e, come accade per esempio con fotocamere, videocamere e così via, a rispondere delle violazioni debbano essere gli utenti, non le aziende produttrici del software o dell’hardware usato per compierle.

Microsoft ha infatti dichiarato che: "Il responsabile deve assumersi la responsabilità di utilizzare gli strumenti in modo responsabile e come progettati. [...] Per affrontare le preoccupazioni dei detentori dei diritti, gli sviluppatori di IA hanno adottato misure per mitigare il rischio di abusi degli strumenti di IA per violazioni di copyright. Microsoft incorpora molte di tali misure e salvaguardie per mitigare potenziali utilizzi dannosi attraverso i nostri strumenti di IA. Queste misure includono meta-prompts e classificatori, controlli che aggiungono istruzioni aggiuntive a un prompt utente per limitare le uscite dannose o violate."

Le fa Eco Google, della stessa opinione: "La possibilità che un sistema di IA generativa possa, attraverso l'ingegneria del prompt, essere fatto replicare il contenuto dei suoi dati di addestramento solleva interrogativi sul confine corretto tra violazione diretta e secondaria. Quando un sistema di IA viene sollecitato da un utente a produrre un'uscita lesiva, qualsiasi responsabilità risultante dovrebbe essere attribuita all'utente come la parte il cui comportamento volitivo ha causato la violazione. [...] Una regola che renderebbe gli sviluppatori di IA direttamente (e rigidamente) responsabili per qualsiasi uscita lesiva creata dagli utenti imporrebbe una responsabilità schiacciante sugli sviluppatori di IA, anche se avessero adottato misure ragionevoli per impedire attività lesive da parte degli utenti. Se quel criterio fosse stato applicato in passato, non avremmo avuto accesso legale a fotocopiatori, dispositivi di registrazione audio e video personali o computer personali, tutti in grado di essere utilizzati per violazioni così come per scopi notevolmente benefici."

Anche OpenAI è della stessa opinione, nonostante, così come Microsoft e Google, abbia usato materiale protetto da copyright senza autorizzazione per allenare il proprio modello di intelligenza artificiale, tant’è che la società ora è in causa per violazione del diritto d’autore.

Inutile dire che queste dichiarazioni vanno in conflitto con quanto citato in apertura. Non solo Microsoft, ma anche OpenAI, Google e Amazon si offrono di coprire i costi legali dei propri clienti nelle cause per violazione di copyright. Forse si sono rese conto che è meno oneroso sostenere una causa per conto dei propri utenti, che affrontarne una in prima persona o, peggio, dover allenare i propri modelli solamente con materiale senza copyright.