image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Commissione UE fuori da X: account pubblicitario chiuso definitivamente Commissione UE fuori da X: account pubblicitario chiuso defi...
Immagine di Continua la "fuga da Apple", un'altra figura storica vuole lasciare Continua la "fuga da Apple", un'altra figura storica vuole l...

Anthropic fa una figuraccia in tribunale e da la colpa alla sua IA

La crescente integrazione dell'intelligenza artificiale nel mondo legale sta creando una serie di problematiche inedite, come dimostrato da Anthropic.

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 16/05/2025 alle 19:00
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La crescente integrazione dell'intelligenza artificiale nel mondo legale sta creando una serie di problematiche inedite, come dimostra il recente caso di Anthropic. L'azienda sviluppatrice del chatbot Claude si trova al centro di una controversia per aver presentato fonti errate in una battaglia legale contro importanti case discografiche. La vicenda solleva interrogativi sulla affidabilità degli strumenti AI quando vengono impiegati in contesti dove la precisione delle citazioni è fondamentale, come nei procedimenti giudiziari, e mette in luce come anche le aziende tecnologicamente più avanzate non siano immuni dai rischi di "allucinazioni" dei propri sistemi.

Anthropic ha dovuto rispondere pubblicamente alle accuse secondo cui avrebbe utilizzato una fonte fabricata dall'intelligenza artificiale nella sua difesa legale contro alcuni editori musicali. Giovedì scorso, l'azienda ha ammesso che il suo chatbot Claude ha commesso quello che ha definito un "onesto errore di citazione" in un documento legale depositato il 30 aprile dalla data scientist Olivia Chen.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Il documento faceva parte della strategia difensiva di Anthropic contro le accuse mosse da Universal Music Group, ABKCO e Concord, secondo cui l'azienda avrebbe utilizzato testi di canzoni protetti da copyright per addestrare il suo chatbot Claude. Durante un'udienza, un avvocato che rappresentava le case discografiche ha dichiarato che le fonti citate nel documento di Chen erano una "completa fabbricazione", suggerendo che fossero state allucinazioni generate dallo stesso strumento AI dell'azienda.

Nella risposta ufficiale, l'avvocata difensore Ivana Dukanovic ha chiarito che la fonte contestata era genuina e ha confermato che Claude era stato effettivamente utilizzato per formattare le citazioni legali nel documento. Secondo Anthropic, mentre numeri di volume e pagina errati generati dal chatbot erano stati identificati e corretti durante un "controllo manuale delle citazioni", alcuni errori di formulazione erano passati inosservati.

Immagine id 52515

Dukanovic ha spiegato che "sfortunatamente, sebbene fornisse il titolo corretto della pubblicazione, l'anno di pubblicazione e il link alla fonte indicata, la citazione restituita includeva un titolo impreciso e autori non corretti". Ha inoltre insistito che l'errore non costituiva una "fabbricazione di autorità". L'azienda si è scusata per l'imprecisione e la confusione causate dall'errore di citazione, definendolo "un imbarazzante e involontario sbaglio".

Questo caso si aggiunge a una crescente lista di esempi problematici legati all'uso di strumenti AI per la redazione di documenti legali. Appena la settimana scorsa, un giudice californiano ha rimproverato due studi legali per non aver dichiarato l'utilizzo dell'intelligenza artificiale nella creazione di un documento supplementare pieno di materiali "fasulli" che "non esistevano". In un caso analogo dello scorso dicembre, un esperto di disinformazione ha ammesso che ChatGPT aveva allucinato citazioni in un documento legale da lui presentato.

Il caso di Anthropic evidenzia una problematica destinata ad aumentare con la crescente adozione di strumenti IA nella pratica legale: la necessità di bilanciare l'efficienza offerta dall'automazione con il rigoroso controllo che la professione richiede. 

Fonte dell'articolo: www.theverge.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Commissione UE fuori da X: account pubblicitario chiuso definitivamente
5

Hardware

Commissione UE fuori da X: account pubblicitario chiuso definitivamente

Di Andrea Maiellano
ChatGPT nega tutto: nessuna pubblicità in arrivo

Hardware

ChatGPT nega tutto: nessuna pubblicità in arrivo

Di Andrea Maiellano
Continua la "fuga da Apple", un'altra figura storica vuole lasciare
1

Hardware

Continua la "fuga da Apple", un'altra figura storica vuole lasciare

Di Andrea Maiellano

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.