Anthropic fa una figuraccia in tribunale e da la colpa alla sua IA

La crescente integrazione dell'intelligenza artificiale nel mondo legale sta creando una serie di problematiche inedite, come dimostrato da Anthropic.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

La crescente integrazione dell'intelligenza artificiale nel mondo legale sta creando una serie di problematiche inedite, come dimostra il recente caso di Anthropic. L'azienda sviluppatrice del chatbot Claude si trova al centro di una controversia per aver presentato fonti errate in una battaglia legale contro importanti case discografiche. La vicenda solleva interrogativi sulla affidabilità degli strumenti AI quando vengono impiegati in contesti dove la precisione delle citazioni è fondamentale, come nei procedimenti giudiziari, e mette in luce come anche le aziende tecnologicamente più avanzate non siano immuni dai rischi di "allucinazioni" dei propri sistemi.

Anthropic ha dovuto rispondere pubblicamente alle accuse secondo cui avrebbe utilizzato una fonte fabricata dall'intelligenza artificiale nella sua difesa legale contro alcuni editori musicali. Giovedì scorso, l'azienda ha ammesso che il suo chatbot Claude ha commesso quello che ha definito un "onesto errore di citazione" in un documento legale depositato il 30 aprile dalla data scientist Olivia Chen.

Il documento faceva parte della strategia difensiva di Anthropic contro le accuse mosse da Universal Music Group, ABKCO e Concord, secondo cui l'azienda avrebbe utilizzato testi di canzoni protetti da copyright per addestrare il suo chatbot Claude. Durante un'udienza, un avvocato che rappresentava le case discografiche ha dichiarato che le fonti citate nel documento di Chen erano una "completa fabbricazione", suggerendo che fossero state allucinazioni generate dallo stesso strumento AI dell'azienda.

Nella risposta ufficiale, l'avvocata difensore Ivana Dukanovic ha chiarito che la fonte contestata era genuina e ha confermato che Claude era stato effettivamente utilizzato per formattare le citazioni legali nel documento. Secondo Anthropic, mentre numeri di volume e pagina errati generati dal chatbot erano stati identificati e corretti durante un "controllo manuale delle citazioni", alcuni errori di formulazione erano passati inosservati.

Dukanovic ha spiegato che "sfortunatamente, sebbene fornisse il titolo corretto della pubblicazione, l'anno di pubblicazione e il link alla fonte indicata, la citazione restituita includeva un titolo impreciso e autori non corretti". Ha inoltre insistito che l'errore non costituiva una "fabbricazione di autorità". L'azienda si è scusata per l'imprecisione e la confusione causate dall'errore di citazione, definendolo "un imbarazzante e involontario sbaglio".

Questo caso si aggiunge a una crescente lista di esempi problematici legati all'uso di strumenti AI per la redazione di documenti legali. Appena la settimana scorsa, un giudice californiano ha rimproverato due studi legali per non aver dichiarato l'utilizzo dell'intelligenza artificiale nella creazione di un documento supplementare pieno di materiali "fasulli" che "non esistevano". In un caso analogo dello scorso dicembre, un esperto di disinformazione ha ammesso che ChatGPT aveva allucinato citazioni in un documento legale da lui presentato.

Il caso di Anthropic evidenzia una problematica destinata ad aumentare con la crescente adozione di strumenti IA nella pratica legale: la necessità di bilanciare l'efficienza offerta dall'automazione con il rigoroso controllo che la professione richiede. 

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.