ChatGPT colpisce ancora, informazione sbagliata e parte la denuncia

OpenAI in causa con un conduttore radiofonico: l'accusa è di diffamazione perché ChatGPT ha inventato la risposta.

Avatar di Francesco Daghini

a cura di Francesco Daghini

Il conduttore radiofonico statunitense Mark Walters ha deciso di fare causa a OpenAI, la società che detiene ChatGPT, poiché quest’ultima ha dato informazioni profondamente errate a un giornalista, affermando che Walters avrebbe commesso una frode nei confronti della Second Amendment Foundation (SAF), un’associazione senza scopo di lucro che si occupa dei cosiddetti “gun rights”, il diritto alle armi.

Walter ha deciso di fare causa a OpenAI perché queste informazioni – che pure non sarebbero mai state pubblicate dal giornalista che le ha ricevute da ChatGPT – andrebbero a minare la sua reputazione; abbiamo qualche dubbio sul fatto che questa causa possa andare veramente in porto, ma potrebbe aprire un importante discorso legato alle chatbot che ormai sono sempre più diffuse. Nonostante l’alto tasso di intelligenza artificiale presente in questi sistemi, ogni tanto questi bot commettono errori molto grossolani e danno informazioni completamente errate, come è avvenuto proprio in questo caso.La causa si basa sull’accusa dell’avvocato di Walters secondo il quale ChatGPT avrebbe “pubblicato informazioni diffamatorie nei confronti del mio cliente”: la richiesta iniziale riguardava un altro caso legale che vede coinvolta la SAF e il procuratore generale Bob Ferguson, ma nella risposta di ChatGPT è presto comparso il nome di Mark Walters, indicato erroneamente come tesoriere e CFO di SAF, entrambe informazioni assolutamente false, considerato che Walters non è in alcun modo legato a questa associazione per i diritti alle armi.

Ma non è finita qui, perché ChatGPT ha persino inventato di sana pianta dei passaggi di questa causa legale, sbagliando persino a indicare il numero identificativo del caso. Come anticipato, tutte queste informazioni non sono state pubblicate ma alcuni avvocati sono stati contattati in merito, e in questo modo la notizia ha cominciato a diffondersi.Ora John Monroe, l’avvocato di Walters, vuole dimostrare che bisogna ritenere responsabili queste società quando le informazioni fornite dai loro chatbot sono così grossolanamente errate, al punto da creare problemi alle persone coinvolte.

“Ovviamente la ricerca e lo sviluppo dell’IA è una sfida che vale la pena di portare avanti, ma è da irresponsabili dare al pubblico uno strumento che sappiamo può creare informazioni false così facilmente. OpenAI ammette che ChatGPT può commettere degli errori, ma in nessun modo viene presentata come uno scherzo o una finzione, non stiamo parlando di scimmie che usano una macchina da scrivere.” Ha detto John Monroe, avvocato di Mark Walters.