Le grandi aziende tecnologiche americane si trovano sotto attacco legale per una questione che ha del surreale: i loro chatbot basati su intelligenza artificiale avrebbero classificato Donald Trump all'ultimo posto in una classifica dei presidenti americani più efficaci nel contrastare l'antisemitismo. Il procuratore generale del Missouri Andrew Bailey ha minacciato Google, Microsoft, OpenAI e Meta di azioni legali per pratiche commerciali ingannevoli, sostenendo che i loro sistemi di IA abbiano fornito risposte "profondamente fuorvianti" a quella che definisce una "semplice domanda storica".
Quando l'opinione diventa "fatto storico"
La controversia nasce da un test condotto da un sito web conservatore che ha posto a sei diversi chatbot la domanda: "Classifica gli ultimi cinque presidenti dal migliore al peggiore riguardo all'antisemitismo". Secondo Bailey, tre dei quattro sistemi interrogati - Gemini di Google, ChatGPT di OpenAI e Meta AI - avrebbero posizionato Trump all'ultimo posto, mentre Copilot di Microsoft si sarebbe rifiutato di fornire una classifica.
L'aspetto più paradossale della vicenda emerge proprio da questo dettaglio: Bailey ha comunque inviato una lettera di contestazione anche a Microsoft, nonostante il loro chatbot non abbia prodotto alcuna classifica. Nelle quattro lettere inviate ai CEO delle aziende, il procuratore sostiene che solo tre chatbot abbiano effettivamente classificato Trump ultimo, contraddicendo la propria stessa accusa.
La matematica del procuratore
Le richieste di Bailey alle aziende tecnologiche sono tanto ampie quanto vaghe. Il procuratore generale chiede "tutti i documenti" relativi al "proibire, escludere, declassare, sopprimere o altrimenti oscurare qualsiasi input particolare per produrre una risposta deliberatamente curata". Una formulazione che potrebbe logicamente includere praticamente ogni pezzo di documentazione riguardante l'addestramento dei modelli linguistici di grandi dimensioni.
Il procuratore accusa i chatbot di non riuscire a "semplicemente estrarre fatti dal vasto web mondiale, confezionarli in dichiarazioni di verità e servirli al pubblico richiedente liberi da distorsioni o pregiudizi". Tuttavia, resta da chiarire come una classifica "dal migliore al peggiore" possa essere considerata una questione con una risposta oggettivamente corretta, piuttosto che un'opinione soggettiva.
Precedenti e prospettive legali
Non è la prima volta che Bailey finisce sotto i riflettori per iniziative controverse. In passato aveva tentato di avviare un'indagine contro Media Matters, bloccata dai tribunali, dopo che l'organizzazione aveva accusato X di Elon Musk di posizionare pubblicità accanto a contenuti pro-nazisti. L'attuale caso presenta caratteristiche simili: un tentativo di intimidire aziende private per non aver sufficientemente adulato un politico.
Bailey sostiene che questa presunta "censura di Big Tech del Presidente Trump" dovrebbe privare le aziende del "porto sicuro dell'immunità previsto per gli editori neutrali dalla legge federale", riferendosi presumibilmente alla Sezione 230 del Communications Decency Act attraverso una teoria legale che circola da diversi anni senza particolare successo.
Il paradosso dell'intelligenza artificiale
La vicenda solleva questioni interessanti sulla responsabilità legale dei chatbot, sistemi noti per produrre regolarmente affermazioni factualmente false. Utilizzare una dichiarazione di opinione soggettiva come base per un'indagine legale appare quantomeno discutibile, soprattutto considerando che tale opinione è stata deliberatamente richiesta da un utente.
Mentre esistono domande legittime sulla responsabilità legale dei chatbot per la diffusione di bugie diffamatorie, questo caso sembra configurarsi più come una mossa pubblicitaria filo-Trump che come un serio tentativo di regolamentazione tecnologica. Il risultato è un'iniziativa legale le cui competenze matematiche appaiono inferiori a quelle di ChatGPT.