Lo scontro tra Anthropic e il Pentagono segna un momento di svolta nel dibattito sull'etica dell'intelligenza artificiale applicata alla difesa nazionale, con implicazioni che vanno ben oltre i confini di un semplice contratto commerciale. Il Dipartimento della Difesa americano aveva intimato alla società di rimuovere le salvaguardie integrate nel suo modello Claude, minacciando la cancellazione di un contratto da 200 milioni di dollari e l'applicazione di una designazione da "rischio nella catena di fornitura" — una classificazione finora mai applicata a un'azienda americana. Il CEO di Anthropic, Dario Amodei, ha risposto con un post sul blog aziendale in cui afferma di non poter cedere in buona coscienza alle richieste del Pentagono, innescando una crisi diplomatica e industriale senza precedenti nel settore dell'AI.
Al centro della disputa ci sono due limitazioni specifiche che Anthropic si rifiuta di rimuovere dal proprio modello: l'utilizzo di Claude per la sorveglianza di massa e per lo sviluppo di armi autonome letali prive di supervisione umana. Il Pentagono aveva richiesto che il sistema di AI fosse reso disponibile per "tutti gli scopi leciti", una formulazione sufficientemente ampia da includere scenari che Anthropic considera incompatibili con i propri principi di sviluppo responsabile. La società aveva persino proposto di implementare un livello di sicurezza aggiuntivo — un cosiddetto "safety stack" — ma anche questa soluzione intermedia è stata respinta dalle autorità militari.
Il Segretario alla Difesa Pete Hegseth aveva fissato una scadenza ultimativa alle 17:01 di venerdì per accettare i termini imposti dal Dipartimento della Difesa, secondo quanto riportato da Axios. In risposta al rifiuto di Amodei, il Sottosegretario alla Difesa Emil Michael ha lanciato accuse pesanti su X, sostenendo che il CEO di Anthropic vorrebbe "nient'altro che controllare personalmente l'esercito americano, mettendo a rischio la sicurezza nazionale" — un'escalation retorica che testimonia quanto la situazione si sia deteriorata rapidamente.
Amodei ha mantenuto una postura diplomatica ma ferma, dichiarando che Anthropic rimane disponibile a "supportare la sicurezza nazionale degli Stati Uniti" con le due salvaguardie richieste ancora in vigore. Nel caso in cui il Pentagono decidesse di procedere con la rescissione del contratto, il CEO ha assicurato che la società collaborerà per garantire una transizione ordinata verso un altro fornitore, evitando interruzioni nelle operazioni militari in corso. Tra gli altri fornitori che il Dipartimento della Difesa starebbe valutando figurano Grok di xAI, Gemini di Google e i modelli di OpenAI.
La sostituzione di Claude, tuttavia, potrebbe rivelarsi tutt'altro che immediata. Fino a questo momento il modello di Anthropic era l'unico autorizzato per le attività militari più sensibili, incluse operazioni di intelligence, sviluppo di armamenti e pianificazione sul campo di battaglia. Secondo fonti citate dalla stampa americana, Claude sarebbe stato impiegato anche nell'operazione di esfiltrazione del presidente venezuelano Nicolás Maduro e di sua moglie, un'operazione condotta dall'esercito statunitense che testimonia il livello di integrazione raggiunto dalla tecnologia di Anthropic nelle attività operative reali.
Il caso assume una connotazione ancora più complessa se si considera che, pochi giorni prima di questa vicenda, Anthropic aveva eliminato il proprio impegno formale di sicurezza di punta, alimentando critiche sulla coerenza della propria posizione. La risposta di Amodei viene quindi letta da molti analisti come un tentativo di riaffermare le credenziali di azienda attenta alla sicurezza in un momento particolarmente delicato per la reputazione del settore. La palla ora passa al Pentagono: se darà seguito alle minacce con la designazione di "rischio della catena di fornitura", le conseguenze economiche e reputazionali per Anthropic potrebbero essere severe, mentre il Dipartimento della Difesa si troverebbe ad accelerare una transizione tecnologica verso sistemi la cui affidabilità operativa non è ancora stata testata agli stessi livelli.