Il braccio di ferro tra Anthropic e il Pentagono è diventato una battaglia legale. L'azienda che produce Claude ha citato in giudizio il Dipartimento della Difesa degli Stati Uniti — ribattezzato dall'amministrazione Trump "Department of War" — dopo essere stata etichettata come "supply chain risk", una designazione normalmente riservata a entità straniere considerate una minaccia per la sicurezza nazionale.
I fatti
Anthropic ha depositato due cause. La prima, presso un tribunale federale di San Francisco, accusa il governo di aver violato il diritto alla libertà di espressione dell'azienda (Primo Emendamento) e il diritto a un processo equo (Quinto Emendamento). La seconda, presso la corte d'appello federale di Washington, denuncia discriminazione e ritorsione da parte del Dipartimento della Difesa.
Secondo Anthropic il governo l'ha punita per aver posto due "linee rosse" sull'uso militare della propria tecnologia — no alla sorveglianza di massa domestica e no alle armi letali completamente autonome (sistemi AI con il potere di uccidere senza intervento umano).
Il danno economico: già centinaia di milioni
I documenti depositati in tribunale dal CFO di Anthropic, Krishna Rao, rivelano numeri che l'azienda non aveva mai reso pubblici. Le vendite complessive di Anthropic dalla commercializzazione nel 2023 superano i 5 miliardi di dollari. L'azienda ha speso oltre 10 miliardi per addestrare e distribuire i propri modelli, e resta profondamente in perdita.
L'impatto della designazione è già concreto, secondo quanto riportato da Wired:
- Un cliente nel settore finanziario ha sospeso una trattativa da 15 milioni di dollari
- Due grandi società finanziarie rifiutano di chiudere contratti per un totale di 80 milioni a meno di ottenere il diritto di cancellazione unilaterale
- Una catena di supermercati ha cancellato un incontro commerciale citando la designazione
- Un'azienda farmaceutica vuole accorciare il contratto di 10 mesi
- Una "Fortune 20 company" ha comunicato che i propri legali erano "terrorizzati" dal mantenere la relazione
- Aziende nel settore healthcare e cybersecurity hanno ritirato comunicati stampa congiunti
- I ricavi pubblici previsti per il 2026 — oltre 500 milioni di dollari — rischiano un taglio di 150 milioni
"Tutti hanno preso misure che riflettono una profonda sfiducia e una paura crescente di essere associati ad Anthropic", ha scritto il chief commercial officer Paul Smith nei documenti del tribunale.
Il contesto: come si è arrivati qui
La vicenda è esplosa nelle settimane precedenti. Anthropic stava negoziando un contratto militare con il Pentagono, ma ha rifiutato di concedere l'uso della propria tecnologia per sorveglianza di massa e armi autonome. Il segretario alla Difesa Pete Hegseth ha risposto con la designazione di supply chain risk e un post su X che andava oltre il dettato legale: "Nessun contractor, fornitore o partner che lavora con le forze armate degli Stati Uniti può avere rapporti commerciali con Anthropic".
L'ironia è che Claude era già integrato nelle operazioni del Pentagono — il primo modello AI autorizzato per l'intelligence classificata. Secondo The Verge, poche ore dopo l'annuncio della designazione, l'esercito americano avrebbe usato Claude nella campagna che ha portato all'eliminazione del leader iraniano Ayatollah Ali Khamenei.
40 dipendenti di OpenAI e Google si schierano con Anthropic
La risposta più significativa non è arrivata dai competitor, ma dai loro dipendenti. Quasi 40 ingegneri e ricercatori di OpenAI e Google — incluso Jeff Dean, chief scientist e responsabile di Gemini — hanno depositato un amicus brief a supporto della causa di Anthropic.
Il gruppo si è descritto come "ingegneri, ricercatori, scienziati e professionisti impiegati nei laboratori di AI di frontiera statunitensi" che si esprimono "non come portavoce di una singola azienda, ma a titolo individuale, come professionisti con conoscenza diretta di ciò che questi sistemi possono e non possono fare".
I punti sollevati nell'amicus brief sono tecnici e precisi:
- Sorveglianza di massa: i dati sui cittadini americani esistono ovunque — telecamere, geolocalizzazione, social media, transazioni finanziarie. Ciò che non esiste ancora è "lo strato AI che trasforma questo panorama frammentato in un apparato di sorveglianza unificato e in tempo reale". L'AI potrebbe combinare riconoscimento facciale, cronologia delle posizioni, transazioni, grafi sociali e pattern comportamentali su centinaia di milioni di persone simultaneamente.
- Armi letali autonome: i sistemi AI sono inaffidabili in condizioni nuove o ambigue, "non possono identificare i bersagli con perfetta precisione" e sono incapaci dei "compromessi contestuali sottili tra raggiungimento dell'obiettivo e considerazione degli effetti collaterali che un umano può fare". Il rischio di allucinazione rende essenziale il coinvolgimento umano "prima che un ordigno letale venga lanciato contro un bersaglio umano".
La reazione del mercato: Microsoft e Amazon restano, il governo se ne va
Microsoft e Amazon hanno comunicato che continueranno a offrire i prodotti Anthropic ai propri clienti, separando questa attività dal lavoro con il Pentagono. Ma il settore pubblico si sta muovendo nella direzione opposta: la General Services Administration ha terminato il contratto OneGov, chiudendo l'accesso ad Anthropic per tutte e tre le branche del governo federale. Il Dipartimento del Tesoro e il Dipartimento di Stato hanno comunicato l'intenzione di cessare l'uso.
Il Pentagono ha rifiutato di commentare le cause e non ha risposto alle richieste di commento sulle pressioni esercitate su startup che usano Claude.
Perché questa vicenda riguarda tutti
La battaglia Anthropic-Pentagono stabilisce un precedente su cosa succede quando un'azienda tecnologica dice "no" al governo più potente del mondo — e il governo risponde cercando di distruggerla economicamente. Sì perché nessuno può credere veramente che Anthropic rappresenti un rischio; semplicemente, metterle quell'etichetta addosso è un'arma finanziari. Un'arma molto efficace, come si può vedere dal numero di accordi cancellati.
Se le cose vanno avanti così, qualsiasi azienda AI che ponga condizioni sull'uso militare della propria tecnologia saprà che rischia lo stesso trattamento. Se la situazione viene ribaltata in tribunale, si stabilisce che le aziende hanno il diritto di porre limiti etici senza ritorsioni commerciali.
Per l'Europa, la vicenda è un promemoria: le regole sull'uso militare dell'AI non vengono scritte a Bruxelles. Vengono scritte nei tribunali americani, nei post su X dei segretari alla Difesa e nelle sale riunioni di aziende che valgono più del PIL di molti stati membri.