Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Editor's Choice
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Anthropic fa causa al Pentagono: la guerra dell'AI tra etica, miliardi e armi autonome
Business
Immagine di L'AI vuole tutta la corrente del mondo, ed è un problema L'AI vuole tutta la corrente del mondo, ed è un problema...
Immagine di Un nuovo chip demolisce le prestazioni di Nvidia H200 Un nuovo chip demolisce le prestazioni di Nvidia H200...

Anthropic fa causa al Pentagono: la guerra dell'AI tra etica, miliardi e armi autonome

Anthropic ha citato in giudizio il Dipartimento della Difesa USA dopo essere stata etichettata come rischio per la supply chain. I danni commerciali sono già reali: contratti sospesi, clienti in fuga e 150 milioni di ricavi pubblici a rischio. Quasi 40 dipendenti di OpenAI e Google, incluso Jeff Dean, si schierano a suo favore.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 10/03/2026 alle 15:41
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il braccio di ferro tra Anthropic e il Pentagono è diventato una battaglia legale. L'azienda che produce Claude ha citato in giudizio il Dipartimento della Difesa degli Stati Uniti — ribattezzato dall'amministrazione Trump "Department of War" — dopo essere stata etichettata come "supply chain risk", una designazione normalmente riservata a entità straniere considerate una minaccia per la sicurezza nazionale.

I fatti

Anthropic ha depositato due cause. La prima, presso un tribunale federale di San Francisco, accusa il governo di aver violato il diritto alla libertà di espressione dell'azienda (Primo Emendamento) e il diritto a un processo equo (Quinto Emendamento). La seconda, presso la corte d'appello federale di Washington, denuncia discriminazione e ritorsione da parte del Dipartimento della Difesa.

Secondo Anthropic il governo l'ha punita per aver posto due "linee rosse" sull'uso militare della propria tecnologia — no alla sorveglianza di massa domestica e no alle armi letali completamente autonome (sistemi AI con il potere di uccidere senza intervento umano).

Anthropic sostiene che il governo federale l'ha punita per aver espresso una posizione pubblica sulla sicurezza dell'AI — in violazione del Primo Emendamento.

Il danno economico: già centinaia di milioni

I documenti depositati in tribunale dal CFO di Anthropic, Krishna Rao, rivelano numeri che l'azienda non aveva mai reso pubblici. Le vendite complessive di Anthropic dalla commercializzazione nel 2023 superano i 5 miliardi di dollari. L'azienda ha speso oltre 10 miliardi per addestrare e distribuire i propri modelli, e resta profondamente in perdita.

L'impatto della designazione è già concreto, secondo quanto riportato da Wired:

  • Un cliente nel settore finanziario ha sospeso una trattativa da 15 milioni di dollari
  • Due grandi società finanziarie rifiutano di chiudere contratti per un totale di 80 milioni a meno di ottenere il diritto di cancellazione unilaterale
  • Una catena di supermercati ha cancellato un incontro commerciale citando la designazione
  • Un'azienda farmaceutica vuole accorciare il contratto di 10 mesi
  • Una "Fortune 20 company" ha comunicato che i propri legali erano "terrorizzati" dal mantenere la relazione
  • Aziende nel settore healthcare e cybersecurity hanno ritirato comunicati stampa congiunti
  • I ricavi pubblici previsti per il 2026 — oltre 500 milioni di dollari — rischiano un taglio di 150 milioni

"Tutti hanno preso misure che riflettono una profonda sfiducia e una paura crescente di essere associati ad Anthropic", ha scritto il chief commercial officer Paul Smith nei documenti del tribunale.

Il contesto: come si è arrivati qui

La vicenda è esplosa nelle settimane precedenti. Anthropic stava negoziando un contratto militare con il Pentagono, ma ha rifiutato di concedere l'uso della propria tecnologia per sorveglianza di massa e armi autonome. Il segretario alla Difesa Pete Hegseth ha risposto con la designazione di supply chain risk e un post su X che andava oltre il dettato legale: "Nessun contractor, fornitore o partner che lavora con le forze armate degli Stati Uniti può avere rapporti commerciali con Anthropic".

L'ironia è che Claude era già integrato nelle operazioni del Pentagono — il primo modello AI autorizzato per l'intelligence classificata. Secondo The Verge, poche ore dopo l'annuncio della designazione, l'esercito americano avrebbe usato Claude nella campagna che ha portato all'eliminazione del leader iraniano Ayatollah Ali Khamenei.

Poche ore dopo aver dichiarato Anthropic un "rischio", l'esercito USA avrebbe usato Claude nell'operazione che ha ucciso il leader dell'Iran.

40 dipendenti di OpenAI e Google si schierano con Anthropic

La risposta più significativa non è arrivata dai competitor, ma dai loro dipendenti. Quasi 40 ingegneri e ricercatori di OpenAI e Google — incluso Jeff Dean, chief scientist e responsabile di Gemini — hanno depositato un amicus brief a supporto della causa di Anthropic.

Il gruppo si è descritto come "ingegneri, ricercatori, scienziati e professionisti impiegati nei laboratori di AI di frontiera statunitensi" che si esprimono "non come portavoce di una singola azienda, ma a titolo individuale, come professionisti con conoscenza diretta di ciò che questi sistemi possono e non possono fare".

I punti sollevati nell'amicus brief sono tecnici e precisi:

  • Sorveglianza di massa: i dati sui cittadini americani esistono ovunque — telecamere, geolocalizzazione, social media, transazioni finanziarie. Ciò che non esiste ancora è "lo strato AI che trasforma questo panorama frammentato in un apparato di sorveglianza unificato e in tempo reale". L'AI potrebbe combinare riconoscimento facciale, cronologia delle posizioni, transazioni, grafi sociali e pattern comportamentali su centinaia di milioni di persone simultaneamente.
  • Armi letali autonome: i sistemi AI sono inaffidabili in condizioni nuove o ambigue, "non possono identificare i bersagli con perfetta precisione" e sono incapaci dei "compromessi contestuali sottili tra raggiungimento dell'obiettivo e considerazione degli effetti collaterali che un umano può fare". Il rischio di allucinazione rende essenziale il coinvolgimento umano "prima che un ordigno letale venga lanciato contro un bersaglio umano".

La reazione del mercato: Microsoft e Amazon restano, il governo se ne va

Microsoft e Amazon hanno comunicato che continueranno a offrire i prodotti Anthropic ai propri clienti, separando questa attività dal lavoro con il Pentagono. Ma il settore pubblico si sta muovendo nella direzione opposta: la General Services Administration ha terminato il contratto OneGov, chiudendo l'accesso ad Anthropic per tutte e tre le branche del governo federale. Il Dipartimento del Tesoro e il Dipartimento di Stato hanno comunicato l'intenzione di cessare l'uso.

Il Pentagono ha rifiutato di commentare le cause e non ha risposto alle richieste di commento sulle pressioni esercitate su startup che usano Claude.

Microsoft e Amazon restano con Anthropic. Il governo federale americano sta uscendo.

Perché questa vicenda riguarda tutti

La battaglia Anthropic-Pentagono stabilisce un precedente su cosa succede quando un'azienda tecnologica dice "no" al governo più potente del mondo — e il governo risponde cercando di distruggerla economicamente. Sì perché nessuno può credere veramente che Anthropic rappresenti un rischio; semplicemente, metterle quell'etichetta addosso è un'arma finanziari. Un'arma molto efficace, come si può vedere dal numero di accordi cancellati. 

Se le cose vanno avanti così, qualsiasi azienda AI che ponga condizioni sull'uso militare della propria tecnologia saprà che rischia lo stesso trattamento. Se la situazione viene ribaltata in tribunale, si stabilisce che le aziende hanno il diritto di porre limiti etici senza ritorsioni commerciali.

Per l'Europa, la vicenda è un promemoria: le regole sull'uso militare dell'AI non vengono scritte a Bruxelles. Vengono scritte nei tribunali americani, nei post su X dei segretari alla Difesa e nelle sale riunioni di aziende che valgono più del PIL di molti stati membri.

Le notizie più lette

#1
L'AI vuole tutta la corrente del mondo, ed è un problema
6

Business

L'AI vuole tutta la corrente del mondo, ed è un problema

#2
Nuovo driver NVMe Windows: prestazioni migliorate del 65%

Hardware

Nuovo driver NVMe Windows: prestazioni migliorate del 65%

#3
Intel mostrerà le CPU Arrow Lake Refresh la prossima settimana
4

Hardware

Intel mostrerà le CPU Arrow Lake Refresh la prossima settimana

#4
Sony testa i prezzi dinamici sul PlayStation Store
1

Videogioco

Sony testa i prezzi dinamici sul PlayStation Store

#5
Star Wars FOTOR: scelto il nuovo art director

Videogioco

Star Wars FOTOR: scelto il nuovo art director

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Un nuovo chip demolisce le prestazioni di Nvidia H200
2

Business

Un nuovo chip demolisce le prestazioni di Nvidia H200

Di Valerio Porcu
L'AI vuole tutta la corrente del mondo, ed è un problema
6

Business

L'AI vuole tutta la corrente del mondo, ed è un problema

Di Valerio Porcu
Claude trova 22 falle in Firefox in due settimane

Business

Claude trova 22 falle in Firefox in due settimane

Di Valerio Porcu
Anthropic lancia il Claude Marketplace

Business

Anthropic lancia il Claude Marketplace

Di Valerio Porcu
Generazione video, ecco il nuovo strumento gratis di Meta

Business

Generazione video, ecco il nuovo strumento gratis di Meta

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.