Per qualcuno è il futuro del cinema... Google ha rilasciato Nano Banana 2, che sembrava destinato a prendersi il suo momento di gloria (un po’ come il caro Sal Da Vinci), ma poi è arrivata la notizia che ha spostato tutto il resto ai margini del palco: OpenAI ha detto SÌ al Pentagono.
OpenAI dice sì al Pentagono
Partiamo dal fatto che ha acceso il dibattito di questi giorni. OpenAI ha annunciato un accordo con il Dipartimento della Difesa degli Stati Uniti, ribattezzato dall’amministrazione Trump "Department of War" (ed è tutto dire), per portare i propri modelli di intelligenza artificiale all’interno delle reti militari classificate.
L’annuncio è arrivato direttamente da Sam Altman su X, con una frase che ha fatto subito il giro del mondo: "Tonight, we reached an agreement with the Department of War to deploy our models in their classified network."
Naturalmente la notizia ha sollevato un’ondata di critiche. Altman ha quindi iniziato a rispondere direttamente agli utenti, spiegando che OpenAI ha chiesto di inserire alcune clausole molto precise nell’accordo. La prima riguarda la sorveglianza dei cittadini: i modelli non potranno essere utilizzati per sistemi di sorveglianza domestica contro persone negli Stati Uniti (e per quelle degli altri stati?).
La seconda è forse ancora più importante: la responsabilità umana e il no alle armi completamente autonome.
La terza riguarda l’intelligence: secondo quanto dichiarato da Altman, l’accordo non include l’uso dei modelli da parte di agenzie come la NSA (National Security Agency), che richiederebbe un contratto separato.
Se queste esclusioni vi sembrano familiari, è perchè sono le stesse che hanno invece fatto saltare l’accordo con Anthropic. Che cosa cambia? Secondo Altman, meglio partecipare cercando di imporre limiti e guardrail etici, piuttosto che rifiutare a priori e lasciare completamente lo sviluppo ai militari. Due strategie opposte, due filosofie diverse su come affrontare il rapporto tra AI e geopolitica.
Sam è uno molto attivo su X...
La reazione degli utenti (e la domanda che vi chiedete in tanti)
Dopo l’annuncio dell’accordo tra OpenAI e il Dipartimento della Difesa, la reazione degli utenti è stata immediata. Negli Stati Uniti le disinstallazioni dell’app mobile di ChatGPT sono aumentate del 295% in un solo giorno, un salto enorme se pensiamo che negli ultimi trenta giorni il tasso medio giornaliero di uninstall era intorno al 9%.
La protesta si è vista anche nelle recensioni. Le valutazioni da una stella sono cresciute del 775%, mentre quelle da cinque stelle sono diminuite della metà. Una specie di referendum digitale: invece di scrivere un editoriale o un tweet, molti utenti hanno semplicemente cancellato l’app.
E nel frattempo è successo qualcosa di interessante dall’altra parte del mercato. L’app Claude di Anthropic, l’azienda che ha deciso di non firmare l’accordo con il Pentagono, ha registrato un forte aumento dei download negli Stati Uniti: +37% venerdì e +51% sabato. Sabato Claude ha raggiunto il primo posto nell’App Store statunitense e, secondo i dati di Appfigures, nello stesso giorno ha superato ChatGPT nei download giornalieri negli USA.
Dobbiamo disinstallare ChatGPT?
La risposta, come spesso accade quando si parla di tecnologia e geopolitica, è meno semplice di quanto sembri. Il "no" di Anthropic non è necessariamente un rifiuto definitivo della tecnologia militare, piuttosto, è un "no tecnico e temporaneo" ovvero oggi i sistemi di intelligenza artificiale non sono abbastanza affidabili per prendere decisioni di vita o di morte.
Il "no" di Anthropic non è una posizione etica universale, ma piuttosto un "no nazionalistico", l’azienda sostiene di voler proteggere i sistemi democratici americani da certi usi dell’Intelligenza Artificiale. Nel frattempo noi europei osserviamo il dibattito da spettatori. Le direzioni etiche globali non vengono decise dalle aziende, vengono decise dai governi, dalle leggi e dagli equilibri geopolitici.
L’app Claude di Anthropic ha registrato un forte aumento dei download dopo l'annuncio del rifiuto al Pentagono. Qui la news.
La vera guerra è l’infrastruttura
Nelle settimane delle trimestrali si vede benissimo la doppia narrazione tipica delle Big Tech: da una parte il messaggio "siamo solidi e stiamo investendo per il futuro", dall’altra "dobbiamo stringere la cinghia e diventare più efficienti". Su Amazon il contrasto è chiarissimo: mentre conferma nuovi tagli, l’azienda comunica un salto enorme negli investimenti: capex 2026 stimato a 200 miliardi di dollari per costruire infrastrutture legate all’Intelligenza Artificiale e ai data center.
Alphabet/Google ha messo sul tavolo una forchetta di 175–185 miliardi di capex nel 2026. Nel frattempo, sul fronte lavoro, si continuano a tagliare organici per proteggere i margini nel breve periodo.
Sundar Pichai, CEO di Alphabet, ha dichiarato che la spesa in conto capitale potrebbe raddoppiare quest'anno per avanzare nella corsa all'IA. Qui la news.
Sipario e Conclusioni
Se l’Intelligenza Artificiale diventa infrastruttura strategica, allora diventa potere. E se diventa potere, allora è normale che finisca tra le pagine di accordi militari, contratti governativi, in un lessico che assomiglia sempre meno a "innovazione" e sempre più a "sicurezza nazionale".
In questo mondo, l’app che usiamo ogni giorno è solo la superficie, mentre sotto, si sta decidendo chi avrà le chiavi di accensione del mondo che sta arrivando.
I Nostri Podcast
Ascolti Podcast? Allora ci vediamo, anzi, ci ascoltiamo su tutte le piattaforme audio con il nostro Podcast: Intelligenza Artificiale Spiegata Semplice.
E c'è anche Two Humans in The Loop, il podcast dove si parla di Intelligenza Artificiale e Umanità.
Incontriamoci qui
- AI WEEK - Settimana dell'Intelligenza Artificiale