Microsoft ha annunciato Copilot Cowork, una nuova funzionalità agentica integrata in Microsoft 365 Copilot e costruita in collaborazione diretta con Anthropic. La novità è il pezzo centrale del "Wave 3" di Microsoft 365 Copilot — un aggiornamento di piattaforma che porta anche i modelli Claude nella chat principale di Copilot e introduce nuovi livelli di prezzo enterprise.
Il principio è semplice: l'utente descrive il risultato che vuole ottenere, e Cowork costruisce un piano, lo esegue in background e consegna il lavoro finito. Non è un chatbot: è un agente che opera trasversalmente su Outlook, Teams, Excel, PowerPoint e SharePoint, attingendo a email, riunioni, messaggi, file e dati — tutto quello che Microsoft chiama "Work IQ".
Come funziona nella pratica
Microsoft ha mostrato quattro scenari concreti:
- Pulizia del calendario: Cowork analizza la settimana in Outlook, individua conflitti e riunioni a basso valore, propone modifiche. Dopo l'approvazione, accetta, declina o riprogramma gli appuntamenti e inserisce blocchi di concentrazione.
- Preparazione riunioni: raccoglie input da email, messaggi e file, produce un documento di briefing, un'analisi di supporto e un deck per il cliente, programma il tempo di preparazione nel calendario e bozza l'email di aggiornamento.
- Ricerca aziendale: aggrega report finanziari, documenti SEC, commenti degli analisti e notizie, producendo un executive summary, un memo strutturato con fonti e un workbook Excel con tab separate.
- Lancio prodotto: costruisce un confronto competitivo in Excel, distilla la value proposition in un documento, genera un pitch deck e delinea milestone e responsabilità.
In tutti i casi, Cowork chiede chiarimenti quando serve e aspetta l'approvazione prima di applicare modifiche. L'utente mantiene il controllo, ma non deve fare il lavoro manuale.
Claude dentro Microsoft: una scelta di campo
Il fatto che Microsoft abbia scelto la tecnologia di Anthropic — e non quella di OpenAI, suo partner storico e partecipata — per la funzionalità più ambiziosa di Wave 3 non è un dettaglio. Il blog ufficiale di Microsoft lo dice esplicitamente: "Working closely with Anthropic, we have integrated the technology behind Claude Cowork into Microsoft 365 Copilot".
La strategia dichiarata è il multi-model: Copilot non dipende da un singolo fornitore di modelli, ma sceglie il più adatto per ogni task. Nella pratica, però, Copilot Cowork è costruito sulla stessa architettura di Claude Cowork — il prodotto desktop di Anthropic che in gennaio e febbraio ha provocato un crollo di 285 miliardi di dollari nei titoli del software enterprise, quando gli investitori hanno capito che poteva sostituire funzionalità di project management, data analysis e workflow automation.
Claude Cowork vs Copilot Cowork: stessa filosofia, mondi diversi
Le due versioni condividono il DNA ma operano in contesti radicalmente diversi:
Claude Cowork è un agente desktop. Vive sulla macchina dell'utente (prima Mac, ora Windows), opera su cartelle locali e si connette a servizi esterni tramite plugin e connettori MCP — Google Drive, Slack, DocuSign, Salesforce. La sicurezza dipende dal sandboxing locale e dal giudizio dell'utente. È disponibile come app a tutti gli utenti Claude, a partire dall'abbonamento Pro.
Copilot Cowork opera nel cloud, dentro l'infrastruttura di Microsoft 365, e accede al grafo completo dei dati di lavoro: thread email, conversazioni Teams, cronologia calendario, file SharePoint e le relazioni tra tutti questi elementi. Le policy di identità, permessi e compliance si applicano automaticamente. Ogni azione è tracciabile.
Per le grandi aziende già immerse nell'ecosistema Microsoft 365 — e sono la maggioranza — il vantaggio è un agente AI che comprende già il contesto organizzativo e opera dentro i confini di sicurezza esistenti. Claude Cowork resta più interessante per chi lavora con stack eterogenei e vuole controllo granulare.
Il pacchetto completo: E7, Agent 365, nuovi prezzi
L'annuncio di Copilot Cowork arriva insieme a un riassetto commerciale importante:
- Microsoft 365 E7 "Frontier Suite": unifica E5, Copilot e Agent 365 in un'unica licenza a $99 per utente/mese (disponibile dal 1° maggio 2026). Include Entra Suite, Defender avanzato, Intune e Purview.
- Agent 365: piattaforma di controllo per agenti AI aziendali, a $15 per utente/mese dal 1° maggio. Permette a IT e sicurezza di osservare, governare e gestire tutti gli agenti dell'organizzazione da un unico punto. Microsoft internamente ha già 500.000 agenti censiti, che generano oltre 65.000 risposte al giorno per i dipendenti.
- Numeri: i posti Copilot a pagamento sono cresciuti del 160% anno su anno, l'uso attivo giornaliero è aumentato di 10 volte, il 90% delle Fortune 500 usa Copilot. Tra i clienti recenti: Mercedes-Benz (rollout globale), NASA, ING, Fiserv.
Copilot Cowork è attualmente in Research Preview con un numero limitato di clienti e sarà disponibile più ampiamente nel programma Frontier a fine marzo 2026.
Il problema che Microsoft non vuole vedere: Copilot e la sicurezza
Mentre Microsoft annuncia "Intelligence + Trust" come pilastri della Frontier Suite, Copilot ha un problema ricorrente con la sicurezza dei dati aziendali. Per la seconda volta in otto mesi, l'assistente AI ha letto e sintetizzato email classificate come confidenziali, ignorando le etichette di riservatezza che avrebbero dovuto impedirgli l'accesso.
L'episodio risale al 21 gennaio 2026 e si è protratto per quattro settimane. Le policy di Data Loss Prevention non hanno intercettato la violazione. Nessun allarme è stato generato. Tra le organizzazioni coinvolte, il National Health Service del Regno Unito — un sistema sanitario con obblighi stringenti sulla protezione dei dati dei pazienti.
Non è un caso isolato: Già nel giugno 2025, Microsoft aveva corretto una vulnerabilità critica zero-click (CVE-2025-32711, punteggio CVSS 9,3) che permetteva di aggirare le protezioni di Copilot per sottrarre silenziosamente dati aziendali. Quando un sistema di AI generativa interagisce con dati protetti, i meccanismi di sicurezza tradizionali possono rompersi in modo silenzioso. E il fatto che accada più di una volta trasforma un bug in una fragilità strutturale.
Il contrasto tra il messaggio commerciale — "trust by default" — e la realtà operativa è il punto debole della narrazione Microsoft.
Il contesto: Anthropic tra causa legale, partnership e nuovi prodotti
L'annuncio arriva in un momento di massima tensione per Anthropic. Mentre collabora con Microsoft su Copilot Cowork, l'azienda ha fatto causa al Dipartimento della Difesa per essere stata designata come "supply chain risk" — un'etichetta normalmente riservata a entità straniere considerate una minaccia per la sicurezza nazionale. Anthropic sostiene che il governo l'ha punita per aver posto "linee rosse" sulla sorveglianza di massa e sulle armi completamente autonome, violando il Primo e il Quinto Emendamento.
Le conseguenze sono già concrete: la General Services Administration ha terminato il contratto OneGov, chiudendo l'accesso ai servizi Anthropic per tutte e tre le branche del governo federale. Il Dipartimento del Tesoro e il Dipartimento di Stato hanno comunicato l'intenzione di cessare l'uso dei prodotti Anthropic. Quasi 40 dipendenti di OpenAI e Google, incluso Jeff Dean (chief scientist di DeepMind), hanno depositato un amicus brief a supporto della causa.
Microsoft, dal canto suo, ha dichiarato che continuerà a lavorare con Anthropic, predisponendo processi per separare questa collaborazione dal proprio lavoro con il Pentagono.
Nel frattempo, Anthropic non sta ferma. Ha appena lanciato Code Review, un tool integrato in Claude Code che usa agenti multipli in parallelo per analizzare le pull request e individuare bug logici prima che entrino nel codebase. Il prodotto è pensato per i clienti enterprise — Uber, Salesforce, Accenture — che usano già Claude Code e si trovano sommersi dal volume di codice generato dall'AI. Il run-rate revenue di Claude Code ha superato i 2,5 miliardi di dollari dal lancio, e le sottoscrizioni enterprise sono quadruplicate dall'inizio dell'anno.
Anthropic si trova in una posizione paradossale: da una parte viene bandita dal governo federale americano, dall'altra la sua tecnologia alimenta la funzionalità enterprise più ambiziosa di Microsoft e il suo business commerciale cresce a ritmi esplosivi. La partita non è sull'etica in astratto — è su chi controlla l'infrastruttura AI del lavoro.