Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Black Friday

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Cos’è la sostenibilità digitale e a che punto sono le PMI italiane Cos’è la sostenibilità digitale e a che punto sono le PM...
Immagine di Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk? Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?...

Microsoft guida l'economia dei prompt in azienda

L'intelligenza artificiale agente spinge le grandi aziende a riorganizzarsi. Microsoft punta a diventare una "frontier AI firm" ridefinendo flussi di lavoro.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 17/11/2025 alle 14:56

La notizia in un minuto

  • Microsoft si trasforma in "frontier AI firm", riorganizzando l'intera struttura aziendale attorno a sistemi di intelligenza artificiale agente capaci di decisioni autonome e azioni complesse
  • L'AI agente richiede framework di controllo completamente nuovi per gestire rischi come bias algoritmico, disallineamento degli obiettivi e fallimenti a cascata nei sistemi interconnessi
  • L'implementazione richiede un equilibrio tra sperimentazione rapida e guardrail solidi, con implicazioni profonde su governance, responsabilità legale e impatto occupazionale su funzioni che richiedevano giudizio umano
Riassunto generato con l'IA. Potrebbe non essere accurato.

Microsoft ha annunciato la scorsa settimana di voler diventare una "frontier AI firm", riorganizzando i propri flussi di lavoro intorno a sistemi digitali sempre più autonomi. Si tratta di una trasformazione che coinvolge non solo la tecnologia, ma l'intera cultura aziendale, con implicazioni profonde per governance, sicurezza e gestione del rischio.

Il fenomeno solleva interrogativi urgenti sul piano della responsabilità operativa e della supervisione. Mentre l'automazione tradizionale sostituiva compiti ripetitivi, l'AI agente interpreta contesti complessi, scompone obiettivi articolati ed esegue azioni con margini di discrezionalità significativi. Questo salto qualitativo richiede framework di controllo completamente nuovi, come evidenziato da EY in un'analisi recente che introduce una scala di "agenticness" basata su complessità degli obiettivi ed esecuzione indipendente. I rischi spaziano dal bias algoritmico al disallineamento degli obiettivi, fino a potenziali fallimenti a cascata nei sistemi interconnessi.

Microsoft Digital, l'organizzazione IT interna del colosso di Redmond, sta fungendo da laboratorio per questa trasformazione. L'approccio prevede una segmentazione strutturata dei tipi di agenti, permessi basati sui ruoli per la loro creazione e programmi di change management multilivello che includono formazione, adozione guidata dalla comunità e cicli di feedback continui. Brian Fielder, vicepresidente di Microsoft Digital, ha sottolineato come "il futuro dell'IT riguardi sempre più la sperimentazione e l'adattamento alle tecnologie AI in accelerazione", rivendicando un ruolo di pioniere nella validazione di casi d'uso e modelli di governance.

Il futuro dell'IT è sempre più una questione di sperimentazione e adattamento alle tecnologie AI in accelerazione

La società di Redmond ha definito una roadmap che parte dall'assistenza AI semplice per arrivare a flussi di lavoro guidati da umani ma operati da agenti, dove i lavoratori digitali eseguono processi aziendali con autonomia crescente. L'iniziativa poggia su tre pilastri: governance responsabile dei dati, standard chiari per la costruzione di agenti e metodi di miglioramento continuo che identificano processi ad alto valore pronti per l'automazione. La componente culturale emerge come critica quanto quella tecnica: programmi interni come la Copilot Champs Community e eventi formativi hanno accelerato lo sviluppo delle competenze, mentre framework di misurazione coprono produttività, sicurezza, risparmi sui costi ed esperienza cliente.

Sul fronte applicativo, HealthEquity, società specializzata in conti di risparmio sanitario, sta introducendo un sistema di AI conversazionale sviluppato con Parloa. La soluzione comprende intenzioni, mantiene contesto su interazioni multi-turno ed esegue azioni in tempo reale per conto dei membri, sostituendo i tradizionali menu di supporto con conversazioni naturali disponibili tramite voce, chat su app mobile e web. Il rollout inizierà con un rilascio limitato a fine 2025, espandendosi nel 2026 attraverso un processo iterativo basato sul feedback degli utenti. Mike Gathright, Chief Customer Officer di HealthEquity, ha inquadrato l'investimento nel contesto della sensibilità richiesta da healthcare e finanza personale.

La sanità è personale, il denaro è personale: stiamo costruendo questa soluzione di AI agente con l'empatia al centro

L'analisi di EY introduce un framework che distingue l'AI agente dalle generazioni precedenti di automazione e AI generativa. Due capacità primarie definiscono il concetto di "agenticness": complessità degli obiettivi ed esecuzione indipendente, supportate da quattro caratteristiche secondarie come adattabilità e complessità ambientale. Questa classificazione colloca i sistemi agenti in una nuova porzione dello spettro tecnologico, con casi d'uso che spaziano da agenti di ricerca multi-step a strumenti di coding autonomo. La maggiore autonomia operativa impone controlli preventivi e detective più robusti: supervisione rafforzata, test espansi, monitoraggio degli incidenti e valutazioni tecniche approfondite come stress test, verifiche di robustezza avversariale e analisi di sensibilità delle funzioni di ricompensa.

Il messaggio centrale che emerge dalle iniziative di Microsoft, HealthEquity ed EY converge su un punto: l'implementazione di AI agenti richiede un equilibrio delicato tra sperimentazione rapida e guardrail sufficientemente solidi da mantenere fiducia, sicurezza e resilienza operativa. La velocità con cui si sta sviluppando questa "economia del prompt" rende complesso valutare le curve di maturità, ma le grandi organizzazioni stanno già ridefinendo processi core e strutture di governance per integrare questi sistemi come infrastruttura portante.

Le aziende devono rafforzare i propri ambienti di controllo ora per sbloccare in sicurezza il potenziale dell'AI agente e mantenere un vantaggio competitivo

Resta aperto il nodo della sostenibilità di lungo periodo di questo modello. L'automazione crescente di decisioni complesse solleva questioni sulla trasparenza degli algoritmi, sulla responsabilità legale in caso di errori e sull'impatto occupazionale su funzioni professionali che finora richiedevano giudizio umano. Mentre le corporation testano i confini dell'autonomia artificiale, il quadro normativo fatica a tenere il passo, lasciando alle singole organizzazioni il compito di definire standard etici e operativi in un terreno ancora largamente inesplorato.

Fonte dell'articolo: www.pymnts.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Extra risparmio su Aliexpress: torna lo sconto speciale con PayPal
  • #2
    Sconti record BLUETTI! Fino al 73% e regali imperdibili
  • #3
    L'IA è una bolla che non scoppia? E quando arriva l'AGI?
  • #4
    Il ransomware è diventato un problema sistemico
  • #5
    Smettiamo di idolatrare Hideo Kojima, grazie
  • #6
    Quantum computing, c’è un salto storico
Articolo 1 di 5
Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?
Elon Musk lancia Grokipedia, che copia da Wikipedia ma promette obiettività. Gli utenti la ribattezzano "Copipedia" per i contenuti duplicati e i bias evidenti verso le idee di Musk.
Immagine di Ci si può fidare di Grokipedia, l'enciclopedia IA di Musk?
1
Leggi questo articolo
Articolo 2 di 5
Cos’è la sostenibilità digitale e a che punto sono le PMI italiane
La trasformazione digitale delle imprese italiane è un processo in corso, che include il concetto di sostenibilità digitale, un tema divenuto centrale a livello europeo ed internazionale.
Immagine di Cos’è la sostenibilità digitale e a che punto sono le PMI italiane
Leggi questo articolo
Articolo 3 di 5
Copia e incolla di codice vulnerabile, ci cascano praticamente tutti
Un team di ricercatori scopre vulnerabilità critiche nei framework di inferenza AI di Meta, Nvidia e Microsoft, causate dalla copia di codice non sicuro.
Immagine di Copia e incolla di codice vulnerabile, ci cascano praticamente tutti
Leggi questo articolo
Articolo 4 di 5
L'IA procede alla cieca, l'osservabilità reale deve connettere infrastruttura e modelli
Il successo dell'IA non dipende solo dai modelli, ma da un'infrastruttura performante e resiliente. Fondamentale è l'osservabilità, per connettere le metriche infrastrutturali al comportamento reale dei modelli.
Immagine di L'IA procede alla cieca, l'osservabilità reale deve connettere infrastruttura e modelli
1
Leggi questo articolo
Articolo 5 di 5
Chi guadagna di più usa di più l'intelligenza artificiale
L'intelligenza artificiale divide i lavoratori: chi guadagna di più abbraccia la tecnologia con entusiasmo, mentre altri temono di perdere il posto di lavoro.
Immagine di Chi guadagna di più usa di più l'intelligenza artificiale
1
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.