Il mercato dei PC equipaggiati con unità di elaborazione neurale (NPU) ha raggiunto una pietra miliare significativa, con oltre 100 milioni di sistemi distribuiti globalmente secondo le stime di Intel. Tom Petersen, figura di spicco dell'azienda con il titolo di fellow, ha confermato il dato durante un intervento pubblico, evidenziando come la diffusione di processori dotati di capacità di intelligenza artificiale locale stia trasformando radicalmente il panorama hardware. Tuttavia, dietro i numeri impressionanti si nasconde una questione fondamentale che divide l'industria: questi trilioni di operazioni al secondo (TOPS) dedicati all'AI rappresentano davvero un valore aggiunto per gli utenti, oppure rimangono risorse latenti in attesa di un ecosistema software maturo?
La cifra comunicata da Intel, definita "leggermente superiore" ai 100 milioni di unità, riflette principalmente la massiccia quota di mercato del produttore di Santa Clara nel settore dei processori per PC. Negli ultimi due anni, praticamente tutte le CPU consumer di Intel hanno integrato NPU dedicate, dalla serie Core Ultra (nome in codice Meteor Lake) in poi, passando per le generazioni successive. Questa strategia di integrazione sistematica ha portato le unità neurali a diventare uno standard de facto nei notebook e nei desktop di fascia media e alta, indipendentemente dalla reale domanda degli utenti finali.
Petersen ha tracciato un parallelo storico illuminante con l'evoluzione delle unità in virgola mobile (FPU) nei processori. "Per decenni le unità di calcolo floating point sono rimaste praticamente dormienti all'interno dei PC, poi improvvisamente sono diventate indispensabili", ha spiegato il dirigente Intel. Il paragone suggerisce che l'azienda sta adottando un approccio proattivo, integrando l'hardware necessario prima che il software raggiunga la maturità necessaria per sfruttarlo pienamente. Una filosofia riassumibile nel classico "costruiscilo e loro verranno", che però presenta rischi evidenti in termini di costi di produzione e percezione del valore da parte dei consumatori.
Il vero catalizzatore per l'adozione dell'AI locale, secondo Petersen, sarà Microsoft Copilot+ e l'ecosistema di applicazioni che ne deriverà. La piattaforma software di Redmond richiede infatti un minimo di 40 TOPS di capacità elaborativa combinata tra NPU e GPU per abilitare le funzionalità avanzate, un requisito che ha spinto tutti i principali produttori di chip a potenziare le specifiche delle proprie soluzioni. Intel punta sul fatto che quando Copilot+ diventerà più utile e diffuso, sfruttando sia l'unità neurale che la GPU integrata, la presenza di queste risorse computazionali si rivelerà determinante per l'esperienza utente.
Tuttavia, i dati di mercato raccontano una storia diversa. Dell, uno dei maggiori produttori mondiali di PC, ha recentemente dichiarato che i consumatori non stanno acquistando in base alle capacità AI dei sistemi. L'affermazione conferma i sospetti di molti analisti: i 100 milioni di PC con NPU rappresentano più una conseguenza dell'onnipresenza di Intel nel mercato che una scelta consapevole degli utenti. I PC continuano a vendersi in grandi quantità per motivi tradizionali come prestazioni generali, autonomia, design e prezzo, mentre le funzionalità AI rimangono un elemento secondario nelle decisioni d'acquisto.
Petersen stesso ha posto la questione critica: "Avete tutti questi ZOPS disponibili, ma sono davvero utili?". L'acronimo ZOPS (Zettascale Operations Per Second) rappresenta l'evoluzione terminologica di TOPS, introducendo una nuova unità di misura per quantificare le capacità elaborative aggregate dell'ecosistema AI.
Per il mercato europeo, la diffusione dei PC con NPU solleva questioni specifiche legate all'efficienza energetica e ai costi operativi. Le normative comunitarie sempre più stringenti sul consumo energetico dei dispositivi elettronici potrebbero favorire l'adozione di elaborazione AI locale rispetto alle soluzioni cloud, riducendo il trasferimento dati e l'impatto ambientale complessivo. Inoltre, il quadro normativo del GDPR rende particolarmente attraente l'elaborazione on-device per applicazioni che gestiscono dati sensibili, senza necessità di inviarli a server remoti.
Le prospettive future dipenderanno dalla capacità degli sviluppatori software di creare applicazioni che sfruttino concretamente le NPU. Attualmente, oltre a Copilot+ di Microsoft, poche applicazioni mainstream utilizzano pienamente queste risorse. Adobe ha iniziato a integrare funzionalità AI accelerate da NPU in alcune versioni di Creative Suite, mentre sviluppatori di software per editing video stanno esplorando l'accelerazione di funzioni come upscaling e rimozione sfondo. La competizione con AMD e i suoi processori Ryzen AI, insieme all'ingresso di Qualcomm nel mercato PC con i SoC Snapdragon X Elite dotati di potenti NPU, spingerà probabilmente l'ecosistema software a evolversi più rapidamente nei prossimi 12-18 mesi.