Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Edge AI: ora serve più calcolo locale intelligente
Business
Immagine di Data center, investimenti record da 3.000 miliardi Data center, investimenti record da 3.000 miliardi...
Immagine di Moltbot, il creatore entra nel team OpenAI Moltbot, il creatore entra nel team OpenAI...

Edge AI: ora serve più calcolo locale intelligente

L'IA si sposta dal cloud ai dispositivi locali grazie a modelli compatti, framework leggeri, hardware specializzato e innovazioni per edge computing.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 20/01/2026 alle 09:46

La notizia in un minuto

  • Il mercato dell'AI distribuita raggiungerà 143 miliardi di dollari entro il 2034, con il settore manifatturiero in prima linea dove il 95% dei produttori investirà in soluzioni AI nei prossimi cinque anni
  • L'edge computing offre vantaggi economici significativi con risparmi energetici fino al 75% e riduzioni dei costi superiori all'80% rispetto al cloud, oltre a garantire maggiore privacy per settori regolamentati come sanità e finanza
  • Una strategia ibrida cloud-edge emerge come approccio ottimale grazie ai modelli linguistici compatti, tecniche di quantizzazione e framework come OpenVINO, nonostante le pratiche operative siano ancora in fase embrionale

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il mercato globale dell'intelligenza artificiale distribuita sta attraversando una fase di espansione senza precedenti, con previsioni che indicano un valore di 143 miliardi di dollari entro il 2034. Questa crescita riflette un cambiamento nel modo in cui le aziende e i consumatori concepiscono l'utilizzo pratico dell'AI, spostandosi dalla fase di addestramento dei modelli a quella dell'inferenza operativa. La trasformazione in atto vede l'AI uscire dai confini protetti del cloud centralizzato per raggiungere dispositivi periferici, server locali e terminali distribuiti ai margini della rete.

Il settore manifatturiero rappresenta uno degli ambiti più fertili. Secondo Rockwell Automation, il 95% dei produttori ha già investito o prevede di investire in soluzioni di intelligenza artificiale e machine learning nei prossimi cinque anni. Non si tratta solo di entusiasmo tecnologico: il 74% dei leader del comparto ritiene che l'AI possa contribuire concretamente alla crescita dei ricavi, come emerge da un rapporto CIO sponsorizzato da Intel nel 2024.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Le motivazioni economiche dietro questa migrazione verso l'elaborazione locale sono significative. Amazon ha recentemente aumentato del 15% i prezzi delle GPU utilizzate principalmente per determinati lavori di addestramento ML, segnalando che i costi dell'AI basata su cloud, specialmente per l'addestramento centralizzato, potrebbero diventare imprevedibili. Una ricerca pubblicata su ArXiv nel gennaio 2025 ha quantificato i benefici di un approccio ibrido: utilizzare l'edge computing per carichi di lavoro AI può generare risparmi energetici fino al 75% e riduzioni dei costi superiori all'80% rispetto all'elaborazione puramente cloud.

La questione della privacy rappresenta un altro catalizzatore fondamentale. Johann Schleier-Smith, ingegnere software senior presso Temporal Technologies, sottolinea come la privacy sia un fattore determinante, particolarmente nei settori fortemente regolamentati come sanità e finanza. Elaborare informazioni sensibili localmente diventa necessario per la conformità normativa, senza esporre dati personali o proprietari ai rischi associati al trasferimento verso infrastrutture cloud centralizzate.

L'AI si sposta dal cloud ai dispositivi periferici

Ma quali tecnologie rendono possibile questa rivoluzione? La risposta risiede in una combinazione di modelli più compatti, framework leggeri e hardware specializzato. L'emergere dei small language models (SLM) rappresenta un punto di svolta rispetto alla dipendenza dai grandi modelli linguistici ospitati su piattaforme pubbliche come Claude di Anthropic, Gemini di Google o i modelli GPT di OpenAI. Sumeet Agrawal, vicepresidente della gestione prodotti presso Informatica, evidenzia come progetti come llama.cpp, insieme al formato di modello GGUF, stiano rendendo possibile l'inferenza ad alte prestazioni su una vasta gamma di dispositivi consumer.

Le strategie di ottimizzazione giocano un ruolo cruciale. La quantizzazione, una tecnica di compressione dei modelli che ne riduce dimensioni e requisiti di elaborazione, permette ai modelli linguistici compatti di funzionare su hardware specializzato come le NPU, l'Edge TPU di Google, il Neural Engine di Apple e i dispositivi NVIDIA Jetson. Framework come OpenVINO e LiteRT (precedentemente TensorFlow Lite) facilitano l'inferenza utilizzando modelli su hardware locale, mentre MLC LLM e WebLLM stanno ampliando le possibilità di eseguire AI direttamente nei browser web.

L'ecosistema cloud-native e Kubernetes stanno acquisendo rilevanza anche nell'edge computing. Joshua David, senior director della gestione progetti edge presso Red Hat, evidenzia l'importanza di pacchetti auto-contenuti che combinano sistema operativo, driver hardware e modelli AI in immagini base facilmente distribuibili. KServe, descritto come "lo standard open-source per l'AI auto-ospitata", rappresenta un framework che può facilitare l'inferenza edge su Kubernetes.

Nonostante i progressi tecnologici, le pratiche operative per l'AI edge sono ancora in fase embrionale. La natura limitata delle risorse dei dispositivi periferici costituisce un ostacolo primario: memoria e potenza di elaborazione ridotte rendono difficile distribuire modelli AI complessi che richiedono sostanziali risorse computazionali. Keith Basil, vicepresidente e general manager dell'unità edge presso SUSE, identifica l'ecosistema frammentato come sfida principale, in netto contrasto con l'ambiente standardizzato e maturo del cloud computing.

La gestione di una rete distribuita di modelli AI presenta sfide logistiche complesse. Aggiornare, versionare e monitorare le prestazioni dei modelli su innumerevoli dispositivi distribuiti richiede soluzioni che le organizzazioni devono ancora perfezionare per scalare efficacemente le implementazioni edge. L'abilitazione hardware complessa per dispositivi periferici specializzati, che spesso non funzionano immediatamente, costringe attualmente a soluzioni manuali complesse in assenza di piattaforme end-to-end mature.

Gli esperti raccomandano un approccio selettivo: adottare l'AI edge solo dove ha senso, come nei casi di inferenza in ambienti con scarsa connettività. Una strategia ibrida cloud-edge risulta preferibile rispetto a distribuzioni completamente periferiche o completamente centralizzate. Fondamentale anche astrarre i livelli software architetturali dalle dipendenze hardware specifiche e scegliere modelli ottimizzati per i vincoli dell'edge, considerando l'intero ciclo di vita del modello fin dall'inizio.

L'IDC prevede che entro il 2027 l'80% dei CIO si rivolgerà ai servizi edge dei fornitori cloud per soddisfare le esigenze dell'inferenza AI. Tuttavia, questo non significa un abbandono delle infrastrutture centralizzate. Schleier-Smith osserva che l'AI edge avrà il suo momento di svolta, ma l'adozione resterà indietro rispetto al cloud. Basil concorda: invece di sostituire l'infrastruttura esistente, l'AI verrà distribuita all'edge per renderla più intelligente, efficiente e reattiva, potenziando endpoint con sistemi operativi legacy o ottimizzando operazioni di server on-premises.

Gli standard aperti del settore assumeranno importanza crescente. Progetti come Margo, un'iniziativa della Linux Foundation, saranno fondamentali per stabilire standard nell'automazione industriale edge. ONNX rappresenta un altro standard emergente per migliorare le sfide di interoperabilità tra framework concorrenti per l'inferenza AI su dispositivo. Akri, progetto sandbox ospitato dalla Cloud Native Computing Foundation, affronta la sfida critica di rendere facilmente utilizzabili da Kubernetes una vasta varietà di dispositivi dinamici e disponibili intermittentemente.

Il consenso generale indica che i dispositivi periferici diventeranno significativamente più capaci nel prossimo futuro. Agrawal prevede rapidi progressi in hardware, modelli ottimizzati e piattaforme di distribuzione, conducendo a un'integrazione più profonda dell'AI in IoT, dispositivi mobili e applicazioni quotidiane. La direzione sembra chiara: un passaggio fondamentale verso un'intelligenza distribuita e centrata sull'utente, dove la potenza computazionale si avvicina sempre più alla fonte dei dati e alle decisioni che devono essere prese in tempo reale.

Fonte dell'articolo: www.infoworld.com

Le notizie più lette

#1
Aggiornamento di emergenza per Chrome: installatelo subito
5

Hardware

Aggiornamento di emergenza per Chrome: installatelo subito

#2
La dieta nordica riduce la mortalità del 23%
3

Scienze

La dieta nordica riduce la mortalità del 23%

#3
Smettere di mangiare 3 ore prima migliora il cuore

Scienze

Smettere di mangiare 3 ore prima migliora il cuore

#4
Brutte notizie per PS6 e Nintendo Switch 2
5

Videogioco

Brutte notizie per PS6 e Nintendo Switch 2

#5
Macchine ispirate al cervello sorprendono nella matematica

Scienze

Macchine ispirate al cervello sorprendono nella matematica

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Moltbot, il creatore entra nel team OpenAI
1

Business

Moltbot, il creatore entra nel team OpenAI

Di Antonello Buzzi
Data center, investimenti record da 3.000 miliardi

Business

Data center, investimenti record da 3.000 miliardi

Di Antonello Buzzi
AI in azienda, protezione dei dati e sovranità: scegliere un LLM senza farsi scegliere

Business

AI in azienda, protezione dei dati e sovranità: scegliere un LLM senza farsi scegliere

Di Antonio Ieranò
Perché i team grandi comunicano così male?
1

Business

Perché i team grandi comunicano così male?

Di Antonino Caffo
PA digitale, il nodo resta la fiducia nell’IA
1

Business

PA digitale, il nodo resta la fiducia nell’IA

Di Antonello Buzzi
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.