Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà Anche Bill Gates dice che l'AI è una bolla e che presto sco...
Immagine di Non ti pago per avviare il PC, scatta la denuncia Non ti pago per avviare il PC, scatta la denuncia...

Altro che algoritmi, è l'inferenza il reale valore dei modelli di IA

L'addestramento è una volta sola, l'esecuzione è quotidiana. Garantire contesto e affidabilità al modello vale più che perfezionare gli LLM.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor

Pubblicato il 11/11/2025 alle 11:46

La notizia in un minuto

  • Gli investimenti globali nell'inference supereranno quelli per l'addestramento dei modelli entro il 2025, spostando il focus dall'innovazione alla redditività operativa dell'AI
  • Il vero vantaggio competitivo risiede nell'integrazione tra modelli e contesto aziendale, utilizzando tecniche come la retrieval-augmented generation per connettere l'AI ai dati proprietari
  • Le competenze richieste agli sviluppatori cambiano radicalmente: diventa prioritaria la gestione di pipeline RAG, database vettoriali e governance dei dati rispetto alla creazione di modelli sempre più grandi
Riassunto generato con l'IA. Potrebbe non essere accurato.

L'intelligenza artificiale sta attraversando una fase di maturazione che molti osservatori esterni faticano ancora a cogliere. Mentre sui social network continuano a circolare principalmente dimostrazioni superficiali di quello che può fare ChatGPT, nelle stanze dei consigli di amministrazione delle grandi aziende si sta consumando una rivoluzione silenziosa ma decisiva. Il vero terreno di battaglia dell'AI aziendale non si gioca più sulla creazione di modelli sempre più sofisticati, ma su qualcosa di molto più prosaico e fondamentale: l'inference, ovvero l'applicazione pratica di questi modelli ai dati reali delle organizzazioni.

Secondo le previsioni di IDC, entro la fine del 2025 gli investimenti globali nelle infrastrutture per l'inference supereranno quelli destinati all'addestramento dei modelli. Si tratta di un punto di svolta epocale che rivela dove si concentreranno realmente i profitti del comparto. La logica è elementare: un modello viene addestrato una volta ogni tanto, ma viene eseguito continuamente, ora dopo ora, giorno dopo giorno. Questa differenza apparentemente banale sta ridisegnando completamente le priorità del settore.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

I numeri raccontano una storia inequivocabile. Sempre IDC stima che il 65% delle organizzazioni gestirà oltre 50 casi d'uso di intelligenza artificiale generativa in produzione entro il 2025, mentre più di un quarto supererà quota 100. Ogni singolo caso d'uso può generare potenzialmente migliaia o milioni di chiamate di inference. Quando Andy Jassy, amministratore delegato di Amazon, afferma che Bedrock "potrebbe diventare un business grande quanto EC2", sta essenzialmente ammettendo che l'inference gestita rappresenta la nuova rendita costante del cloud computing.

I contratti miliardari firmati nelle ultime settimane confermano questa tendenza con una chiarezza disarmante. OpenAI ha siglato un accordo da 300 miliardi di dollari con Oracle non per sviluppare nuovi modelli, ma per garantirsi la capacità di eseguire quelli esistenti su scala industriale. Come sottolinea il fondatore Sam Altman, "scalare l'AI di frontiera richiede capacità computazionale massiccia e affidabile". I laboratori di ricerca possono continuare a inseguire modelli sempre più grandi, ma per tutti gli altri l'imperativo è renderli redditizi.

Il problema non sono i modelli, ma i dati e il loro deployment

La vera sfida che le aziende devono affrontare riguarda l'integrazione tra modelli e contesto aziendale. Come sostiene Larry Ellison, cofondatore di Oracle, le società che costruiscono enormi modelli linguistici possono dominare i titoli dei giornali, ma il valore reale risiede nel collegare questi modelli ai dati giusti: informazioni aziendali private, di alto valore e critiche per il business. Un modello più grande senza un contesto migliore produce semplicemente allucinazioni su scala maggiore, ed è l'ultima cosa di cui qualcuno abbia bisogno.

La maggior parte di questi dati preziosi risiede nei database aziendali, che stanno diventando quello che potremmo definire il "layer di memoria" per l'intelligenza artificiale. I sistemi di AI generativa odierni soffrono di una sorta di amnesia cronica, elaborando ogni richiesta in isolamento senza conservare memoria delle interazioni precedenti né conoscenza dei dati aziendali specifici. Da qui l'esplosione della retrieval-augmented generation (RAG) e dei database vettoriali, che fungono da cervello esterno per i modelli linguistici, riducendo drasticamente le allucinazioni e migliorando la rilevanza delle risposte.

Chaoyu Yang, fondatore della piattaforma open source BentoML, sintetizza efficacemente il concetto affermando che "la qualità dell'inference è la qualità del prodotto", perché determina la velocità percepita del servizio, l'accuratezza delle risposte e i costi operativi quotidiani. Non si tratta più di impressionare con dimostrazioni tecnologiche, ma di risolvere problemi concreti mantenendo sotto controllo parametri come latenza, sicurezza e budget.

Tutti i principali fornitori di servizi cloud stanno investendo massicciamente per trasformare l'inference in un'utility di prima classe. Nvidia sta ottimizzando le sue GPU più recenti non solo per addestrare modelli giganteschi, ma per generare risposte in modo efficiente. Numerose startup sviluppano chip e acceleratori AI progettati specificamente per inference veloce e a basso costo, sia negli edge device che nei data center. La ragione è semplice: se ogni applicazione aziendale integrerà componenti di intelligenza artificiale, il numero di inference eseguite quotidianamente esploderà in modo esponenziale.

Per le aziende che vogliono accelerare l'adozione pratica dell'AI, il punto di partenza consiste nell'inventariare i dati di maggior valore: interazioni con i clienti, log della supply chain, basi di conoscenza interne. L'obiettivo strategico è portare il modello ai dati, non viceversa. Questo potrebbe significare utilizzare un servizio cloud che permetta di affinare un modello fondazionale sui propri dati, oppure impiegare tecniche di retrieval affinché il modello possa fare riferimento ai dati aziendali in tempo reale. In ogni caso, sono i dati proprietari a costituire il vero vantaggio competitivo nell'era dell'AI.

Rod Johnson, creatore del framework Spring, riassume bene la questione della maturità tecnologica: "Le startup possono rischiare costruendo case di paglia. Le banche non possono permetterselo." Questi problemi apparentemente noiosi come integrazione, sicurezza, conformità normativa e gestione dei costi emergono prepotentemente quando l'AI entra in produzione. La buona notizia è che l'adozione mainstream porta disciplina: test unitari per gli agenti AI, monitoraggio degli output dei modelli, regole esplicite su quali dati un sistema può o non può utilizzare.

Per gli sviluppatori, le competenze richieste stanno cambiando radicalmente. Diventa fondamentale padroneggiare le pipeline RAG, comprendere l'ottimizzazione delle query sui database vettoriali, scrivere API sicure e a bassa latenza per servire i modelli, creare prompt strettamente accoppiati agli schemi dati e gestire costi e monitoraggio per ogni chiamata API. Non servono necessariamente 50 casi d'uso di AI fin dall'inizio, ma occorre identificare pochi scenari ad alto impatto dove l'inference sui dati aziendali può davvero fare la differenza.

L'ottimizzazione per un'inference economicamente sostenibile implica sia la scelta dell'infrastruttura giusta che quella delle dimensioni appropriate del modello. Non ha senso utilizzare un colosso da 175 miliardi di parametri quando un modello da 3 miliardi, affinato sui propri dati specifici, produce risultati quasi equivalenti. I quattro grandi provider cloud stanno investendo enormemente per rendere questa realtà accessibile alle imprese di ogni dimensione.

Parallelamente, governance e guardrail diventano ancora più urgenti quando l'AI tocca dati sensibili e processi rivolti ai clienti. Servono controlli sugli accessi ai dati per stabilire quali parti del database il modello può consultare, filtri sui prompt e monitoraggio degli output per intercettare errori o risposte inappropriate, oltre a politiche chiare sulla supervisione umana. La prima era del cloud è stata vinta da chi ha reso il computing economico e accessibile. L'era dell'AI sarà conquistata da chi renderà l'intelligenza basata su dati governati economica, accessibile e sicura, rendendo l'inference ubiqua ed efficiente per le aziende. Rincorrere il modello più grande è opzionale, far funzionare l'inference sui propri dati no.

Fonte dell'articolo: www.infoworld.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Non ti pago per avviare il PC, scatta la denuncia
  • #2
    iOS 26.1: ecco come regolare la trasparenza del Liquid Glass
  • #3
    Android Auto abbandona definitivamente Google Assistant
  • #4
    Scegli Sorgenia, l’energia che pensa fuori dal trend. Prezzo bloccato per 24 mesi
  • #5
    Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
  • #6
    Lavoratori tech licenziati a migliaia (solo negli USA per ora)
Articolo 1 di 5
Non ti pago per avviare il PC, scatta la denuncia
Una grande banca statunitense affronta una class action per non aver pagato ai dipendenti il tempo necessario ad avviare i computer prima del turno.
Immagine di Non ti pago per avviare il PC, scatta la denuncia
5
Leggi questo articolo
Articolo 2 di 5
Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Bill Gates paragona l'attuale fase dell'intelligenza artificiale alla bolla delle dot-com di fine anni Novanta, quando molte società Internet risultarono sopravvalutate.
Immagine di Anche Bill Gates dice che l'AI è una bolla e che presto scoppierà
Leggi questo articolo
Articolo 3 di 5
Ecco cosa succede quando possiedi i pesi dei tuoi modelli di IA
Baseten lancia una piattaforma per addestrare modelli IA open source e ridurre la dipendenza da OpenAI, con risparmio fino all'84% sui costi
Immagine di Ecco cosa succede quando possiedi i pesi dei tuoi modelli di IA
Leggi questo articolo
Articolo 4 di 5
Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Il costo dell'IA non è più il vero ostacolo: latenza, flessibilità e capacità sono le sfide principali per le aziende che mirano all'intelligenza artificiale su larga scala.
Immagine di Non solo costi, le aziende non adottano l'IA perché non sanno come usarla
Leggi questo articolo
Articolo 5 di 5
Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
L'uso crescente di analisi facciali basate su IA per selezionare candidati solleva allarmi su scientificità, bias e implicazioni etiche nel processo di assunzione.
Immagine di Riconoscimento facciale per scegliere chi assumere, ecco perché non è una buona idea
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.