Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di IA, 5 punti cardine per creare il prompt perfetto IA, 5 punti cardine per creare il prompt perfetto...
Immagine di AI per programmatori, ecco un trucchetto che non conoscete AI per programmatori, ecco un trucchetto che non conoscete...

Più grande è, meglio è? Sfatiamo il mito delle dimensioni dei modelli linguistici

I modelli più efficaci per le imprese sono quelli in grado di offrire competenze precise e adattate alle esigenze di ciascun settore

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Shane McAllister

a cura di Shane McAllister

Lead Developer Advocate

Pubblicato il 26/06/2025 alle 09:05

Da quando è esploso il boom dell’AI alla fine del 2022, abbiamo tutti potuto osservare le incredibili capacità dell’intelligenza artificiale generativa. Dagli inviti di compleanno alla generazione di codice, i modelli linguistici di grandi dimensioni (LLM) e le applicazioni che li utilizzano sono diventati molto più diffusi. E non c’è da stupirsi, considerando la loro capacità di rispondere a domande su un’ampia gamma di argomenti e di generare contenuti con estrema rapidità. Negli ultimi due anni abbiamo assistito a continui aggiornamenti da parte dei principali attori del settore, che hanno stabilito nuovi record nel numero di parametri su cui vengono addestrati i modelli più recenti. Gli ultimi modelli Llama, ad esempio, sono stati addestrati su ben 70 miliardi di parametri.

Ma il meccanismo che ha portato ai principali avanzamenti nei modelli, ovvero più potenza di calcolo e un numero sempre maggiore di parametri, ora sta iniziando a mostrare rendimenti decrescenti. Dopotutto, c’è un limite a quanto si può imparare da enormi quantità di dati in internet. E sebbene i modelli stiano diventando sempre più smart, quella potenza in più è semplicemente eccessiva per la maggior parte degli utilizzi aziendali dell’AI.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

È quindi arrivato il momento di sfatare il mito delle dimensioni e di accettare che, per quanto riguarda i modelli linguistici, meno è davvero di più.

Togliamo le “grandi dimensioni” dai modelli linguistici

I modelli più efficaci per le imprese sono quelli in grado di offrire competenze precise e adattate alle esigenze di ciascun settore. Ed è proprio qui che molti LLM generici possono fallire, frenati da dati obsoleti o errati che portano a risposte imprecise. Dalle conversazioni con aziende di diversi settori emerge chiaramente che la stragrande maggioranza delle attività svolte con l’AI è di complessità medio-bassa. Si tratta, ad esempio, di sintetizzare atti o documenti, supportare la redazione di messaggi o effettuare semplici analisi dei dati. Nessuno di questi compiti richiede miliardi di insight: è come usare un supercomputer per un’attività elementare.

Eppure, nella corsa all’adozione dell’AI, si tende spesso a trascurare l'importanza di un corretto dimensionamento. Una fase essenziale nella progettazione iniziale di un progetto AI dovrebbe prevedere un'attenta selezione del modello linguistico più adatto, anche in termini di scala. Invece, spesso si ricorre automaticamente a ChatGPT, ormai diventato l’equivalente moderno del famoso detto: “Nessuno è mai stato licenziato per aver scelto IBM”. Il concetto di right-sizing dell’AI dovrebbe entrare a far parte del dibattito sulla governance dell’intelligenza artificiale: non tutte le attività richiedono GPT-4.

Tutto questo viene ulteriormente accentuato dalla corsa delle aziende a lanciare sul mercato applicazioni AI il più rapidamente possibile, per non perdere l'opportunità offerta da questa tecnologia. Ma solo più avanti, quando i cicli di calcolo richiesti da questi modelli di grandi dimensioni iniziano ad accumularsi, emerge il vero costo.

I vantaggi dei modelli linguistici di piccole e medie dimensioni (SLM)

Gli SLM offrono numerosi benefici alle aziende. Eseguire un LLM di grandi dimensioni in produzione, soprattutto per inferenze in tempo reale, comporta costi elevatissimi, mentre i modelli linguistici di piccole e medie dimensioni necessitano di una minore potenza computazionale, consentendo di contenere i costi operativi e ridurre sia il consumo energetico sia l’impatto ambientale. Inoltre, questi modelli sono più facili da addestrare e perfezionare, senza i lunghi e complessi processi di training che sono tipici per i LLM, e risultano così sempre pertinenti e allineati al contesto d’uso.

Dal punto di vista degli sviluppatori, gli SLM offrono anche una maggiore flessibilità di deployment, grazie alle loro ridotte esigenze computazionali. Questo è particolarmente utile in ambienti con risorse limitate, come i server on-premises o privati, e in settori regolamentati come la sanità o la finanza, dove sicurezza e controllo dei dati sono irrinunciabili. In questi ambiti, si osserva spesso che modelli più piccoli superano in prestazioni quelli più grandi, proprio perché l’efficacia delle risposte dipende dall’utilizzo di dati altamente specializzati, che raramente vengono pienamente integrati durante il training dei LLM generici.

Un ulteriore vantaggio per le imprese è la possibilità di combinare più SLM tramite sistemi intelligenti di model routing o motori di ragionamento, selezionando in tempo reale il modello più adatto a ciascun compito, invece di affidarsi sempre a un unico sistema monolitico.

Infine, i modelli più piccoli contribuiscono anche a migliorare la gestione dei dati e garantirne la sovranità, aspetti che diventeranno sempre più centrali con l’evoluzione di normative come l’AI Act dell’Unione Europea. Limitando la necessità di ricorrere a LLM centralizzati, si offre agli sviluppatori la possibilità di costruire applicazioni che assicurino la permanenza dei dati entro i confini stabiliti e la piena conformità ai requisiti normativi. Questo approccio non solo riduce i rischi di non conformità, ma promuove anche una maggiore trasparenza e responsabilità nello sviluppo dei sistemi di AI, che stanno già diventando i pilastri fondamentali delle pratiche di intelligenza artificiale responsabile.

Efficienza senza eccessi

Dobbiamo quindi abbandonare l’idea che modelli più grandi producano automaticamente risultati migliori. Il vero valore non sta nella scala, ma nell’adeguatezza allo scopo. Le attività quotidiane non richiedono l’equivalente computazionale di una centrale elettrica. Non bisogna scegliere il modello più grande solo perché è il più diffuso. Dovremmo invece scegliere gli strumenti più adatti al compito da svolgere, evitando di usare un martello pneumatico dove basta un bisturi. I modelli più piccoli offrono efficienza, risparmio, controllo e, soprattutto, risultati necessari.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    5 condizionatori portatili da tenere d'occhio in vista del Prime Day
  • #2
    6 ventilatori da tenere d'occhio in vista del Prime Day
  • #3
    6 smart TV da tenere d'occhio in vista del Prime Day
  • #4
    Una sorprendente mod ha reso una RTX 5090 una GPU da 10.000$
  • #5
    Apple ha letto i vostri commenti furiosi e fa marcia indietro
  • #6
    Ecco cosa succede quando un gioco floppa dopo milioni investiti
Articolo 1 di 5
AI per programmatori, ecco un trucchetto che non conoscete
Il problema nascosto dell'AI coding: codice obsoleto che causa ore di debug. Context7 risolve tutto con documentazione aggiornata in tempo reale per LLM.
Immagine di AI per programmatori, ecco un trucchetto che non conoscete
Leggi questo articolo
Articolo 2 di 5
IA, 5 punti cardine per creare il prompt perfetto
Scopri le tecniche di prompt engineering per ottenere risultati di qualità superiore da ChatGPT, ovvero: ruolo, contesto, task, stile e formato.
Immagine di IA, 5 punti cardine per creare il prompt perfetto
Leggi questo articolo
Articolo 3 di 5
Queste tre aziende USA hanno assorbito tutta la potenza GPU del mondo
Sono i giganti che dominano il mercato europeo con infrastrutture cloud e dati. Hyperscaler che hanno troppo, spesso senza controllo
Immagine di Queste tre aziende USA hanno assorbito tutta la potenza GPU del mondo
Leggi questo articolo
Articolo 4 di 5
IA sicura e in locale? Facilissimo con questo strumento
Una piattaforma per democratizzare l'AI con template ML pronti, inferenza locale e interfaccia no-code.
Immagine di IA sicura e in locale? Facilissimo con questo strumento
Leggi questo articolo
Articolo 5 di 5
Agenti IA, belli e possibili, forse da frenare
Solo hype tecnologico? Al di là dell'automazione serve un controllo umano competente per l'innovazione sicura.
Immagine di Agenti IA, belli e possibili, forse da frenare
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.