Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Editor's Choice
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Le leggi di scala dell'AI come le conosciamo non valgono più
Business
Immagine di 3 Prompt per creare le policy AI aziendali gratis 3 Prompt per creare le policy AI aziendali gratis...
Immagine di Vuoi diventare un SOC Manager? Segui questa guida Vuoi diventare un SOC Manager? Segui questa guida...

Le leggi di scala dell'AI come le conosciamo non valgono più

Le leggi di scala dell'AI stanno cambiando: le performance dei modelli non migliorano più solo aumentando dati e potenza di calcolo.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale @Tom's Hardware Italia

Pubblicato il 29/07/2025 alle 10:17

La notizia in un minuto

  • Le leggi di scala dell'AI stanno cambiando: le performance dei modelli non migliorano più solo aumentando dati e potenza di calcolo, ma richiedono nuove tecniche come la "catena di pensiero" utilizzata nei modelli o1 e o3 di OpenAI
  • I progressi si stanno appiattendo: i benchmark mostrano un plateau nelle performance, con GPT che è passato dal 43.9% al 90% ma ora fatica a superare questa soglia, mentre dati e calcolo diventano più rari e costosi
  • Il futuro dell'IA si orienta verso architetture più intelligenti basate sul ragionamento e fonti di dati distribuite, con modelli che rimangono "top" solo per circa tre settimane prima di essere superati dalla concorrenza

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Fino ad oggi, quando si parlava di intelligenza artificiale le aziende hanno sempre guardato alle prestazioni dei modelli, seguendo una semplice regola: un modello di grandi dimensioni, addestrato con un'elevata quantità di calcoli, avrà prestazioni migliori. Questa legge di scala dell'IA, teorizzata da OpenAI e spiegata in un paper del 2020 intitolato "Scaling Laws for Neural Language Models", supportato da un articolo successivo di Google DeepMind ("Training Compute-Optimal Large Language Models"), si sta però scontrando con una realtà forse inaspettata: gli avanzamenti degli LLM sono sempre più lenti. 

Il cambiamento delle leggi di scala

Le leggi di scala dell'AI stanno subendo un cambiamento. Le performance dei modelli stanno progredendo, ma non solo grazie all'aumento dei dati e della potenza di calcolo. Ecco perché OpenAI ha introdotto i suoi modelli di ragionamento AI o1 e o3 dopo la serie GPT, come sottolineato da Garry Tan, presidente dell’accelleratore di startup Y Combinator, nel video series YC Decoded. OpenAI ha utilizzato le tecniche di "catena di pensiero" per ottimizzare le risposte del modello, ottenendo così prestazioni migliorate. Questo è visibile nel recente rilascio del modello o3, che ha raggiunto traguardi considerati precedentemente irraggiungibili per l'IA. “OpenAI ha scoperto che più tempo il modello o1 poteva "riflettere", meglio si comportava”, ha detto Tan.

“Continuate a scalare i vostri modelli e continueranno a migliorare.”

La sfida della scalabilità

Adnan Masood, capo architetto di AI presso UST, ha segnalato che i due principali "carburanti" per la scalabilità - dati e calcolo - stanno diventando più rari e costosi. Questo indica un possibile plateau per i large language models. Per esempio, nei quiz di conoscenza, nei problemi matematici e nei test di programmazione, i progressi stanno "appiattendosi". Nel benchmark MMLU, GPT-3 ha registrato il 43.9% passando però al 86.4% con GPT-4 nel 2023, per poi raggiungere un plateau del 90% nel 2024.

Il futuro dell'IA

Tan e Masood concordano che se le vecchie leggi di scala stanno perdendo terreno, i modelli di AI dovranno ricorrere a nuove tecniche. In particolare, il futuro dell'IA sembra spostarsi verso architetture più intelligenti, modelli guidati dal ragionamento e utilizzo di fonti di dati distribuite. Negli Stati Uniti, i principali modelli di AI rimangono "top" per circa tre settimane prima di essere superati, in particolare dai competitor open source, secondo un report di Innovation Endeavors del giugno 2025. La velocità di rilascio dei modelli rimane elevata anche se non più esponenziale.

Fonte dell'articolo: www.pymnts.com

Le notizie più lette

#1
NordVPN - Recensione
4

Hardware

NordVPN - Recensione

#2
5 motivi per cui dovreste usare una VPN
2

Hardware

5 motivi per cui dovreste usare una VPN

#3
ExpressVPN - Recensione
4

Hardware

ExpressVPN - Recensione

#4
Cos'è una VPN (Virtual Private Network)
1

Hardware

Cos'è una VPN (Virtual Private Network)

#5
Come accedere ai giochi asiatici usando una VPN

Videogioco

Come accedere ai giochi asiatici usando una VPN

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Vuoi diventare un SOC Manager? Segui questa guida
2

Business

Vuoi diventare un SOC Manager? Segui questa guida

Di Antonino Caffo
3 Prompt per creare le policy AI aziendali gratis

Business

3 Prompt per creare le policy AI aziendali gratis

Di Roberto Buonanno
Lezioni di marketing da un’azienda che avremmo voluto odiare

Business

Lezioni di marketing da un’azienda che avremmo voluto odiare

Di José Compagnone
QNAP stringe il formato enterprise: il TS-h1077AFU porta lo storage all-flash in 1U

Business

QNAP stringe il formato enterprise: il TS-h1077AFU porta lo storage all-flash in 1U

Di Valerio Porcu
I Ray-Ban di meta ti spiano:  momenti intimi finiscono sugli schermi in Kenya

Business

I Ray-Ban di meta ti spiano:  momenti intimi finiscono sugli schermi in Kenya

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.