Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Editor's Choice
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Le leggi di scala dell'AI come le conosciamo non valgono più
Business
Immagine di AI e guerra: etica o convenienza? AI e guerra: etica o convenienza?...
Immagine di Un nuovo chip demolisce le prestazioni di Nvidia H200 Un nuovo chip demolisce le prestazioni di Nvidia H200...

Le leggi di scala dell'AI come le conosciamo non valgono più

Le leggi di scala dell'AI stanno cambiando: le performance dei modelli non migliorano più solo aumentando dati e potenza di calcolo.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale @Tom's Hardware Italia

Pubblicato il 29/07/2025 alle 10:17

La notizia in un minuto

  • Le leggi di scala dell'AI stanno cambiando: le performance dei modelli non migliorano più solo aumentando dati e potenza di calcolo, ma richiedono nuove tecniche come la "catena di pensiero" utilizzata nei modelli o1 e o3 di OpenAI
  • I progressi si stanno appiattendo: i benchmark mostrano un plateau nelle performance, con GPT che è passato dal 43.9% al 90% ma ora fatica a superare questa soglia, mentre dati e calcolo diventano più rari e costosi
  • Il futuro dell'IA si orienta verso architetture più intelligenti basate sul ragionamento e fonti di dati distribuite, con modelli che rimangono "top" solo per circa tre settimane prima di essere superati dalla concorrenza

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Fino ad oggi, quando si parlava di intelligenza artificiale le aziende hanno sempre guardato alle prestazioni dei modelli, seguendo una semplice regola: un modello di grandi dimensioni, addestrato con un'elevata quantità di calcoli, avrà prestazioni migliori. Questa legge di scala dell'IA, teorizzata da OpenAI e spiegata in un paper del 2020 intitolato "Scaling Laws for Neural Language Models", supportato da un articolo successivo di Google DeepMind ("Training Compute-Optimal Large Language Models"), si sta però scontrando con una realtà forse inaspettata: gli avanzamenti degli LLM sono sempre più lenti. 

Il cambiamento delle leggi di scala

Le leggi di scala dell'AI stanno subendo un cambiamento. Le performance dei modelli stanno progredendo, ma non solo grazie all'aumento dei dati e della potenza di calcolo. Ecco perché OpenAI ha introdotto i suoi modelli di ragionamento AI o1 e o3 dopo la serie GPT, come sottolineato da Garry Tan, presidente dell’accelleratore di startup Y Combinator, nel video series YC Decoded. OpenAI ha utilizzato le tecniche di "catena di pensiero" per ottimizzare le risposte del modello, ottenendo così prestazioni migliorate. Questo è visibile nel recente rilascio del modello o3, che ha raggiunto traguardi considerati precedentemente irraggiungibili per l'IA. “OpenAI ha scoperto che più tempo il modello o1 poteva "riflettere", meglio si comportava”, ha detto Tan.

“Continuate a scalare i vostri modelli e continueranno a migliorare.”

La sfida della scalabilità

Adnan Masood, capo architetto di AI presso UST, ha segnalato che i due principali "carburanti" per la scalabilità - dati e calcolo - stanno diventando più rari e costosi. Questo indica un possibile plateau per i large language models. Per esempio, nei quiz di conoscenza, nei problemi matematici e nei test di programmazione, i progressi stanno "appiattendosi". Nel benchmark MMLU, GPT-3 ha registrato il 43.9% passando però al 86.4% con GPT-4 nel 2023, per poi raggiungere un plateau del 90% nel 2024.

Il futuro dell'IA

Tan e Masood concordano che se le vecchie leggi di scala stanno perdendo terreno, i modelli di AI dovranno ricorrere a nuove tecniche. In particolare, il futuro dell'IA sembra spostarsi verso architetture più intelligenti, modelli guidati dal ragionamento e utilizzo di fonti di dati distribuite. Negli Stati Uniti, i principali modelli di AI rimangono "top" per circa tre settimane prima di essere superati, in particolare dai competitor open source, secondo un report di Innovation Endeavors del giugno 2025. La velocità di rilascio dei modelli rimane elevata anche se non più esponenziale.

Fonte dell'articolo: www.pymnts.com

Le notizie più lette

#1
iOS 26.4, ecco le nuove funzioni per iPhone

Smartphone

iOS 26.4, ecco le nuove funzioni per iPhone

#2
I nuovi Mac desktop saranno più cari, ma il motivo non è quello che credete

Hardware

I nuovi Mac desktop saranno più cari, ma il motivo non è quello che credete

#3
PS5 è stata trasformata in una Steam Machine funzionante
4

Videogioco

PS5 è stata trasformata in una Steam Machine funzionante

#4
Galaxy S26, dov'è finita la modalità notte?
2

Smartphone

Galaxy S26, dov'è finita la modalità notte?

#5
Hyundai Ioniq 6: una delle migliori berline elettriche

Automotive

Hyundai Ioniq 6: una delle migliori berline elettriche

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

L'AI vuole tutta la corrente del mondo, ed è un problema

Business

L'AI vuole tutta la corrente del mondo, ed è un problema

Di Valerio Porcu
Un nuovo chip demolisce le prestazioni di Nvidia H200
1

Business

Un nuovo chip demolisce le prestazioni di Nvidia H200

Di Valerio Porcu
AI e guerra: etica o convenienza?

Business

AI e guerra: etica o convenienza?

Di Antonino Caffo
La Cina investe altri miliardi sull'AI, Europa ancora lenta

Business

La Cina investe altri miliardi sull'AI, Europa ancora lenta

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.