Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Editor's Choice
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Le leggi di scala dell'AI come le conosciamo non valgono più
Business
Immagine di L'AI che ti licenzia e quella che sembra un collega: come sta cambiando il lavoro L'AI che ti licenzia e quella che sembra un collega: come st...
Immagine di La rete neurale sul tavolo operatorio La rete neurale sul tavolo operatorio...

Le leggi di scala dell'AI come le conosciamo non valgono più

Le leggi di scala dell'AI stanno cambiando: le performance dei modelli non migliorano più solo aumentando dati e potenza di calcolo.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale @Tom's Hardware Italia

Pubblicato il 29/07/2025 alle 10:17

La notizia in un minuto

  • Le leggi di scala dell'AI stanno cambiando: le performance dei modelli non migliorano più solo aumentando dati e potenza di calcolo, ma richiedono nuove tecniche come la "catena di pensiero" utilizzata nei modelli o1 e o3 di OpenAI
  • I progressi si stanno appiattendo: i benchmark mostrano un plateau nelle performance, con GPT che è passato dal 43.9% al 90% ma ora fatica a superare questa soglia, mentre dati e calcolo diventano più rari e costosi
  • Il futuro dell'IA si orienta verso architetture più intelligenti basate sul ragionamento e fonti di dati distribuite, con modelli che rimangono "top" solo per circa tre settimane prima di essere superati dalla concorrenza

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Fino ad oggi, quando si parlava di intelligenza artificiale le aziende hanno sempre guardato alle prestazioni dei modelli, seguendo una semplice regola: un modello di grandi dimensioni, addestrato con un'elevata quantità di calcoli, avrà prestazioni migliori. Questa legge di scala dell'IA, teorizzata da OpenAI e spiegata in un paper del 2020 intitolato "Scaling Laws for Neural Language Models", supportato da un articolo successivo di Google DeepMind ("Training Compute-Optimal Large Language Models"), si sta però scontrando con una realtà forse inaspettata: gli avanzamenti degli LLM sono sempre più lenti. 

Il cambiamento delle leggi di scala

Le leggi di scala dell'AI stanno subendo un cambiamento. Le performance dei modelli stanno progredendo, ma non solo grazie all'aumento dei dati e della potenza di calcolo. Ecco perché OpenAI ha introdotto i suoi modelli di ragionamento AI o1 e o3 dopo la serie GPT, come sottolineato da Garry Tan, presidente dell’accelleratore di startup Y Combinator, nel video series YC Decoded. OpenAI ha utilizzato le tecniche di "catena di pensiero" per ottimizzare le risposte del modello, ottenendo così prestazioni migliorate. Questo è visibile nel recente rilascio del modello o3, che ha raggiunto traguardi considerati precedentemente irraggiungibili per l'IA. “OpenAI ha scoperto che più tempo il modello o1 poteva "riflettere", meglio si comportava”, ha detto Tan.

“Continuate a scalare i vostri modelli e continueranno a migliorare.”

La sfida della scalabilità

Adnan Masood, capo architetto di AI presso UST, ha segnalato che i due principali "carburanti" per la scalabilità - dati e calcolo - stanno diventando più rari e costosi. Questo indica un possibile plateau per i large language models. Per esempio, nei quiz di conoscenza, nei problemi matematici e nei test di programmazione, i progressi stanno "appiattendosi". Nel benchmark MMLU, GPT-3 ha registrato il 43.9% passando però al 86.4% con GPT-4 nel 2023, per poi raggiungere un plateau del 90% nel 2024.

Il futuro dell'IA

Tan e Masood concordano che se le vecchie leggi di scala stanno perdendo terreno, i modelli di AI dovranno ricorrere a nuove tecniche. In particolare, il futuro dell'IA sembra spostarsi verso architetture più intelligenti, modelli guidati dal ragionamento e utilizzo di fonti di dati distribuite. Negli Stati Uniti, i principali modelli di AI rimangono "top" per circa tre settimane prima di essere superati, in particolare dai competitor open source, secondo un report di Innovation Endeavors del giugno 2025. La velocità di rilascio dei modelli rimane elevata anche se non più esponenziale.

Fonte dell'articolo: www.pymnts.com

Le notizie più lette

#1
Russia: nuovi processori a 16 e 32 core in arrivo
5

Hardware

Russia: nuovi processori a 16 e 32 core in arrivo

#2
La Xbox Mode potrebbe rivoluzionare il gaming su Windows 11

Editoriale

La Xbox Mode potrebbe rivoluzionare il gaming su Windows 11

#3
Addio al problema più irritante di Google Messaggi
3

Smartphone

Addio al problema più irritante di Google Messaggi

#4
Recensione Lenovo ThinkPad L13 2-in-1 Gen 6, affidabile e versatile

Hardware

Recensione Lenovo ThinkPad L13 2-in-1 Gen 6, affidabile e versatile

#5
Boox Palma 2 Pro: recensione dell'e-reader Android

Hardware

Boox Palma 2 Pro: recensione dell'e-reader Android

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

La rete neurale sul tavolo operatorio
1

Business

La rete neurale sul tavolo operatorio

Di Andrea Amani
L'AI che ti licenzia e quella che sembra un collega: come sta cambiando il lavoro
1

Business

L'AI che ti licenzia e quella che sembra un collega: come sta cambiando il lavoro

Di Pasquale Viscanti e Giacinto Fiore
Marghera, 37 licenziati “per colpa dell'AI”: ma è una storia di AI Washing e finanza
4

Business

Marghera, 37 licenziati “per colpa dell'AI”: ma è una storia di AI Washing e finanza

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.