image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Nascita e morte del CD: la tecnologia che ha cambiato tutto Nascita e morte del CD: la tecnologia che ha cambiato tutto...
Immagine di Windows 7 “mini” da 69 MB: geniale o inutile? Windows 7 “mini” da 69 MB: geniale o inutile?...

Apple accelera l’AI: testi 128 volte più veloci

Ricercatori Apple presentano un nuovo modello di diffusione in grado di scrivere fino a 128 volte più velocemente rispetto ad altri modelli simili.

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor

Pubblicato il 14/10/2025 alle 12:05

La notizia in un minuto

  • Apple e Ohio State University hanno sviluppato FS-DFM, un modello di intelligenza artificiale che genera testi lunghi fino a 128 volte più velocemente dei sistemi tradizionali, utilizzando solo 8 cicli di raffinamento invece di oltre mille
  • Il sistema si basa su modelli di diffusione che generano simultaneamente più elementi testuali anziché procedere parola per parola come i tradizionali modelli autoregressivi (tipo ChatGPT), risultando molto più rapido nella produzione di contenuti lunghi
  • Nonostante dimensioni ridotte (da 0,17 a 1,7 miliardi di parametri), FS-DFM ha superato modelli concorrenti molto più grandi come Dream (7 miliardi) e LLaDA (8 miliardi) in qualità e stabilità del testo generato
Riassunto generato con l'IA. Potrebbe non essere accurato.

La ricerca nel campo dell'intelligenza artificiale compie un nuovo passo avanti grazie a un team di ricercatori di Apple e dell'Ohio State University, che hanno sviluppato un modello di linguaggio in grado di generare testi lunghi con una velocità fino a 128 volte superiore rispetto ai sistemi tradizionali. Il sistema, denominato FS-DFM (Few-Step Discrete Flow-Matching), rappresenta un'evoluzione significativa nell'ambito dei modelli di diffusione applicati alla generazione di contenuti testuali.

Per comprendere l'innovazione apportata da questo studio, è fondamentale chiarire le differenze tra le varie tipologie di modelli linguistici. I tradizionali modelli autoregressivi, come ChatGPT, producono il testo in modo sequenziale, elaborando una parola alla volta e considerando sia l'input dell'utente che tutti i termini già generati in precedenza. Questo approccio, seppur efficace, risulta intrinsecamente lento quando si tratta di produrre contenuti di una certa lunghezza.

I modelli di diffusione operano secondo una logica completamente diversa. Anziché procedere parola per parola, questi sistemi generano simultaneamente più elementi testuali che vengono poi raffinati attraverso molteplici passaggi iterativi, fino a ottenere il risultato finale desiderato. Esiste poi una variante ancora più evoluta, i modelli di flow-matching, che eliminano il processo iterativo e apprendono a generare direttamente il risultato conclusivo in un'unica operazione.

La ricerca pubblicata oggi con il titolo "FS-DFM: Fast and Accurate Long Text Generation with Few-Step Diffusion Language Models" presenta risultati sorprendenti. Il team ha dimostrato che il loro modello è capace di produrre passaggi testuali completi utilizzando soltanto otto rapidi cicli di raffinamento, raggiungendo una qualità paragonabile a quella di modelli di diffusione che necessitano di oltre mille passaggi per ottenere risultati simili.

Otto cicli di raffinamento contro mille: la rivoluzione della velocità

L'architettura del sistema si basa su una metodologia innovativa articolata in tre fasi distinte. Inizialmente, il modello viene addestrato per gestire diversi "budget" di iterazioni di raffinamento, sviluppando una flessibilità operativa che si rivela cruciale per le prestazioni finali. Successivamente, entra in gioco un modello "insegnante" che guida il sistema principale, consentendogli di effettuare aggiornamenti più ampi e precisi a ogni iterazione senza il rischio di "oltrepassare" il testo previsto. Infine, viene ottimizzato il funzionamento di ciascuna iterazione, permettendo al modello di raggiungere il risultato definitivo attraverso passaggi meno numerosi ma più stabili.

Le metriche di valutazione utilizzate per confrontare FS-DFM con modelli di diffusione più grandi sono state principalmente due: perplessità ed entropia. La perplessità rappresenta una misura standard della qualità del testo nei modelli linguistici, dove valori più bassi indicano un output più naturale e accurato. L'entropia, invece, quantifica il livello di confidenza con cui il modello seleziona ogni parola: un'entropia troppo bassa produce testi ripetitivi e prevedibili, mentre un'entropia eccessivamente alta genera contenuti casuali e incoerenti.

Il confronto con i competitor è particolarmente significativo. Le diverse varianti di FS-DFM, con rispettivamente 1,7, 1,3 e 0,17 miliardi di parametri, hanno costantemente ottenuto una perplessità inferiore e mantenuto un'entropia più stabile rispetto al modello di diffusione Dream (7 miliardi di parametri) e a LLaDA (8 miliardi di parametri), indipendentemente dal numero di iterazioni utilizzate. Questi risultati assumono particolare rilevanza considerando la dimensione significativamente ridotta dei modelli Apple rispetto alla concorrenza.

Data la scarsità di modelli e studi analoghi nel panorama della ricerca attuale, i ricercatori hanno annunciato l'intenzione di rilasciare pubblicamente il codice e i checkpoint del modello. Questa decisione, orientata a facilitare la riproducibilità dei risultati e stimolare ulteriori ricerche nel settore, rappresenta un approccio aperto che potrebbe accelerare lo sviluppo di tecnologie simili da parte della comunità scientifica internazionale.

Fonte dell'articolo: 9to5mac.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Scopri online la miglior offerta Sorgenia per la tua attività: ti basta la P.IVA
  • #2
    Il ragno delle Canarie che ha dimezzato il suo genoma
  • #3
    Windows 7 “mini” da 69 MB: geniale o inutile?
  • #4
    Nascita e morte del CD: la tecnologia che ha cambiato tutto
  • #5
    Allenarsi rallenta il cuore (e ti fa guadagnare anni)
  • #6
    Intel rilancia: AVX e AMX tornano con Nova Lake
Articolo 1 di 5
Windows 7 “mini” da 69 MB: geniale o inutile?
Un utente ha portato Windows 7 all’estremo, creando una versione di soli 69 MB che mette in discussione l’evoluzione del software moderno.
Immagine di Windows 7 “mini” da 69 MB: geniale o inutile?
Leggi questo articolo
Articolo 2 di 5
Nascita e morte del CD: la tecnologia che ha cambiato tutto
Una semplice invenzione ha dato il via all'era digitale, ha rivoluzione il mondo dei PC e della musica. Ecco cosa è successo e come è andata.
Immagine di Nascita e morte del CD: la tecnologia che ha cambiato tutto
2
Leggi questo articolo
Articolo 3 di 5
Intel rilancia: AVX e AMX tornano con Nova Lake
L'architettura Nova Lake di Intel potrebbe reintegrare estensioni AVX10, APX e AMX, assenti da tempo nelle CPU consumer per desktop e mobile.
Immagine di Intel rilancia: AVX e AMX tornano con Nova Lake
Leggi questo articolo
Articolo 4 di 5
Siri cambia anima: l’AI di Google arriva su iPhone
Con i modelli Gemini di Google, Siri prepara la sua evoluzione più profonda: Apple punta sulla funzionalità, non più solo sull’orgoglio.
Immagine di Siri cambia anima: l’AI di Google arriva su iPhone
Leggi questo articolo
Articolo 5 di 5
AOC pronta a stupire: in arrivo monitor gaming da 1000 Hz
AOC prepara sei monitor AGON per il 2026: spicca un prototipo con frequenza di aggiornamento da 1000 Hz, secondo indiscrezioni di VisionTang
Immagine di AOC pronta a stupire: in arrivo monitor gaming da 1000 Hz
1
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.