Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Questa startup vuole insegnare alle aziende come si addestra un LLM per il business
Business
Immagine di Questa IA con 30 miliardi di parametri è più forte di molti matematici umani Questa IA con 30 miliardi di parametri è più forte di molt...
Immagine di Gemini 3 Pro: la vera rivoluzione è nell'interfaccia Gemini 3 Pro: la vera rivoluzione è nell'interfaccia...

Questa startup vuole insegnare alle aziende come si addestra un LLM per il business

La coreana Motif rilascia un modello open-weight con prestazioni elevate e pubblica una guida riproducibile per addestrare LLM aziendali efficaci

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 16/12/2025 alle 13:07

La notizia in un minuto

  • Motif Technologies pubblica un modello sudcoreano che supera GPT-5.1, rivelando completamente la ricetta di addestramento in un gesto di trasparenza senza precedenti nel settore
  • Le prestazioni di ragionamento dipendono dalla distribuzione dei dati e non dalle dimensioni del modello: dati sintetici non allineati possono danneggiare attivamente le performance
  • La gestione dei contesti lunghi e il reinforcement learning richiedono infrastruttura dedicata e filtraggio accurato fin dall'inizio, altrimenti si rischiano costosi cicli di riaddestramento

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Finora, l'attenzione sull'IA si è concentrata principalmente sulla competizione tra Stati Uniti e Cina, con occasionali eccezioni rappresentate da realtà come Cohere in Canada e Mistral in Francia. Tuttavia, una startup sudcoreana sta ora dimostrando che l'innovazione nel settore può arrivare da direzioni inaspettate. La pubblicazione del modello Motif-2-12.7B-Reasoning da parte di Motif Technologies ha infatti sollevato un polverone nel settore, non tanto per le dimensioni del modello quanto per l'approccio radicalmente trasparente adottato dall'azienda.

Secondo le valutazioni del laboratorio indipendente Artificial Analysis, questo modello sudcoreano ha superato persino GPT-5.1 di OpenAI in termini di prestazioni, posizionandosi come il più performante mai sviluppato dalla Corea del Sud. Ma la vera rivoluzione non risiede nei risultati dei benchmark, bensì nel fatto che Motif Technologies ha deciso di pubblicare su arxiv.org un documento tecnico completo che rivela la ricetta di addestramento utilizzata, rendendola riproducibile da chiunque.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Questo gesto di apertura rappresenta un cambio di paradigma per le aziende che sviluppano modelli linguistici proprietari. Mentre gran parte del settore mantiene segrete le proprie metodologie di training, considerandole un vantaggio competitivo, Motif ha scelto la strada della trasparenza. Il documento evidenzia con precisione dove nascono realmente le capacità di ragionamento di un modello e, cosa ancora più importante, dove tipicamente falliscono i tentativi interni di sviluppo dei modelli linguistici nelle organizzazioni.

Il primo aspetto cruciale emerso dalla ricerca riguarda un equivoco diffuso nel settore: le prestazioni di ragionamento non dipendono dalle dimensioni del modello, ma dalla distribuzione dei dati utilizzati durante l'addestramento. Gli esperimenti condotti da Motif dimostrano che i dati sintetici di ragionamento risultano utili solo quando la loro struttura corrisponde effettivamente allo stile di ragionamento del modello target. I ricercatori hanno misurato differenze significative nelle performance di coding a seconda del modello "insegnante" utilizzato per generare le tracce di ragionamento durante il fine-tuning supervisionato.

Questa scoperta mette in crisi una pratica comune: molte aziende generano grandi volumi di dati sintetici chain-of-thought utilizzando modelli all'avanguardia, presumendo che questi si trasferiscano efficacemente al proprio sistema. I risultati di Motif suggeriscono invece che tracce di ragionamento non allineate possono danneggiare attivamente le prestazioni, anche quando appaiono di alta qualità all'apparenza. La lezione pratica è che le organizzazioni dovrebbero validare che i propri dati sintetici riflettano il formato, la verbosità e la granularità dei passaggi desiderati in fase di inferenza.

La memoria, non la potenza di calcolo, è spesso il vero collo di bottiglia

Un secondo elemento fondamentale riguarda la gestione dei contesti lunghi, un aspetto che Motif ha affrontato addestrando il modello con finestre di 64K token. Il documento tecnico chiarisce che questa capacità non è il risultato di semplici aggiustamenti del tokenizer o dei checkpoint, ma richiede un'infrastruttura specifica. Il modello si basa su parallelismo ibrido, strategie di sharding attentamente calibrate e tecniche aggressive di checkpointing delle attivazioni per rendere fattibile l'addestramento su hardware Nvidia H100.

Per le aziende che sviluppano modelli proprietari, il messaggio è tanto sobrio quanto utile: la capacità di gestire contesti lunghi non può essere aggiunta tardivamente. Se i flussi di lavoro basati su retrieval o agenti autonomi sono fondamentali per il caso d'uso aziendale, la lunghezza del contesto deve essere progettata dall'inizio nello stack di addestramento. Altrimenti, le organizzazioni rischiano costosi cicli di riaddestramento o fine-tuning instabili.

La pipeline di reinforcement learning fine-tuning sviluppata da Motif introduce un terzo insegnamento critico. Il sistema enfatizza il filtraggio basato sulla difficoltà, mantenendo solo i task i cui tassi di successo rientrano in una banda definita, piuttosto che scalare indiscriminatamente l'addestramento basato su ricompense. Questo approccio risponde direttamente a un problema che molte organizzazioni incontrano sperimentando con il reinforcement learning: regressioni nelle prestazioni, collasso modale o miglioramenti fragili che svaniscono al di fuori dei benchmark standard.

Motif riutilizza inoltre le traiettorie attraverso diverse policy ed espande i range di clipping, scambiando la purezza teorica con la stabilità pratica dell'addestramento. Il messaggio per le aziende è inequivocabile: il reinforcement learning è un problema di sistemi, non solo di modelli di ricompensa. Senza un attento filtraggio, riutilizzo e bilanciamento multi-task, il RL può destabilizzare modelli che sarebbero altrimenti pronti per la produzione.

L'ultimo aspetto critico evidenziato dal paper riguarda l'ottimizzazione della memoria. L'utilizzo da parte di Motif di ottimizzazioni a livello di kernel per ridurre la pressione sulla memoria durante il RL sottolinea un vincolo spesso trascurato negli ambienti aziendali. Le tecniche come l'ottimizzazione a livello di funzione di perdita determinano se le fasi avanzate di addestramento siano anche solo praticabili. Per le organizzazioni che operano su cluster condivisi o in ambienti regolamentati, questo rafforza la necessità di investimenti ingegneristici a basso livello, non solo di sperimentazione sull'architettura del modello.

Il valore reale del Motif-2-12.7B-Reasoning risiede nella trasparenza metodologica con cui i risultati sono stati ottenuti. Il documento sostiene, implicitamente ma in modo convincente, che le prestazioni di ragionamento si conquistano attraverso un design di addestramento disciplinato, non solo attraverso la scala del modello. Per le aziende che costruiscono LLM proprietari, l'insegnamento è pragmatico: investire precocemente in allineamento dei dati, infrastruttura e stabilità dell'addestramento, oppure rischiare di spendere milioni per modelli che non ragionano mai in modo affidabile in produzione.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Gemini 3 Pro: la vera rivoluzione è nell'interfaccia

Business

Gemini 3 Pro: la vera rivoluzione è nell'interfaccia

Di Antonino Caffo
Questa IA con 30 miliardi di parametri è più forte di molti matematici umani

Business

Questa IA con 30 miliardi di parametri è più forte di molti matematici umani

Di Antonino Caffo
Il problema del coding con l'IA? Manca il contesto
1

Business

Il problema del coding con l'IA? Manca il contesto

Di Antonino Caffo
Natale conveniente: SelfyConto ti regala 60€ in buoni Amazon senza costi

Business

Natale conveniente: SelfyConto ti regala 60€ in buoni Amazon senza costi

Di Dario De Vita
L’IA ci rende stupidi? Come evitarlo e imparare meglio
1

Business

L’IA ci rende stupidi? Come evitarlo e imparare meglio

Di Veronica Pruinelli e Erik P. Sganzerla
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.