Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di C'è vita per l'IA open-source. Lo dice Arcee AI
Business
Immagine di Amazon annuncia il licenziamento di 16.000 dipendenti Amazon annuncia il licenziamento di 16.000 dipendenti...
Immagine di Questo agente AI è virale, per un'ottima ragione Questo agente AI è virale, per un'ottima ragione...

C'è vita per l'IA open-source. Lo dice Arcee AI

Trinity è un modello da 400B di parametri, tra i più grandi open source mai realizzati

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 29/01/2026 alle 11:25
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Possono appena 30 dipendenti (!!!) impensierire i colossi dell'IA? A quanto pare si, almeno sulla carta.

Arcee AI ha rilasciato Trinity, un modello linguistico di 400 miliardi di parametri completamente open source, con licenza Apache permanente. L'azienda sostiene che si tratti di uno dei più grandi modelli fondazionali mai addestrati e rilasciati da un'azienda statunitense, posizionandosi come alternativa credibile agli sviluppi controllati da Google, Meta, Microsoft e dai loro partner prediletti OpenAI e Anthropic.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

L'aspetto centrale della vicenda riguarda i costi e i tempi di sviluppo. L'intero processo di addestramento di Trinity è costato 20 milioni di dollari e si è concluso in soli sei mesi, utilizzando 2.048 GPU Nvidia Blackwell B300. Una cifra che impallidisce rispetto agli investimenti miliardari delle grandi aziende tecnologiche, ma che per una startup rappresenta comunque un impegno sostanziale, considerando che Arcee AI ha raccolto finora circa 50 milioni di dollari totali.

Lucas Atkins, Chief Technology Officer di Arcee, riconosce apertamente che la somma investita appare modesta rispetto agli standard dei laboratori più grandi. Tuttavia, difende con orgoglio il risultato raggiunto dal suo team di giovani ricercatori affamati di successo. "La tempistica di sei mesi è stata attentamente calcolata", spiega Atkins, la cui carriera precedente all'era dei modelli linguistici includeva lo sviluppo di assistenti vocali per automobili. Il team ha lavorato attraverso notti insonni e orari prolungati, dimostrando che la determinazione può compensare risorse limitate.

Trinity non nasce da un'ambizione originaria di diventare un nuovo laboratorio AI americano. Il percorso di Arcee è stato più organico e pragmatico. Mark McQuade, fondatore e CEO dell'azienda ed ex dipendente dei primi giorni di Hugging Face, racconta che inizialmente l'attività si concentrava sulla personalizzazione di modelli per grandi clienti aziendali come SK Telecom. "Facevamo solo post-training", spiega McQuade. "Prendevamo il lavoro eccellente di altri: un modello Llama, un modello Mistral, un modello Qwen open source, e lo perfezionavamo per adattarlo all'uso specifico dell'azienda cliente".

Vincere il cuore degli sviluppatori significa offrire il meglio

La decisione di sviluppare un modello proprietario è maturata gradualmente, alimentata da due fattori convergenti. Da un lato, la crescita della base clienti rendeva necessario un maggiore controllo tecnologico. Dall'altro, molti dei migliori modelli open source provenivano dalla Cina, suscitando diffidenza nelle aziende statunitensi o risultando addirittura inaccessibili per restrizioni normative. Prima dell'avventura con Trinity, l'azienda ha testato le proprie capacità con un modello più piccolo da 4,5 miliardi di parametri, sviluppato in partnership con DatologyAI. Il successo di quel progetto pilota ha aperto la strada a iniziative più ambiziose.

I benchmark dimostrano che Trinity, attualmente in versione preview mentre prosegue il post-training, regge il confronto con Meta Llama 4 Maverick 400B e con GLM-4.5 di Z.ai, un modello ad alte prestazioni dell'Università Tsinghua in Cina. Nei test condotti sui modelli base, Trinity mostra risultati competitivi e in alcuni casi superiori a Llama in ambiti come programmazione, matematica, ragionamento e conoscenze generali.

Come altri modelli all'avanguardia, Trinity è ottimizzato per la codifica e processi complessi multi-step come gli agenti AI. Tuttavia, nonostante le dimensioni imponenti, attualmente supporta esclusivamente il testo, il che impedisce di considerarlo un vero competitore di punta. Atkins conferma però che l'espansione è in cantiere: un modello per la visione è già in fase di sviluppo e una versione speech-to-text figura nella roadmap. Al confronto, Llama 4 Maverick di Meta è già multi-modale, gestendo testo e immagini.

Prima di aggiungere nuove modalità AI, Arcee ha voluto concentrarsi su un modello linguistico base che impressionasse i suoi clienti target principali: sviluppatori e ricercatori accademici. L'obiettivo strategico è attrarre aziende statunitensi di ogni dimensione, distogliendole dalla scelta di modelli aperti cinesi. "In definitiva, chi vincerà questa partita e conquisterà davvero l'utilizzo sarà chi avrà il miglior modello open-weight", afferma Atkins. "Per conquistare il cuore e la mente degli sviluppatori, devi offrire loro il meglio".

Il modello Trinity di grandi dimensioni segue due versioni più piccole rilasciate a dicembre: Trinity Mini, con 26 miliardi di parametri, completamente addestrato per il ragionamento in applicazioni web e agenti, e Trinity Nano, con 6 miliardi di parametri, un modello sperimentale progettato per esplorare i confini dei modelli compatti ma comunicativi. Tutti e tre rappresentano un'accelerazione notevole per un'azienda così giovane.

Ma se gli Stati Uniti dispongono già di Llama, quale necessità esiste per un altro modello open weight? La risposta di Arcee ruota attorno all'impegno irrevocabile verso l'open source autentico. Scegliendo la licenza Apache, la startup garantisce che i suoi modelli rimarranno sempre aperti. Questa posizione acquisisce significato dopo che Mark Zuckerberg, CEO di Meta, ha lasciato intendere l'anno scorso che la sua azienda potrebbe non rendere sempre open source tutti i suoi modelli più avanzati. "Llama può essere considerato non veramente open source poiché utilizza una licenza controllata da Meta con clausole commerciali e limitazioni d'uso", osserva Atkins. Questa situazione ha spinto alcune organizzazioni open source a contestare la conformità di Llama agli standard del settore.

McQuade sintetizza la missione aziendale: "Arcee esiste perché gli Stati Uniti necessitano di un'alternativa permanentemente aperta, con licenza Apache, di livello avanzato, che possa effettivamente competere nell'attuale frontiera tecnologica". Tutti i modelli Trinity, grandi e piccoli, sono scaricabili gratuitamente. La versione più grande sarà disponibile in tre varianti: Trinity Large Preview, un modello leggermente post-addestrato per seguire istruzioni umane e orientato all'utilizzo conversazionale generale; Trinity Large Base, il modello base senza post-training; e TrueBase, un modello privo di dati di istruzione o post-training, pensato per aziende o ricercatori che vogliano personalizzarlo senza dover rimuovere dati, regole o assunzioni preesistenti.

Arcee AI offrirà eventualmente una versione ospitata del suo modello di rilascio generale con prezzi API competitivi. Quel rilascio è previsto entro sei settimane mentre la startup continua a perfezionare l'addestramento al ragionamento del modello. Il prezzo API per Trinity Mini è di 0,045/0,15 dollari, con un livello gratuito a velocità limitata. Nel frattempo, l'azienda continua a vendere opzioni di post-training e personalizzazione, mantenendo vivo il modello di business originario che ha finanziato questa ambiziosa espansione.

Fonte dell'articolo: techcrunch.com

Le notizie più lette

#1
IPVanish VPN - Recensione
3

Hardware

IPVanish VPN - Recensione

#2
La piattaforma unica esiste già, si chiama PC

Editoriale

La piattaforma unica esiste già, si chiama PC

#3
Dopo 34 anni, Linux definisce la successione di Torvalds

Hardware

Dopo 34 anni, Linux definisce la successione di Torvalds

#4
Intel lavora a un processore ibrido x86, cos'è?
2

Hardware

Intel lavora a un processore ibrido x86, cos'è?

#5
NVIDIA rinnova FrameView per FPS oltre ogni limite
4

Hardware

NVIDIA rinnova FrameView per FPS oltre ogni limite

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Questo agente AI è virale, per un'ottima ragione
1

Business

Questo agente AI è virale, per un'ottima ragione

Di Marco Pedrani
Amazon annuncia il licenziamento di 16.000 dipendenti
2

Business

Amazon annuncia il licenziamento di 16.000 dipendenti

Di Antonello Buzzi
LinkedIn certifica le competenze di sviluppo con AI

Business

LinkedIn certifica le competenze di sviluppo con AI

Di Antonello Buzzi
Microsoft risponde alla crisi della memoria con un accordo storico

Business

Microsoft risponde alla crisi della memoria con un accordo storico

Di Marco Pedrani
Microsoft sotto pressione per i consumi d’acqua dei data center
4

Business

Microsoft sotto pressione per i consumi d’acqua dei data center

Di Antonello Buzzi
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.