image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di SanDisk lancia il drive USB-C da 1TB più piccolo di sempre SanDisk lancia il drive USB-C da 1TB più piccolo di sempre...
Immagine di Sono già 8 milioni gli utenti che programmano con Lovable AI Sono già 8 milioni gli utenti che programmano con Lovable A...

Dalla Cina un modello IA open-source più potente di GPT-4 Turbo, si chiama DeepSeek Coder V2

DeepSeek Coder V2 è un modello open-source in grado di superare i modelli chiusi più avanzati, come GPT-4 Turbo, in compiti di programmazione e matematica.

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor

Pubblicato il 20/06/2024 alle 10:35

La startup cinese DeepSeek, già nota per aver sviluppato un concorrente di ChatGPT addestrato su 2 trilioni di token in inglese e cinese, ha annunciato il rilascio di DeepSeek Coder V2, un modello di linguaggio di codice open-source basato su un'architettura "mixture of experts" (MoE). Questo nuovo modello basato su DeepSeek-V2, si distingue per le sue eccezionali capacità nei compiti di programmazione e matematica, supportando oltre 300 linguaggi di programmazione e superando modelli chiusi di punta come GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro.

Il modello DeepSeek Coder originale, con fino a 33 miliardi di parametri, aveva già ottenuto buoni risultati nei benchmark, con funzionalità come il completamento del codice a livello di progetto e l'infilling, ma supportava solo 86 linguaggi di programmazione e una finestra di contesto di 16K. La nuova versione V2 ha ampliato il supporto linguistico a 338 linguaggi e la finestra di contesto a 128K, permettendogli di gestire compiti di programmazione più complessi ed estesi.

Nei test condotti sui benchmark MBPP+, HumanEval e Aider, progettati per valutare la generazione di codice, l'editing e le capacità di risoluzione dei problemi dei modelli di linguaggio, DeepSeek Coder V2 ha ottenuto punteggi rispettivamente di 76.2, 90.2 e 73.7, superando la maggior parte dei modelli chiusi e open-source, tra cui GPT-4 Turbo, Claude 3 Opus, Gemini 1.5 Pro, Codestral e Llama-3 70B. Prestazioni simili sono state osservate nei benchmark progettati per valutare le capacità matematiche del modello (MATH e GSM8K). L'unico modello che ha superato in più benchmark l'offerta di DeepSeek è stato GPT-4o, che ha ottenuto punteggi leggermente superiori in HumanEval, LiveCode Bench, MATH e GSM8K.

In the Arena-Hard-Auto leaderboard, DeepSeek-Coder-V2 surpasses Yi-large,Claude3-Opus, GLM4, and Qwen2-72B. pic.twitter.com/BJk7Gvwd3U

— DeepSeek (@deepseek_ai) June 17, 2024
Questo contenuto è ospitato su una piattaforma esterna. Per visualizzarlo, è necessario accettare i cookie

DeepSeek ha affermato di aver raggiunto questi avanzamenti tecnici e prestazionali utilizzando DeepSeek V2, basato sul suo framework Mixture of Experts, come base. In sostanza, l'azienda ha pre-addestrato il modello base V2 su un ulteriore dataset di 6 trilioni di token, principalmente costituito da dati relativi a codice e matematica provenienti da GitHub e CommonCrawl. Questo permette al modello, disponibile in opzioni da 16B e 236B parametri, di attivare solo 2.4B e 21B parametri "esperti" per affrontare i compiti specifici, ottimizzando al contempo le esigenze di calcolo e applicazione diverse.

Oltre a eccellere nei compiti di programmazione e matematica, DeepSeek Coder V2 offre prestazioni di tutto rispetto anche nei compiti di ragionamento generale e comprensione linguistica. Ad esempio, nel benchmark MMLU, progettato per valutare la comprensione linguistica su più compiti, ha ottenuto un punteggio di 79.2. Questo risultato è significativamente migliore rispetto ad altri modelli specifici per il codice e quasi simile al punteggio di Llama-3 70B. Da parte loro, GPT-4o e Claude 3 Opus continuano a guidare la categoria MMLU con punteggi di 88.7 e 88.6 rispettivamente, mentre GPT-4 Turbo segue da vicino.

One of the most impressive teams in generative AI and open source killing it again!

The technical papers are amongst the best out there and performance has been exceptional from the final models with permissive licenses.

Great to see, everyone should try the 16b version 🚀 https://t.co/lmggkEgj2n

— Emad (@EMostaque) June 17, 2024
Questo contenuto è ospitato su una piattaforma esterna. Per visualizzarlo, è necessario accettare i cookie

Questo sviluppo dimostra che i modelli open-source specifici per il codice stanno finalmente eccellendo in un'ampia gamma di compiti, non solo nei loro casi d'uso principali, e si stanno avvicinando ai modelli chiusi all'avanguardia. Attualmente, DeepSeek Coder V2 è offerto con una licenza MIT, che consente sia l'uso di ricerca che quello commerciale senza restrizioni. Gli utenti possono scaricare le versioni da 16B e 236B tramite Hugging Face, oppure accedere ai modelli tramite API sulla piattaforma dell'azienda con un modello a pagamento in base all'utilizzo. Inoltre, per coloro che desiderano testare le capacità dei modelli, l'azienda offre la possibilità di interagire con DeepSeek Coder V2 tramite chatbot.

Fonte dell'articolo: venturebeat.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Non ti pago per avviare il PC, scatta la denuncia
  • #2
    Lavorare 72 ore a settimana, il nuovo modello che piace a USA e Cina
  • #3
    BMW X3 20d: il SUV più desiderato d'Italia cambia forma
  • #4
    Sono già 8 milioni gli utenti che programmano con Lovable AI
  • #5
    22% di sconto su Amazon con appena 25€ di spesa
  • #6
    Black Friday: upgrade alla tastiera che volevi, con il prezzo che speravi
Articolo 1 di 5
Sono già 8 milioni gli utenti che programmano con Lovable AI
La piattaforma svedese Lovable si avvicina agli 8 milioni di utenti, ma il silenzio sui ricavi e il calo del 40% nel traffico sollevano dubbi sulla sostenibilità.
Immagine di Sono già 8 milioni gli utenti che programmano con Lovable AI
1
Leggi questo articolo
Articolo 2 di 5
SanDisk lancia il drive USB-C da 1TB più piccolo di sempre
SanDisk lancia Extreme Fit, un drive USB-C da 1TB dal design ultra-compatto a L, pensato per restare sempre collegato al laptop.
Immagine di SanDisk lancia il drive USB-C da 1TB più piccolo di sempre
2
Leggi questo articolo
Articolo 3 di 5
Scatta il blocco sui siti porno: cosa succede ora?
Da oggi 12 novembre, in Italia i siti per adulti devono adottare sistemi di verifica dell'età sicuri e indipendenti, così da rispettare le nuove norme AGCOM.
Immagine di Scatta il blocco sui siti porno: cosa succede ora?
39
Leggi questo articolo
Articolo 4 di 5
Windows 26 riprende l’eredità di Vista e 7, ma con stile
Il designer Abdi propone un Windows 26 che recupera l'estetica di Vista e 7 con il Liquid Glass, mentre Microsoft punta su AI e piattaforme agentiche.
Immagine di Windows 26 riprende l’eredità di Vista e 7, ma con stile
7
Leggi questo articolo
Articolo 5 di 5
Le RTX APOCALYPSE di ZOTAC arrivano finalmente in Occidente
La lineup di GPU ispirata al personaggio “Apocalypse Girl” fa il suo ingresso nel mercato nordamericano, segnando una svolta nella strategia di ZOTAC.
Immagine di Le RTX APOCALYPSE di ZOTAC arrivano finalmente in Occidente
2
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.