image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Migliori alimentatori PC economici (febbraio 2026) Migliori alimentatori PC economici (febbraio 2026)...
Immagine di Migliori schede madri gaming (febbraio 2026) Migliori schede madri gaming (febbraio 2026)...

Dalla Cina un modello IA open-source più potente di GPT-4 Turbo, si chiama DeepSeek Coder V2

DeepSeek Coder V2 è un modello open-source in grado di superare i modelli chiusi più avanzati, come GPT-4 Turbo, in compiti di programmazione e matematica.

Advertisement

Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor @Tom's Hardware Italia

Pubblicato il 20/06/2024 alle 10:35
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La startup cinese DeepSeek, già nota per aver sviluppato un concorrente di ChatGPT addestrato su 2 trilioni di token in inglese e cinese, ha annunciato il rilascio di DeepSeek Coder V2, un modello di linguaggio di codice open-source basato su un'architettura "mixture of experts" (MoE). Questo nuovo modello basato su DeepSeek-V2, si distingue per le sue eccezionali capacità nei compiti di programmazione e matematica, supportando oltre 300 linguaggi di programmazione e superando modelli chiusi di punta come GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro.

Il modello DeepSeek Coder originale, con fino a 33 miliardi di parametri, aveva già ottenuto buoni risultati nei benchmark, con funzionalità come il completamento del codice a livello di progetto e l'infilling, ma supportava solo 86 linguaggi di programmazione e una finestra di contesto di 16K. La nuova versione V2 ha ampliato il supporto linguistico a 338 linguaggi e la finestra di contesto a 128K, permettendogli di gestire compiti di programmazione più complessi ed estesi.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Nei test condotti sui benchmark MBPP+, HumanEval e Aider, progettati per valutare la generazione di codice, l'editing e le capacità di risoluzione dei problemi dei modelli di linguaggio, DeepSeek Coder V2 ha ottenuto punteggi rispettivamente di 76.2, 90.2 e 73.7, superando la maggior parte dei modelli chiusi e open-source, tra cui GPT-4 Turbo, Claude 3 Opus, Gemini 1.5 Pro, Codestral e Llama-3 70B. Prestazioni simili sono state osservate nei benchmark progettati per valutare le capacità matematiche del modello (MATH e GSM8K). L'unico modello che ha superato in più benchmark l'offerta di DeepSeek è stato GPT-4o, che ha ottenuto punteggi leggermente superiori in HumanEval, LiveCode Bench, MATH e GSM8K.

In the Arena-Hard-Auto leaderboard, DeepSeek-Coder-V2 surpasses Yi-large,Claude3-Opus, GLM4, and Qwen2-72B. pic.twitter.com/BJk7Gvwd3U

— DeepSeek (@deepseek_ai) June 17, 2024
Questo contenuto è ospitato su una piattaforma esterna. Per visualizzarlo, è necessario accettare i cookie

DeepSeek ha affermato di aver raggiunto questi avanzamenti tecnici e prestazionali utilizzando DeepSeek V2, basato sul suo framework Mixture of Experts, come base. In sostanza, l'azienda ha pre-addestrato il modello base V2 su un ulteriore dataset di 6 trilioni di token, principalmente costituito da dati relativi a codice e matematica provenienti da GitHub e CommonCrawl. Questo permette al modello, disponibile in opzioni da 16B e 236B parametri, di attivare solo 2.4B e 21B parametri "esperti" per affrontare i compiti specifici, ottimizzando al contempo le esigenze di calcolo e applicazione diverse.

Oltre a eccellere nei compiti di programmazione e matematica, DeepSeek Coder V2 offre prestazioni di tutto rispetto anche nei compiti di ragionamento generale e comprensione linguistica. Ad esempio, nel benchmark MMLU, progettato per valutare la comprensione linguistica su più compiti, ha ottenuto un punteggio di 79.2. Questo risultato è significativamente migliore rispetto ad altri modelli specifici per il codice e quasi simile al punteggio di Llama-3 70B. Da parte loro, GPT-4o e Claude 3 Opus continuano a guidare la categoria MMLU con punteggi di 88.7 e 88.6 rispettivamente, mentre GPT-4 Turbo segue da vicino.

One of the most impressive teams in generative AI and open source killing it again!

The technical papers are amongst the best out there and performance has been exceptional from the final models with permissive licenses.

Great to see, everyone should try the 16b version 🚀 https://t.co/lmggkEgj2n

— Emad (@EMostaque) June 17, 2024
Questo contenuto è ospitato su una piattaforma esterna. Per visualizzarlo, è necessario accettare i cookie

Questo sviluppo dimostra che i modelli open-source specifici per il codice stanno finalmente eccellendo in un'ampia gamma di compiti, non solo nei loro casi d'uso principali, e si stanno avvicinando ai modelli chiusi all'avanguardia. Attualmente, DeepSeek Coder V2 è offerto con una licenza MIT, che consente sia l'uso di ricerca che quello commerciale senza restrizioni. Gli utenti possono scaricare le versioni da 16B e 236B tramite Hugging Face, oppure accedere ai modelli tramite API sulla piattaforma dell'azienda con un modello a pagamento in base all'utilizzo. Inoltre, per coloro che desiderano testare le capacità dei modelli, l'azienda offre la possibilità di interagire con DeepSeek Coder V2 tramite chatbot.

Fonte dell'articolo: venturebeat.com

Le notizie più lette

#1
Furto in casa Google, rubati i segreti del chip Tensor
5

Smartphone

Furto in casa Google, rubati i segreti del chip Tensor

#2
Un'iPhone dotato di internet satellitare? Si ma tramite una cover

Smartphone

Un'iPhone dotato di internet satellitare? Si ma tramite una cover

#3
NASA: Hubble individua galassia quasi invisibile

Scienze

NASA: Hubble individua galassia quasi invisibile

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Migliori schede madri gaming (febbraio 2026)
2

GUIDA ALL'ACQUISTO

Migliori schede madri gaming (febbraio 2026)

Di Antonello Buzzi, David Bossi
Migliori alimentatori PC economici (febbraio 2026)
3

GUIDA ALL'ACQUISTO

Migliori alimentatori PC economici (febbraio 2026)

Di Antonello Buzzi, David Bossi
Migliori mouse ergonomici e verticali (febbraio 2026)

GUIDA ALL'ACQUISTO

Migliori mouse ergonomici e verticali (febbraio 2026)

Di Antonello Buzzi, David Bossi
Microsoft: i chatbot AI peggiorano con le lunghe chat
4

Hardware

Microsoft: i chatbot AI peggiorano con le lunghe chat

Di Antonello Buzzi
Sotto i 50€? Questa HP DeskJet ha Wi-Fi e stampa a colori

Offerte e Sconti

Sotto i 50€? Questa HP DeskJet ha Wi-Fi e stampa a colori

Di Dario De Vita

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.