image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di La California impone la verifica dell'età su tutti gli OS La California impone la verifica dell'età su tutti gli OS...
Immagine di 5 cose da fare prima di comprare altra RAM per il vostro PC 5 cose da fare prima di comprare altra RAM per il vostro PC...

WuDao 2.0 è più avanzato delle controparti di OpenAI e Google?

Il modello di elaborazione del linguaggio naturale WuDao 2.0 potrebbe essere più avanzato di quelli proposti da OpenAI e Google.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 07/06/2021 alle 16:30 - Aggiornato il 09/08/2022 alle 12:19
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

I ricercatori della Beijing Academy of Artificial Intelligence (BAAI) hanno annunciato questa settimana un modello di elaborazione del linguaggio naturale chiamato WuDao 2.0 che, secondo il South China Morning Post, è più avanzato rispetto a quelli simili sviluppati da OpenAI e Google.

Nell’articolo viene affermato che WuDao 2.0 utilizza 1.750 miliardi di parametri per "simulare conversazioni, scrivere poesie, comprendere immagini e persino generare ricette". I modelli sviluppati da OpenAI e Google dovrebbero fare cose simili, ma usano meno parametri per farlo, il che significa che WuDao 2.0 è probabilmente migliore in queste attività. Questo nuovo modello è stato specificamente confrontato con il modello GPT-3 OpenAI annunciato nel 2020, che si basa su 175 miliardi di parametri, e quello Switch Transformer di Google che ha aumentato il numero di parametri a 1.000 miliardi a gennaio

Il numero di parametri non è l'unica cosa che conta. Anche i modelli devono essere addestrati e la quantità di dati utilizzati in tale processo migliora le loro prestazioni. Il South China Morning Post ha affermato che WuDao 2.0 è stato addestrato su "4,9 terabyte di immagini e testi, inclusi 1,2 terabyte ciascuno di testi cinesi e inglesi", da BAAI. Ma più dati non significa necessariamente dati migliori, quindi è difficile fare un confronto diretto. OpenAI ha affermato che GPT-3 è stato addestrato su soli 570 GB di dati, ad esempio, ma questo è stato dopo aver filtrato tre volte il set di dati originale per migliorarne la qualità. L'organizzazione ha effettivamente utilizzato 570 GB di dati tratti da un pool di 45 TB.

Tutto ciò per dire che i numeri grezzi associati a WuDao 2.0 sono impressionanti, ma potrebbero non essere indicativi delle sue prestazioni. Non ci vorrà molto prima che il modello venga sottoposto a stress test: secondo quanto riferito, BAAI ha collaborato con 22 aziende, tra cui il produttore di smartphone Xiaomi, per portare WuDao 2.0 nei loro prodotti. Le organizzazioni occidentali stanno spingendo di più sull'intelligenza artificiale: basta guardare i piani di NVIDIA per la sua prima CPU, la crescente dipendenza di Google per risolvere problemi come il guasto degli HDD e la spinta di ARM per migliorare le prestazioni di apprendimento automatico tramite l'architettura del set di istruzioni ARM V9.

Alla ricerca di un nuovo PSU per alimentare la vostra prossima GPU? Corsair RM750X, alimentatore modulare da 750W, è disponibile su Amazon.

Le notizie più lette

#1
5 cose da fare prima di comprare altra RAM per il vostro PC
8

Hardware

5 cose da fare prima di comprare altra RAM per il vostro PC

#2
Ho scritto che il coding è morto, ecco come gli sviluppatori mi hanno risposto

Business

Ho scritto che il coding è morto, ecco come gli sviluppatori mi hanno risposto

#3
La California impone la verifica dell'età su tutti gli OS
2

Hardware

La California impone la verifica dell'età su tutti gli OS

#4
AI Far West: Anthropic contro il Pentagono e la sfida globale tra Etica e Potere
1

Business

AI Far West: Anthropic contro il Pentagono e la sfida globale tra Etica e Potere

#5
Microsoft Teams colma una lacuna storica nelle chat
4

Hardware

Microsoft Teams colma una lacuna storica nelle chat

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

5 cose da fare prima di comprare altra RAM per il vostro PC
8

Hardware

5 cose da fare prima di comprare altra RAM per il vostro PC

Di Andrea Ferrario
La California impone la verifica dell'età su tutti gli OS
2

Hardware

La California impone la verifica dell'età su tutti gli OS

Di Antonello Buzzi
Microsoft Teams colma una lacuna storica nelle chat
4

Hardware

Microsoft Teams colma una lacuna storica nelle chat

Di Antonello Buzzi
NVIDIA ammette che la carenza di GPU non finirà presto
7

Hardware

NVIDIA ammette che la carenza di GPU non finirà presto

Di Antonello Buzzi
Recensione be quiet! Light Loop 360mm, potente e silenzioso
3

Hardware

Recensione be quiet! Light Loop 360mm, potente e silenzioso

Di Marco Pedrani

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.