CPU

Configurazioni di prova e come abbiamo testato

Pagina 3: Configurazioni di prova e come abbiamo testato

Testiamo un’ampia gamma di CPU Intel, insieme a un processore AMD EPYC 7601 con 32 core e 64 thread in configurazioni server dual-socket.

Core / Thread
Base / Boost (GHz)
Cache L3
TDP
Supporto di memoria
Prezzo
Cascade Lake Platinum 8280
28 / 56 2.7 / 4.0 38.5MB 205W 6 canali DDR4-2933 $10.009
AMD EPYC Naples 7601
32 / 64 2.2 / 3.2 64MB 180W 8 canali DDR4-2666 $4500
Cascade Lake Platinum 8268
24 / 48 2.9 / 3.9 35.75MB 205W 6 canali DDR4-2933 $6302
Cascade Lake Gold 6230
20 / 40 2.1 / 3.9 28MB 125W 6 canali DDR4-2933 $1894
Skylake-SP Platinum 8176
28 / 56 2.1 / 3.8 38.5MB 165W 6 canali DDR4-2666 $8719
Skylake-SP Gold 6152
22 / 44 2.1 / 3.7 30.25MB 140W 6 canali DDR4-2666 $3661
Skylake-SP Gold 6154
18 / 36 3.0 / 3.7 24.75MB 200W 6 canali DDR4-2666 $3543
Broadwell Xeon E5-2697 v4
18 / 36 2.3 / 3.6 45MB 145W 4 canali DDR4-2400 $2706
Haswell Xeon E5-2699 v3
18 / 36 2.3 / 3.6 45MB 145W 4 canali DDR4-2133 $4115

Piattaforme di test

Intel Purley S2P2Y3Q Server

Per la recensione degli Xeon Scalable di prima generazione, Intel inviò una piattaforma Server System S2P2SY3Q con una Intel Server Board 2600WF dual-socket. Abbiamo rimesso in piedi quel sistema per testare le CPU di seconda generazione, dato che i nuovi chip sono compatibili con i precedenti server LGA 3647.

Questo sistema originariamente era dotato di 12 DIMM Hynix DDR4-2666 da 32 GB, che abbiamo sostituito con 12 moduli da 32 GB Hynix DDR4-2933 al fine di sfruttare il bandwidth più alto dei Cascada Lake. Abbiamo testato tutti gli Xeon Scalable di prima e seconda generazione con questi moduli, che sono stati portati a 2666 MHz sui chip Skylake.

La Software Development Platform include due alimentatori ridondanti 80 PLUS da 1100W. Gli alimentatori, come le ventole, sono collegabili a caldo per evitare interruzioni di esercizio a causa del fallimento dei componenti.

Intel Wildcat Pass S2G3SY1Q Server

Abbiamo testato il Broadwell-EP Xeon E5-2697 v4 e l’Haswell-EPXeon E5-2699 v3 su un server Intel Software Development Platform. Il sistema di test di pre-produzione Grantley-R EP S2G3SY1Q (Wildcat Pass) Broadwell Qualification 2U in origine aveva due Xeon E5-2697 v4 con 18 core con Hyper-Threading e 45 MB di cache condivisa ciascuno.

La piattaforma di test ha un chipset C610 di Intel e include otto moduli da 32 GB Hynix DDR4-2400 (HMA84GL7AMR4N-UH). Intel ha creato questo server come piattaforma per lo sviluppo software e non è stato pensato per l’uso in un ambiente di produzione. Come tale non ha alcune funzionalità che facilitano la ridondanza, come il doppio alimentatore. Uno degli alloggiamenti dell’alimentatore è coperto, mentre l’altro ospita un modello da 900 watt.

AMD Speedway-AMG-16 Server

Abbiamo tesato le CPU EPYC Naples 7601, che offrono un totale di 64 core e 128 thread, sul server Speedway-AMG-16. Questo sistem ha 16 moduli Samsung DDR4-2666 da 16 GB, per una capacità totale di 256 GB. Include anche alimentatori ridondanti da 1200W e quattro ventole, il tutto estraibile a caldo.

Come abbiamo testato

Abbiamo testato i server con lo script open source Linux-Bench, che è disponibile su Linux-Bench.com e GitHub. ServeTheHome e altri nella comunità open soruce lo mantengono. Abbiamo testato con Ubuntu Server 18.04.2 LTS. Lo script installa dipendenze e fanno girare diversi benchmark open source indipendenti ben documentati in un container Docker. La suite di test sfrutta il compilatore GCC standard, che è usato dalle architetture AMD, Intel, ARM e Power. Naturalmente in molti casi i rispettivi compilatori di AMD e Intel sbloccano maggiori prestazioni per le rispettive architetture.

La maggior parte delle installazioni enterprise è realizzata per scopi e carichi specifici e per quanto possa essere interessante testare applicazioni, ci sono troppe variabili per rendere i risultati applicabili se non a un piccolo sottoinsieme di utenti. I benchmark in questo articolo comprendono diversi strumenti industriali che quantificano le tendenze prestazionali. Ma è interessante notare che le implementazioni ottimizzate potrebbero sbloccare ancora più prestazioni.