Testiamo un’ampia gamma di CPU Intel, insieme a un processore AMD EPYC 7601 con 32 core e 64 thread in configurazioni server dual-socket.
Core / Thread | Base / Boost (GHz) | Cache L3 | TDP | Supporto di memoria | Prezzo | |
Cascade Lake Platinum 8280 | 28 / 56 | 2.7 / 4.0 | 38.5MB | 205W | 6 canali DDR4-2933 | $10.009 |
AMD EPYC Naples 7601 | 32 / 64 | 2.2 / 3.2 | 64MB | 180W | 8 canali DDR4-2666 | $4500 |
Cascade Lake Platinum 8268 | 24 / 48 | 2.9 / 3.9 | 35.75MB | 205W | 6 canali DDR4-2933 | $6302 |
Cascade Lake Gold 6230 | 20 / 40 | 2.1 / 3.9 | 28MB | 125W | 6 canali DDR4-2933 | $1894 |
Skylake-SP Platinum 8176 | 28 / 56 | 2.1 / 3.8 | 38.5MB | 165W | 6 canali DDR4-2666 | $8719 |
Skylake-SP Gold 6152 | 22 / 44 | 2.1 / 3.7 | 30.25MB | 140W | 6 canali DDR4-2666 | $3661 |
Skylake-SP Gold 6154 | 18 / 36 | 3.0 / 3.7 | 24.75MB | 200W | 6 canali DDR4-2666 | $3543 |
Broadwell Xeon E5-2697 v4 | 18 / 36 | 2.3 / 3.6 | 45MB | 145W | 4 canali DDR4-2400 | $2706 |
Haswell Xeon E5-2699 v3 | 18 / 36 | 2.3 / 3.6 | 45MB | 145W | 4 canali DDR4-2133 | $4115 |
Piattaforme di test
Intel Purley S2P2Y3Q Server
Per la recensione degli Xeon Scalable di prima generazione, Intel inviò una piattaforma Server System S2P2SY3Q con una Intel Server Board 2600WF dual-socket. Abbiamo rimesso in piedi quel sistema per testare le CPU di seconda generazione, dato che i nuovi chip sono compatibili con i precedenti server LGA 3647.
Questo sistema originariamente era dotato di 12 DIMM Hynix DDR4-2666 da 32 GB, che abbiamo sostituito con 12 moduli da 32 GB Hynix DDR4-2933 al fine di sfruttare il bandwidth più alto dei Cascada Lake. Abbiamo testato tutti gli Xeon Scalable di prima e seconda generazione con questi moduli, che sono stati portati a 2666 MHz sui chip Skylake.
La Software Development Platform include due alimentatori ridondanti 80 PLUS da 1100W. Gli alimentatori, come le ventole, sono collegabili a caldo per evitare interruzioni di esercizio a causa del fallimento dei componenti.
Intel Wildcat Pass S2G3SY1Q Server
Abbiamo testato il Broadwell-EP Xeon E5-2697 v4 e l’Haswell-EPXeon E5-2699 v3 su un server Intel Software Development Platform. Il sistema di test di pre-produzione Grantley-R EP S2G3SY1Q (Wildcat Pass) Broadwell Qualification 2U in origine aveva due Xeon E5-2697 v4 con 18 core con Hyper-Threading e 45 MB di cache condivisa ciascuno.
La piattaforma di test ha un chipset C610 di Intel e include otto moduli da 32 GB Hynix DDR4-2400 (HMA84GL7AMR4N-UH). Intel ha creato questo server come piattaforma per lo sviluppo software e non è stato pensato per l’uso in un ambiente di produzione. Come tale non ha alcune funzionalità che facilitano la ridondanza, come il doppio alimentatore. Uno degli alloggiamenti dell’alimentatore è coperto, mentre l’altro ospita un modello da 900 watt.
AMD Speedway-AMG-16 Server
Abbiamo tesato le CPU EPYC Naples 7601, che offrono un totale di 64 core e 128 thread, sul server Speedway-AMG-16. Questo sistem ha 16 moduli Samsung DDR4-2666 da 16 GB, per una capacità totale di 256 GB. Include anche alimentatori ridondanti da 1200W e quattro ventole, il tutto estraibile a caldo.
Come abbiamo testato
Abbiamo testato i server con lo script open source Linux-Bench, che è disponibile su Linux-Bench.com e GitHub. ServeTheHome e altri nella comunità open soruce lo mantengono. Abbiamo testato con Ubuntu Server 18.04.2 LTS. Lo script installa dipendenze e fanno girare diversi benchmark open source indipendenti ben documentati in un container Docker. La suite di test sfrutta il compilatore GCC standard, che è usato dalle architetture AMD, Intel, ARM e Power. Naturalmente in molti casi i rispettivi compilatori di AMD e Intel sbloccano maggiori prestazioni per le rispettive architetture.
La maggior parte delle installazioni enterprise è realizzata per scopi e carichi specifici e per quanto possa essere interessante testare applicazioni, ci sono troppe variabili per rendere i risultati applicabili se non a un piccolo sottoinsieme di utenti. I benchmark in questo articolo comprendono diversi strumenti industriali che quantificano le tendenze prestazionali. Ma è interessante notare che le implementazioni ottimizzate potrebbero sbloccare ancora più prestazioni.