Storage

Appendice: approfondimento su Storage Bench v1.0

Pagina 11: Appendice: approfondimento su Storage Bench v1.0

Appendice: approfondimento su Storage Bench v1.0

I produttori di SSD preferiscono che testiamo i loro prodotti appena usciti dalla scatola, perché le unità allo stato solido rallentano con il passare del tempo. Se si dà a un SSD abbastanza tempo, però, raggiungerà un livello stazionario di prestazioni. A quel punto, i risultati dei benchmark rispecchieranno un uso più coerente sul lungo termine. In generale, le letture sono un po' più veloci, le scritture più lente, e i cicli di cancellazione diventano lenti come non mai.

Testare SSD nuovi quindi ci dà le prestazioni che avranno solo per un tempo limitato. Dopodiché si hanno le prestazioni in stato di equilibrio fino a quando non eseguite una cancellazione sicura e ricominciate tutto da capo. Noi non riformattiamo la nostra workstation ogni settimana, e sospettiamo che per la maggior parte di voi valga la stessa cosa. Perciò le prestazioni di un SSD nuovo non sono rilevanti. Sono le prestazioni di equilibrio quelle che contano.

È un nuovo approccio per noi, ma i professionisti IT lo usano da molto tempo per valutare gli SSD. Ecco perché il consorzio di produttori e consumatori di prodotti di archiviazione, Storage Networking Industry Association (SNIA), raccomanda di testare le prestazioni in stato di equilibrio. È davvero l'unico modo per esaminare l'andamento reale di un SSD.

Ci sono diversi modi per ottenere quei dati; noi usiamo Intel IPEAK (Intel Performance Evaluation and Analysis Kit). Si tratta di un benchmark basato su una traccia:  significa che usiamo un registratore di I/O per misurare le attività sul drive durante una certa attività, e rilevare così le prestazioni. La traccia è ripetibile, o "riciclabile" se preferite, e così possiamo riprodurre lo stesso test più volte su diversi prodotti.  

La nostra traccia, già usata per Storage Bench v1.0, proviene da due settimane di registrazione sulla nostra workstation, e dovrebbe riflettere l'attività I/O durante le prime due settimane d'uso di un computer.

L'installazione include:

  • Giochi come Call of Duty: Modern Warfare 2, Crysis 2 e Civilization V
  • Microsoft Office 2010 Professional Plus
  • Firefox
  • VMware
  • Adobe Photoshop CS5
  • Diverse applicazioni Canon e HP Printer
  • Strumenti di calibrazione LCD: ColorEyes, i1Match
  • Software vario: WinZip, Adobe Acrobat Reader, WinRAR, Skype
  • Strumenti di sviluppo: Android SDK, iOS SDK e Bloodshed
  • Software multimediali: iTunes, VLC

Il carico di lavoro I/O è abbastanza moderato. Abbiamo letto notizie, navigato sul Web per cercare informazioni, letto molti testi, compilato occasionalmente del codice, eseguito benchmark di giochi e calibrato monitor. Su base giornaliera, modifichiamo foto e le carichiamo sul nostro server aziendale, scriviamo articoli in Word ed eseguiamo ricerche tra più finestre di Firefox.

Queste sono le statistiche della traccia:

 

Statistiche Storage Bench v1.0
Operazioni di lettura 7 408 938
Operazioni di scrittura 3 061 162
Dati letti 84.27 GB
Dati scritti 142.19 GB
Queue Depth massima 452

Secondo i dati, nelle due settimane abbiamo scritto più dati di quelli che abbiamo letto. Tutto questo però va messo nel contesto, soprattutto per il fatto che la traccia include l'attività di I/O necessaria a configurare il computer – un'attività che si fa una volta sola. Se escludiamo le prime ore della traccia, il quantitativo di dati scritti scende di oltre il 50%. Quindi su una base giornaliera, il modello d'uso è uniforme e include un mix abbastanza bilanciato di letture e scritture (circa 8-10 GB/giorno).

Abbiamo evitato in modo specifico di creare una traccia molto grande installando più cose nel corso di poche ore perché non rispecchia l'uso reale. Come sottolinea Intel, tracce di questa natura sono in gran parte artificiose, perché non tengono conto della garbage collection in idle, che ha un effetto tangibile sulle prestazioni (ne riparleremo più avanti).