Smart Response Technology

Recensione - Test dell'Intel Z68, il chipset che tutti gli appassionati aspettavano.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Smart Response Technology: prestazioni di archiviazione migliori

Nelle nostre anteprime abbiamo già spiegato l'idea che c'è dietro alla tecnologia di caching dello Z68, ma per chi non le ha lette, l'idea è semplice: tenere un maggior numero di dati più vicini al processore, per un rapido accesso. Non bastano infatti le cache L1 in kilobyte o la cache L3 in megabyte, un sistema si compone anche di diversi gigabyte di memoria fino ad arrivare ai terabyte di un hard disk. Il problema è che quest'ultimi sono lenti se raffrontati alle cache. Per questo Intel ha pensato alla tecnologia di caching SSD, un sistema di archiviazione molto più rapido che si pone a cavallo tra RAM e hard disk.

Smart Response Technology: Caching intelligente

In sostanza la tecnologia opera su blocchi di dati (anziché interi file). Questo aiuta a massimizzare l'efficienza della capacità della cache. Il meccanismo di caching sfrutta il principio della località, che è al centro di ogni gerarchia di memoria. La cache della CPU, per esempio, dipende dalla località temporale e archivia i dati che si pensa debbano essere usati nuovamente. In questo modo il sistema non deve ripescare le informazioni da un dispositivo d'archiviazione più lento, ma le può prendere dalla cache e così velocizzare tutto il processo. La stessa cosa è vera per l'SSD che funge da cache. Gli algoritmi di Intel provano ad archiviare i dati a cui accedete con maggiore frequenza sull'SSD.

L'informazione nella cache è non volatile, il che significa che i dati a cui accedete rimangono sull'SSD, anche se riavviate il sistema. Certamente, l'unico modo per avere una cache di lettura sul SSD è accedervi da un hard disk almeno una volta. È ovvio che, a una prima lettura con la cache abilitata, non noterete alcun miglioramento prestazionale rispetto al singolo hard disk. La seconda e terza lettura sono quelle in cui noterete un incremento delle prestazioni attribuibile al SSD. Intel afferma che le scritture possono essere messe immediatamente in cache. Tuttavia è importante capire che il caching migliora le prestazioni delle operazioni in lettura. Le scritture potrebbero essere inserite in cache, ma le operazioni di scrittura pesanti non saranno velocizzate perché mantenere una coerenza dei dati richiede un'operazione di write-through che mette le informazioni in cache e sull'hard disk simultaneamente. Di fondo, state ancora lavorando con alla velocità dell'hard disk.

Fino a questo punto, abbiamo spiegato il caching in un modo abbastanza semplice. I dati in lettura sono messi in cache dopo un accesso e le informazioni scritte possono essere inserite in cache immediatamente. Non è un approccio molto efficiente. L'algoritmo di Intel distingue in modo intelligente tra quelli che considera blocchi di alto valore che rappresentano un'applicazione, l'utente e i dati di avvio e quelli in bassa priorità. Le scansioni di un antivirus, per esempio, hanno un valore basso. In modo simile, flussi puramente sequenziali che si manifestano riproducendo un film o copiando file di grandi dimensioni sono considerati dati non frequenti e non sono messi in cache. Dopo tutto, quante volte guardate un film e poi lo stesso due giorni dopo, giustificando l'occupazione di spazio sull'SSD? Intel ha scelto d'inserire nel disco i dati che possono essere consultati con maggiore frequenza dall'SSD una seconda e terza volta.

Anche i chipset mobile HM67 e QM67 sono in grado di attivare il caching SSD. Tuttavia la policy per il caching in corrente alternata è differente da quella di un sistema che lavora in corrente continua. Secondo Intel, questo è principalmente un problema di gestione dell'energia. Immaginiamo che si tratti di una misura per impedire che i dispositivi di archiviazione riducano eccessivamente la durata della batteria.