EXECUTIVE SUMMARY

In oltre 300 pagine esamina i nuovi paradigmi come i big data, il cloud storage e il personal cloud, l’efficientamento, la virtualizzazione, la deduplica, la continuità operativa. Esaminata in dettaglio anche la strategia e l'offerta di Data Core, EMC, Fujitsu, HDS, HP, IBM, LenovoEMC, NetApp, Qsan, WD.

Avatar di Giuseppe Saccardi

a cura di Giuseppe Saccardi

EXECUTIVE SUMMARY

L'incremento esponenziale del volume di dati è la cifra distintiva che ha guidato lo sviluppo delle tecnologie storage degli ultimi anni. Se è vero che ormai si comincia a utilizzare l'unità di misura Zettabyte (uno Zettabyte corrisponde a un miliardo di Terabyte) per determinare l'ordine di grandezza dei dati mondiali, va anche sottolineato come il passato più recente sia caratterizzato non solo dalla quantità di informazioni prodotte, ma anche e soprattutto da un radicale cambiamento della loro natura.

In modo ormai prevalente, anche i dati di business e non solo quelli di uso personale sono diventati diversificati, destrutturati e con un'ampia componente di tipo multimediale. Il neologismo Big Data rappresenta una nuova sfida per la gestione delle informazioni, che mette in difficoltà le tecnologie IT attualmente disponibili e, nello storage, pone il focus su modalità di memorizzazione e di acceso caratterizzate da prestazioni elevatissime, che superano quelle richieste dai database tradizionali e che risultano necessarie per poter supportare le nuove applicazioni o per effettuare analisi in tempo reale richieste per estrarre valore di business dalle informazioni di tipo non tradizionale.

Le richieste prestazionali che interessano lo storage influenzano e condizionano le tecnologie di memorizzazione, di trasporto delle informazioni, di accesso e analisi dei dati provenienti da più risorse e si devono confrontare con le richieste di riduzione dei costi, di semplificazione gestionale, di sicurezza e di revisione dei modelli di business.

Uno storage in evoluzione per le esigenze enterprise

Anche sulla base di queste spinte si stanno affermando in ambito business le tecnologie disco a stato solido, la cui presenza anche in piccola percentuale (5-10% della capacità installata) è in grado di estendere all'intero ambiente storage importanti vantaggi prestazionali, su specifici processi di business (soprattutto in ambienti virtualizzati).

Sul versante del trasporto va, invece, segnalata la progressiva diffusione di protocolli di rete nati recentemente proprio pensando allo storage per incrementare le prestazioni e l'affidabilità: per esempio il Data Center Bridging che implementa nuove caratteristiche di alta affidabilità su Ethernet. Inutile però dire che la riduzione di costo continua a rappresentare "il" driver per i progetti storage e non a caso il consolidamento continua a essere un tema centrale nei progetti IT anche se, negli ultimi anni, ha assunto significati differenti che sono andati di pari passo con lo sviluppo tecnologico.

Dal consolidamento alla virtualizzazione

Si è assistito nel recente passato a diversi progetti di consolidamento del backup, con l'obiettivo di incrementare le prestazioni e aumentare l’efficienza dell’infrastruttura IT, ottenendo una conseguente riduzione dei costi. Questo accade tuttora ma, se prima si concretizzava soprattutto in uno spostamento delle informazioni da un media (per esempio tape) a uno di altro tipo (per esempio disco) oppure da storage connesso direttamente al server (DAS) verso storage in rete (SAN), la situazione ora si presente più articolata.

Il consolidamento ormai si è spostato sul versante logico anziché quello fisico ed è diventato inseparabile dal tema della virtualizzazione, nonostante l'implementazione di progetti di virtualizzazione dello storage sia arrivata diverso tempo dopo quella dei progetti a livello server, più per una sottovalutazione della sua valenza strategica che per un ritardo tecnologico.

La virtualizzazione dello storage, oltre a intervenire sul tema dell'efficienza nel livello di utilizzo degli asset aziendali e delle prestazioni, ha nella semplificazione gestionale e nell'incremento di sicurezza le sue armi vincenti. Il tema della semplificazione è, infatti, emerso a un certo punto come un'esigenza irrinunciabile per l'impossibilità di governare una capacità storage sempre più ampia e diversificata che garantisse il rispetto degli stringenti requisiti normativi e dei regolamenti aziendali interni.

Inoltre, il ricorso alla virtualizzazione permette di mettere in opera rapidamente sistemi più affidabili, consente di realizzare SAN fabric isolati, abilita una gestione più semplice (e quindi meno rischiosa) di risorse eterogenee e facilita il test e il debug di ambienti controllati. A svolgere il ruolo di intermediatore tra il livello fisico e quello logico interviene un layer implementabile in modalità differenti, hardware o software.

Diversi modi per virtualizzare lo storage

La virtualizzazione dello storage può essere implementata a uno o più livelli, non mutuamente esclusivi. A livello host può essere realizzata per mezzo di un software di gestione dello storage che gira sui server. Il software può essere allocato su un solo server o essere distribuito tra diversi server al fine di operare in modo cooperativo.

Il principale vantaggio di questo metodo è che permette a più sottosistemi storage di lavorare in parallelo con molteplici server. La virtualizzazione al livello host richiede in genere anche un incremento delle funzioni di gestione e di utilizzare la connettività LAN per la sincronizzazione dei server, cosa che potrebbe intaccare l’affidabilità dell’intera SAN.

A livello di sottosistema di storage, la virtualizzazione avviene creando volumi virtuali nello spazio storage di uno specifico sottosistema, includendo la parte software nel controller SAN. Creare volumi virtuali a livello del sistema di storage garantisce l’indipendenza dell’host, ma il fatto di condividere in pool tutte le risorse della SAN e di gestire volumi virtuali attraverso diversi sottosistemi storage richiede in genere l’introduzione di alcune funzionalità che rendono questo metodo indicato soprattutto per SAN omogenee, ovvero in cui viene utilizzato un solo tipo di sottosistema RAID.

L’implementazione della virtualizzazione a livello di rete sposta il controllo dello storage all’interno della SAN, fornendo una singola visione dell’intera capacità di memorizzazione e, quindi, la possibilità di controllarla da un’unica console gestionale centrale. Questo tipo di implementazione avviene inserendo del software nello switch di una SAN che utilizza metadati per creare e gestire i volumi virtuali o utilizzare un’appliance SAN, ovvero un box hardware dedicato che viene collocato tra i server e lo storage. Con questo metodo i volumi risultano completamente indipendenti sia dai server che dai sottosistemi storage sulla SAN. Il software di gestione è in grado di vedere tutto lo storage fisico disponibile e può creare volumi virtuali e allocarli nel modo richiesto.

La virtualizzazione può essere introdotta anche a livello di file system, così da aggregare file system diversi all’interno di un unico complessivo file system virtuale. Soluzioni virtuali e di virtualizzazione sono proposte da diversi fornitori, sia embedded sia mediante software di fornitori terzi. Al di la delle differenze tecnologiche , ciò che le accomuna è l'obiettivo di utilizzare le tecnologie di virtualizzazione come componente base di soluzioni end-to-end mirate a permettere la definizione di policy e SLA che favoriscano l'ottimizzazione dinamica e automatica dell'infrastruttura IT.

Le esigenze di gestione

I dati da memorizzare non solo rappresentano un diverso valore per l’azienda, ma sono anche di diverso tipo e determinano requisiti differenti da parte dei client. Una gestione della memorizzazione dei dati non deve tenere conto solo dell’archiviazione, ma anche del recupero dell’informazione in caso di necessità, con requisiti di tempo e modalità che possono essere molto differenti, ed esigenze da parte dell’utente in rapida mutazione.

L'esigenza di predisporre una corretta gestione dello storage, incrementando l'efficienza e ottenendo, nel contempo, una riduzione dei costi ha determinato un'organizzazione delle risorse storage suddivisa in molteplici livelli (Tier) e lo sviluppo di funzionalità che intervengono sui dati sempre più avanzate.

I livelli possono essere suddivisi in base al valore dell'informazione per il business aziendale, alla frequenza di accesso, al tempo richiesto per ottenere l'informazione e sono differenziati essenzialmente in funzione del costo, delle prestazioni, della tipologia di sistema (per esempio NAS, storage in rete, Sistemi ottimizzati per applicazioni specifiche) e delle caratteristiche dei media di memorizzazione utilizzati, per esempio tape, hard drive o memoria flash. Inoltre, all'interno di ciascuna di queste tipologie, ulteriori differenziazioni riguardano le diverse tecnologie disponibili: per esempio hard drive ad alta capacità e basso costo oppure veloci ma più costosi.

Una quantità di nuove funzionalità

Non a caso tra le funzionalità sempre più richieste all'interno delle infrastrutture storage enterprise si sta affermando l'Automated Tiering che, sulla base di un'analisi intelligente dei parametri di utilizzo e il confronto con policy aziendali impostate, provvede a spostare in modo automatico i dati attraverso i diversi livelli di sistema o media storage disponibili secondo i requisiti di prestazioni e capacità, contribuendo a massimizzare l'efficienza nell'accesso alle informazioni e ridurre i costi associati allo storage.

Lo spostamento verso un approccio allo storage sempre più “intelligente”, efficiente e automatizzato sta alimentando lo sviluppo di innumerevoli funzionalità che riguardano la gestione dei dati ma che, in realtà, sono indissolubilmente legate al tema dello storage.

Tra queste, un posto di crescente rilevanza all'interno delle infrastrutture enterprise è occupato dal Thin provisioning, che consente di massimizzare lo sfruttamento della capacità storage e di acquistare nuova capacità solo quando è realmente necessaria, fornendo ai diversi utenti una vista dello spazio a loro disposizione maggiore rispetto a quella effettivamente disponibile, in base alla previsione nel tempo della reale capacità occupata.

Altrettanto importanti sono le funzioni evolute di Data migration, non solo per predisporre meccanismi efficienti di replica e di disaster recovery ma anche per favorire la creazione e il ripristino di immagini virtuali di server o computer.

Anche le tecnologie di deduplicazione sono ormai irrinunciabili all'interno di un'infrastruttura storage di livello enterprise poiché sono in grado di ridurre lo spazio occupato anche di oltre il 50% eliminando repliche di file o di blocchi di dati non necessari. Nonostante il buon livello di adozione raggiunto va, tuttavia, rimarcato come a volte sia trascurato o sottovalutato il carattere distintivo dei differenti algoritmi di deduplica, associati alle tecnologie implementate dai diversi vendor. Infatti, non tutti i sistemi di deduplica sono efficienti allo stesso modo in differenti ambiti di utilizzo, non solo in termini di spazio che riescono a mettere a disposizione ma anche della velocità con cui riescono a eseguire i compiti a loro deputati in relazione a differenti processi (per esempio nei compiti che richiedono una deduplica off line oppure inline).

Lo storage nel cloud

Gli obiettivi finora descritti di capacità di risposta dinamica alle nuove richieste del mercato trovano una naturale declinazione nel livello di flessibilità offerto dal cloud computing, che permette di gestire e fornire servizi e risorse attraverso nuove modalità flessibili.

Ricorrere al Cloud storage, se si sta già fruendo di server in ambito Cloud computing, permette di ottimizzare ulteriormente le modalità di fruizione delle infrastrutture e rendere più elastico l’intero ambiente IT. Peraltro, lo storage rappresenta un servizio particolarmente adatto per essere trasferito in modalità cloud sia a livello di private cloud all'interno delle aziende enterprise sia, assumendo il superamento dei vincoli legati alla disponibilità di banda, in modalità public cloud portandolo a disposizione anche delle aziende più piccole. Non a caso i servizi apripista di public cloud sono stati orientati allo storage.

Uno degli aspetti che sta, invece, frenando l'utilizzo del cloud storage di tipo pubblico è legato alle preoccupazioni di sicurezza di collocare i dati di business su un repository esterno all'azienda, la cui collocazione fisica e le misure di protezione implementate non sono sempre chiaramente identificate. Le grandi aziende puntano, per ora, a modelli ibridi di cloud storage private/public ed è plausibile che questa situazione permarrà per un tempo piuttosto lungo (per i parametri dell'IT).

I vendor, da parte loro, puntano a rendere disponibili sul mercato funzionalità e servizi di cloud storage sempre più sofisticati, per arrivare a poter proporre infrastrutture storage nel cloud in tutto e per tutto confrontabili con quelle in house. Ciò che resta ancora da fare è il necessario processo di standardizzazione che interessa ogni importante rivoluzione IT, per fare in modo che la scelta del cloud (in realtà più per l'ambito applicativo che di storage) non rappresenti un ritorno al vincolo a un singolo vendor.