Le aziende scelgono lo storage definito dal software

Si consolida l'approccio alle infrastrutture aziendali e ai data center basato sul software. L'hardware sempre meno importante, ma di certo indispensabile

Avatar di Giuseppe Saccardi

a cura di Giuseppe Saccardi

Giunti alla fine del 2013 si può iniziare a identificare i trend evolutivi a cui si è assistito nel corso dell'anno nel campo dell'IT. Vediamo, con l'aiuto di Data Core, cosa si può dire per quanto concerne lo storage, uno dei tre pilastri portanti, assieme ai server e alla rete, di un moderno Data Center, analizzandolo per quanto concerne la diffusione di un approccio basato sul software.

Nel 2013 sono state tre le tematiche che hanno modellato il mercato dello storage definito dal software e portato ai modelli di utilizzo adottati in modo progressivo dalle aziende: l’adozione e l’utilizzo appropriato dello storage flash nel data center, la virtualizzazione dello storage accompagnata dall’accelerazione delle prestazioni delle applicazioni di primo livello e la gestione software di dispositivi e sistemi di storage incompatibili. Vediamo in dettaglio i singoli punti.

1) L’adozione dello storage flash nel data center

Sempre più aziende, osserva Data Core, ricorrono alla tecnologia flash per aumentare le prestazioni, ma quando si riprogettano le architetture di storage ci si trova di fronte a una nuova sfida. Mentre si considera comunemente che il cinque per cento dei carichi di lavoro richieda le massime prestazioni, i fornitori di tecnologie flash fanno del loro meglio per convincere i clienti a spostarsi completamente (cosa naturalmente del tutto lecita e comprensibile) sulla loro tecnologia, nonostante un ritorno sull’investimento (ROI) che può rivelarsi non quello sperato.

Per rispondere alla necessità di ottimizzare prestazioni e investimenti, le aziende hanno invece adottato software di auto-tiering per assicurarsi che le applicazioni condividano unità flash e dischi tradizionali. Quello che può però essere fatto è andare oltre un simile approccio e ridefinire l’automazione e la mobilità nello storage dei dati adottando un nuovo paradigma gestito da policy che rende l’auto-tiering una funzionalità che sia realmente “a livello aziendale”, lavorando in sostanza sull’offerta di diversi fornitori e con le più varie combinazioni di unità flash e dischi tradizionali.

Tim Olsson, IT Manager di uno dei più grandi progetti edilizi al mondo (il Femern Tunnel che collegherà la Scandinavia alla Germania), è uno dei sostenitori dell’uso intelligente della tecnologia flash:

"Grazie al software per la virtualizzazione dello storage di DataCore e al mirroring sincrono possiamo perseguire una crescita sostenibile e flessibile eliminando i tempi di fermo macchina causati dallo storage. L’aggiunta dell’incredibile velocità offerta dall’accelerazione di Fusion-io ci ha permesso di creare una rete di storage super performante e automaticamente organizzata su livelli che fa la stessa cosa del nostro tunnel: collegare diverse realtà in modo affidabile, super veloce e senza interruzioni”, ha affermato Olsson.

2) Virtualizzazione e accelerazione delle prestazioni

Applicazioni aziendali esigenti come database, ERP e sistemi di posta elettronica creano colli di bottiglia in qualunque architettura di storage a causa della loro veloce attività e dei requisiti elevati di I/O e capacità transazionale. Per evitarli, molte aziende acquistano sistemi di storage di fascia alta lasciando inutilizzati terabyte di spazio.

Ora, però, le aziende hanno la possibilità di riunire tutto il loro storage disponibile e virtualizzarlo, indipendentemente dal fornitore, creando un singolo pool di storage. Oltre alla virtualizzazione e all’organizzazione in pool è possibile beneficiare di tempi di risposta delle applicazioni più veloci e di significativi miglioramenti nelle prestazioni, con velocità di I/O che, osserva Data Core, possono incrementarsi anche di fino a cinque volte. Una di queste aziende è Quorn Foods, parte del gigante Marlow Foods, che ha registrato forti miglioramenti prestazionali riducendo i tempi di data mining nei periodi di picco da 20 minuti a 20 secondi.

La virtualizzazione secondo Data Core

"Come per tutte le cose che riguardano l’IT, i miglioramenti sostanziali dell’infrastruttura rimangono invisibili agli utenti, che si accorgono solo delle cose che vanno male. In questo caso, però, tutti hanno notato l’incredibile incremento delle prestazioni che è stato ottenuto. Questo è in gran parte dovuto al modo in cui SANsymphony-V di DataCore sfrutta le risorse disco, assegnando le attività di I/O alle velocissime RAM e CPU dei server per accelerare la velocità di trasferimento dati e abbassare i tempi di risposta durante la lettura e la scrittura su disco", ha riassunto la sua esperienza implementativa Fred Holmes, responsabile IT di Quorn Foods.

3) La gestione di dispositivi incompatibili

Molti data center sono dotati di una gran varietà di batterie, dispositivi e sistemi di storage realizzati da produttori diversi - come EMC, NetApp, IBM, Dell e HP. E nessuno di essi è direttamente compatibile. Curiosamente, i clienti DataCore, riporta la società, riferiscono che i problemi di compatibilità si verificano più spesso tra modelli di hardware diversi dello stesso produttore piuttosto che tra sistemi di fornitori differenti e quindi hanno deciso di adottare strumenti di gestione che trattano tutto l’hardware allo stesso modo.

"Negli ultimi 12 anni, il nostro data center ha utilizzato otto differenti batterie di storage e diversi altri dispositivi di storage di tre diversi fornitori. La tecnologia di DataCore ci ha permesso di utilizzare batterie di storage di fascia media ottenendo grandi prestazioni, ed evitando di dover ricorrere a più costose batterie di classe enterprise dei nostri produttori preferiti. Il thin provisioning ci ha poi consentito di risparmiare sui costi dello storage e di ottenere un elevato livello di efficienza nell’allocazione dello spazio, garantendoci che non rimanesse storage inutilizzato", ha dichiarato Gabriel Sandu, Chief Technology Officer del Maimonides Medical Center di New York, la terza più grande clinica universitaria statunitense, con oltre 800 medici che per curare i pazienti giorno e notte si affidano ai sistemi informativi interni.

In sintesi, a sentire gli utilizzatori, che in definitiva sono quelli ad avere l'ultima parola in fatto di evoluzione tecnologica e architetturale, puntare sullo storage definito a software risulta pagante.