La vision di NetApp per il SDDC e il SDS

Software Defined, Flash meory, SAP HANA e Hybrid Cloud , i punti salienti dello storage e della strategia di NetApp

Avatar di Giuseppe Saccardi

a cura di Giuseppe Saccardi

Il 2014 si sta già preannunciando come un anno di forti cambiamenti per quanto riguarda l'IT e le sue diverse componenti, in particolare per quanto concerne lo storage, uno dei due elemento, assieme al networking, che sono alla base dell'evoluzione dal Data Center al Software Defined Data Center (SDDC), e rispettivamente riferite come Software Defined Storage (SDS) e Software Defined Networking (SDN).

Sia il SDDC che in particolare il SDS come sua componente chiave, fanno parte della vision e della strategia evolutiva di NetApp e sono annoverate tra i principali trend che Jay Kid, CTO di NetApp, ha elencato in una sua recente analisi di quello che i CIO e gli user si devono aspettare nel corso dei prossimi dodici mesi, assieme ad altri consistenti passi in avanti in campi quali le tecnologie flash memory e il cloud.

Il Software Defined Storage nella vision  NetApp

Il concetto di SDDC è a tutta evidenza un concetto astratto, che porta ad osservarlo dall'esterno e a prendere in esame come l'insieme data center interagisce con dispositivi e utilizzatori, tramite reti di interconnessione geografica fisse e mobili e dispositivi che sono sempre più fruiti in azienda in base al paradigma d BYOD.

Un  Data Center sempre più astratto

E' però all'interno dell'entità astratta riferita come SDDC che sono e stanno avvenendo i cambiamenti maggiori. Questo perchè i vendor, evidenzia Roberto Patano, senior manager systems engineering di NetApp, hanno capito che per fare dei reali passi in avanti e andare incontro alle esigenze degli utilizzatori era indispensabile mettersi d'accordo e arrivare a definire una modalità realizzativa e di fruizione del'IT realmente aperta e che permettesse di scorrelare il livello applicativo dal livello elaborativo e di connessione, in modo sia da permettere un ulteriore passo in avanti nella razionalizzazione delle infrastrutture, sia di rispondere alle specifiche esigenze di un ambiente cloud, public o ibrido che sia.

Va anche osservato, nota Patano, che per lungo tempo la virtualizzazione dello storage è stata un'esigenza percepita come secondaria rispetto alla virtualizzazione dei server. Con il crescente interesse per un SDDC ora l'attenzione si sta invece concentrando proprio sullo storage e ha dato origine a quel processo evolutivo dal punto di vista concettuale riferito appunto con SDS.

Roberto Patano

In essenza, il termine si riferisce al fatto che invece di avere un insieme di dispositivi storage indipendenti sia come hardware che come software l'uno dall'altro, e quindi di difficile gestione, per non parlare della manutenzione, sostituzione, migrazione, eccetera, si viene a creare un ambiente suddiviso in due livelli, di cui uno fisico (il più basso), ed uno virtuale dedito al controllo e all'orchestrazione.

L'interesse che solleva il modello è che quello fisico può essere costituito da macchine anche semplici e che possono assolvere a compiti diversi nell'ambito di uno storage. Dischi ottici, dischi flash, dischi convenzionali a basso costo, eccetera. Lo strato software ha invece il compito di orchestrare le risorse storage in base alle esigenze delle applicazioni, prelevarle dai rispettivi pool, attribuirle e restituirle al pool una volta che l'applicazione le rilascia.

API e orchestrazione

Naturalmente ciò richiede che siano definite API standard che permettano alle applicazioni di interagire con il livello di orchestrazione e a questo con i dispositivi, che possono essere anche di diversi produttori, che devono necessariamente aver aderito agli standard definiti da organizzazioni di categoria o internazionali.

"Per NetApp quella dallo storage al SDS è stata una evoluzione naturale, perché il nostro sistema operativo Data Ontap e l'evoluzione Clustered Data Ontap, è stato ideato sin dall'origine concepito proprio per operare in questo modo e garantire una elevata flessibilità e libertà di utilizzo di dispositivi fisici di storage. In pratica abbiamo con largo anticipo e quando ancora non se ne parlava, concretizzato il concetto di SDS e offerto a aziende o operatori cloud la possibilità di realizzare soluzioni aperte e flessibili", ha osservato Patano.

In sostanza, evidenzia NetApp, Cluster Data Ontap incarna l'essenza di una architettura SDS. Ad esempio, permette di realizzare una infrastruttura storage dove è possibile, senza interromperne il funzionamento, sostituire un dispositivo con un altro più efficiente, o con caratteristiche più adatte alle applicazioni, ridistribuire automatica i dati, trasferire i dati da un ambiente RAID ad un altro in base allo SLA, il tutto in una modalità operativa "Non Disruptive", che poi è quello che necessita per chi all'interno della propria aziende o all'esterno fornisce servizi IT in chiave cloud, public o ibrido.

Ma, nota Patano, Clustered Data Ontap risolve un altro degli aspetti connessi al SDS e al SDDC, quello dell'affidabilità intesa in senso lato e cioè nelle sue componenti connesse alla protezione del dato, al backup e al disaster recovery. A questo si aggiunge, in un contesto cloud, anche la multitenancy, che consiste nel partizionare in modo sicuro un ambiente virtuale in modo da garantire l'assoluto isolamento dei dati dei singoli fruitori.

Sono tutte funzioni, evidenzia Patano, che fanno parte nativa di Clustered Data Ontap e fanno si che nei confronti di un utente esterno le risorse storage di una infrastruttura SDS si presentino come un ambiente virtualizzato, sicuro e auto adattativo, fruito in modo esclusivo e come se si trovasse all'interno del proprio perimetro aziendale.

I benefici con il cloud secondo i CIO

Verso il SDS con Data Ontap

Come parte di un ambiente SDDC, una soluzione SDS basata su Data Ontap interagisce con le altre componenti elaborative e connettive mediante API standardizzate, che ne permettono l'orchestrazione a partire da un software di controllo di livello superiore. In sostanza, osserva Patano, l'ultima release di Clustered Data ONTAP, la 8.2.1, permette di realizzare una piattaforma universale per i dati in accordo al paradigma SDS che supporta la loro portabilità.

Il follow-up immediato dal punto di vista operativo è che con la sua adozione diventa possibile eliminare i downtime pianificati ed eseguire la manutenzione delle infrastrutture senza interrompere l'accesso alle applicazioni e ai dati dell'utente. Inoltre, diventa possibile aggiungere o sostituire gli shelf dello storage senza interrompere le operazioni di business e garantire una maggior sicurezza per i dati e una migliore gestione degli ambienti CIFS di Microsoft. 

Le novità in casa NetApp per quando concerne il percorso verso un SDDC non si limitano però a data Ontap ma si propongono anche di abilitare un grado di libertà maggiore per quanto concerne i dispositivi fisici da adottare, un altro degli aspetti chiave dl paradigma SDS. 

E' quello che ha fatto, evidenzia  Denis Nalon, marketing manager di NetApp,  con il rilascio di FlexArray, un software che consente alle aziende di continuare ad utilizzare lo storage di cui dispone (ad esempio i FAS di NetApp), in modo da ammortizzare l'investimento fatto nel passato, ma contemporaneamente di estendere il valore di Data ONTAP a più operazioni dell'IT.

Denis Nalon

FlexArray supporta SAN e NAS, senza add-on complessi, e consente di unificare l'architettura IT in un unico ambito di gestione dei dati integrando nel sistema anche storage di terze parti. Rappresenta in sostanza un ulteriore passo verso il SDS, un approccio alle risorse che consente alle organizzazioni di eseguire il provisioning e di fruire di servizi storage sulla base di policy, nonché di implementare risorse su una vasta gamma di hardware.

Ma cosa altro ci dobbiamo aspettare che avvenga nel corso dell'anno per quanto riguarda il mondo dello storage?

Si afferma il Cloud ibrido

Quello che si evidenzia come trend generale è che il cloud ibrido sarà la vision dominante per l’IT aziendale. Sotto il profilo pratico i CIO suddivideranno il proprio portfolio tra applicazioni su cui devono mantenere il controllo e su cui il controllo può essere parziale, così come tra carichi di lavoro che sono di natura più transitoria e altri da acquistare sotto forma di SaaS. In sostanza, l'IT si trasformerà progressivamente in un broker che dovrà mediare e districarsi tra i diversi modelli di cloud e di servizi offerti. 

Importanza dle controllo  nel fornire servizi Cloud secondo i CIO

Sempre in uno scenario SDDC, OpenStack continuerà a guadagnare terreno diventando l'alternativa open ai prodotti commerciali per la data center orchestration delle risorse fisiche. 

Per quanto concerne il networking si concretizzerà il prossimo tassello evolutivo di Ethernet, il40G, che inizierà a essere diffusamente adottato nei data center. E all'orizzonte già si prospetta il 100G. 

NetApp ritiene anche che si avrà una forte accelerazione nell'adozione di storage in cluster e crescerà l’adozione dell’object storage grazie all’affermarsi di applicazioni in grado di monetizzare grandi quantità di data objects. Inoltre, non ultimo, si affermerà l’in-memory database, spinto dalla crescente accettazione di SAP HANA.