Con NetApp, cloud e data center software defined

NetApp illustra l'evoluzione dell'IT in chiave software defined e la sua trasformazione in broker di risorse in un ambiente cloud ibrido

Avatar di Giuseppe Saccardi

a cura di Giuseppe Saccardi

Il 2014 si sta già preannunciando come un anno di forti cambiamenti per quanto riguarda l'IT e le sue diverse componenti, in particolare per quanto concerne lo storage, uno degli elementi alla base dell'evoluzione dal Data Center al Software Defined Data Center (SDDC). Peraltro, è un elemento fondamentale di quella che si preannuncia come la terza fase dell'IT centrata sul Cloud. 

Sia il SDDC che in particolare il SDS (Software Defined Storage ) come sua componente chiave, fanno parte della vision e della strategia evolutiva di NetApp e sono annoverate tra i principali trend che NetApp ha evidenziato in una sua recente analisi di quello che i CIO e gli user si devono aspettare che avvenga nel corso dei prossimi dodici mesi, assieme ad altri consistenti passi in avanti in campi quali le tecnologie flash memory e il Cloud Computing.

NetApp ha adottato un approccio software che facilita l'evoluzione verso il Cloud e il SDDC

Il concetto di SDDC è però un concetto astratto, che porta a prendere in esame come l'insieme Data Center interagisce con i dispositivi e gli utilizzatori, tramite reti di interconnessione geografica fisse e mobili e dispositivi che sono sempre più fruiti in azienda in base al paradigma  BYOD.

Un Data Center sempre più astratto

E' però all'interno dell'entità astratta riferita come SDDC che sono e stanno avvenendo i cambiamenti maggiori.

Questo perchè i vendor, osserva NetApp, hanno compreso che per compiere dei reali passi in avanti e andare incontro alle esigenze degli utilizzatori era indispensabile definire una modalità di fruizione del'IT realmente aperta e che permettesse di disaccoppiare il livello applicativo dal livello elaborativo e di connessione, in modo sia da permettere un ulteriore passo in avanti nella razionalizzazione delle infrastrutture, sia di rispondere alle specifiche esigenze di un ambiente Cloud, public o ibrido che sia.

Con il crescente interesse per un SDDC ora l'attenzione si sta concentrando proprio sullo storage e ha dato origine a quel processo evolutivo dal punto di vista concettuale riferito appunto con SDS. 

In essenza, il termine si riferisce al fatto che invece di avere un insieme di dispositivi storage indipendenti sia come hardware che come software l'uno dall'altro, e quindi di difficile gestione, per non parlare della manutenzione, sostituzione, migrazione, eccetera, si viene a creare un ambiente suddiviso in due livelli, di cui uno fisico (il più basso), ed uno virtuale (il superiore) dedito al controllo e all'orchestrazione.

L'interesse che solleva il modello è che quello fisico può essere costituito da macchine anche semplici e che possono assolvere a compiti diversi nell'ambito di uno storage: dischi ottici, dischi flash, dischi convenzionali a basso costo, eccetera. Lo strato software ha invece il compito di orchestrare le risorse storage in base alle esigenze delle applicazioni, prelevarle dai rispettivi pool, attribuirle e restituirle al pool una volta che l'applicazione le rilascia.

Nella strategia di NetApp la virtualizzazione assume un ruolo  centrale

API e orchestrazione

Naturalmente ciò richiede che siano definite API standard che permettano alle applicazioni di interagire con il livello di orchestrazione e a questo con i dispositivi, che possono essere anche di diversi produttori, che devono necessariamente aver aderito agli standard definiti da organizzazioni di categoria o internazionali. 

Nella strategia di NetApp quella che porta dallo storage convenzionale al SDS si evidenzia come una evoluzione naturale, perché il sistema operativo Data Ontap e la sua evoluzione Clustered Data Ontap, è stato concepito proprio per operare in modo aperto e con un forte controllo basato sul software dello storage hardware, in modo da garantire una elevata flessibilità e libertà di utilizzo di dispositivi fisici di storage. 

Clustered Data Ontap abilita un contesto aperto e virtuale adatto per un Cloud ibrido

In sostanza, osserva NetApp, Clustered Data Ontap incarna l'essenza di una architettura SDS. Ad esempio, permette di realizzare una infrastruttura storage dove è possibile, senza interromperne il funzionamento, sostituire un dispositivo con un altro più efficiente, o con caratteristiche più adatte alle applicazioni, ridistribuire automatica i dati, trasferire i dati da un ambiente RAID ad un altro in base allo SLA, il tutto in una modalità operativa "Non Disruptive", che poi è quello che necessita per chi all'interno della propria aziende o all'esterno fornisce servizi IT in chiave cloud, public o ibrido.

Clustered Data Ontap è stato ideato anche con l'obiettivo di risolvere un altro degli aspetti connessi al SDS e al SDDC, quello dell'affidabilità intesa in senso lato e cioè nelle sue componenti connesse alla protezione del dato, al backup e al disaster recovery. A questo si aggiunge, in un contesto cloud, anche la multitenancy, che consiste nel partizionare in modo sicuro un ambiente virtuale in modo da garantire l'assoluto isolamento dei dati dei singoli fruitori.

Sono tutte funzioni che fanno parte nativa di Clustered Data Ontap e fanno si che nei confronti di un utente esterno le risorse storage di una infrastruttura SDS si presentino come un ambiente virtualizzato, sicuro e auto adattativo, fruito in modo esclusivo e come se si trovasse all'interno del proprio perimetro aziendale.

Cloud e SDS con Data Ontap

Come parte di un ambiente SDDC, e in un contesto più ampio quale il Cloud, una soluzione SDS basata su Data Ontap interagisce con le altre componenti elaborative e connettive mediante API standardizzate, che ne permettono l'orchestrazione a partire da un software di controllo di livello superiore. 

In sostanza, l'ultima release di Clustered Data Ontap, la 8.2.1, permette di realizzare una piattaforma universale per i dati in accordo al paradigma SDS che supporta la loro portabilità. Il follow-up immediato dal punto di vista operativo è che con la sua adozione diventa possibile eliminare i downtime pianificati ed eseguire la manutenzione delle infrastrutture senza interrompere l'accesso alle applicazioni e ai dati dell'utente.

Inoltre, evidenzia NetApp, diventa possibile aggiungere o sostituire gli shelf dello storage senza interrompere le operazioni di business e garantire una maggior sicurezza per i dati e una migliore gestione degli ambienti CIFS di Microsoft.

Le novità in casa NetApp per quando concerne il percorso verso un SDDC e un Cloud aperto non si limitano però a Data Ontap ma si propongono anche di abilitare un grado di libertà maggiore per quanto concerne i dispositivi fisici da adottare, un altro degli aspetti chiave del paradigma SDS.

E' quello che ha fatto, evidenzia la società, con il rilascio di FlexArray, un software che consente alle aziende di continuare ad utilizzare lo storage di cui dispone (ad esempio i FAS di NetApp), in modo da ammortizzare l'investimento fatto nel passato, ma contemporaneamente di estendere il valore di Data Ontap a più operazioni dell'IT. 

FlexArray supporta SAN e NAS, senza add-on complessi, e consente di unificare l'architettura IT in un unico ambito di gestione dei dati integrando nel sistema anche storage di terze parti. Rappresenta in sostanza un ulteriore passo verso il SDS, un approccio alle risorse che consente alle organizzazioni di eseguire il provisioning e di fruire di servizi storage sulla base di policy, nonché di implementare risorse su una vasta gamma di hardware.

Ma cosa altro ci si deve aspettare nel corso dell'anno per quanto riguarda il mondo dello storage se si guarda al mondo del Cloud e della sua progressiva adozione?

Verso un Cloud sempre più ibrido

Quello che si evidenzia come trend generale è che il cloud ibrido sarà la vision dominante per l’IT aziendale.

Il cloud ibrido rappresenta la soluzione più flessibile alle esigenze dell'IT 

Sotto il profilo pratico, ritiene NetApp, i CIO suddivideranno il proprio portfolio tra applicazioni su cui devono mantenere il controllo e su cui il controllo può essere parziale, così come tra carichi di lavoro che sono di natura più transitoria e altri da acquistare sotto forma di SaaS. In sostanza, l'IT si trasformerà progressivamente in un broker che dovrà mediare e districarsi tra i diversi modelli di cloud e di servizi offerti. 

Sempre in uno scenario SDDC, OpenStack continuerà a guadagnare terreno diventando l'alternativa open ai prodotti commerciali per la Data Center Orchestration delle risorse fisiche. 

Per quanto concerne il networking si concretizzerà il prossimo tassello evolutivo di Ethernet, il 40G, che inizierà a essere diffusamente adottato nei Data Center. E all'orizzonte già si prospetta il 100G

NetApp ritiene anche che si avrà una forte accelerazione nell'adozione di storage in cluster e crescerà l’adozione dell’object storage grazie all’affermarsi di applicazioni in grado di monetizzare grandi quantità di data objects. Inoltre, non ultimo, si affermerà l’in-memory database, spinto dalla crescente accettazione di SAP HANA, ambienti che NetApp supporta con accordi di collaborazione che le permettono di offrire soluzioni già pretestate e certificate.