Capire e sfruttare i Big Data

NetApp spiega i punti chiave dei Big Data e come trasformarli con il Cloud in un potente strumento competitivo

Avatar di Giuseppe Saccardi

a cura di Giuseppe Saccardi

Un incontro con Roberto Patano, senior manager systems engineering di NetApp, ha permesso di fare il punto sulla tematica dei Big Data e su quale sia la vision e la strategia dell'azienda che ha fondato le sue fortune sul fatto di aver sviluppato un sistema operativo, Data Ontap, che è trasversale a tutta la sua linea di prodotti a portfolio (per aziende e provider). E' un S.O. che per molti versi ha anticipato quanto sta avvenendo nello storage sotto il nome di Software Defined Storage e di Software Defined Data Center.

Le grandi aziende, osserva Patano, sono oramai entrate in una nuova epoca in cui la quantità di dati elaborati e memorizzati sta mettendo a dura prova le architetture storage.

Roberto Patano

Problema aggravato dal fatto di dover decidere che strategia seguire per l'evoluzione dell'IT aziendale, e cioè se continuare in modalità on.-premise, ovverossia di Private Cloud, o puntare sul Public Cloud, oppure, come suggerisce NetApp, seguire una terza via ed evolvere verso un Cloud ibrido, soluzione che sembra dare le migliori garanzie di ottimizzazione sia del Capex che dell'Opex, salvaguardando al tempo stesso le applicazioni più critiche.

In linea di massima, nell'offerta di NetApp si individua però non solo l'evoluzione tecnologica atta a sostenere lo storage dei Big Data, ma anche una evoluzione per quanto concerne aspetti basilari quali Analytics, Bandwidth e Content, tutte cose che servono per supportare gli utilizzatori nell'ottenere informazioni utili a partire da enormi set di dati, spostare rapidamente i dati e memorizzare contenuti importanti per lungo tempo senza aumentare la complessità operativa. 

Tra Big Data, Internet of Things e Cloud  il connubio è sempre più stretto

I Big Data di NetApp: Analytics, Bandwidth e Content

Quello del volume dei dati e la loro conservazione è, evidenzia, un aspetto critico, accelerato dalla diffusione dell'Internet of Things e da sensori che si stanno diffondendo in modo più che esponenziale praticamente in tutti i settori industriali e commerciali.

Il contesto dei nuovi campi di intervento che si evidenziano è proprio uno dei fattori critici, perché richiede che possano essere messi a fattor comune dati provenienti da silos informativi diversi, con la capacità di dialogare, cosa che necessariamente fa emergere l'esigenza di standard internazionali o di architetture compatibili.

Un esempio fatto da Patano e dei benefici che un uso innovativo dei dati può portare è quello delle assicurazioni, e delle truffe che subiscono in quantità crescente.

Incrociando i dati di un incidente con quanto disponibile sui social network o in altri archivi sarebbe possibile vedere se le persone coinvolte in un incidente, che asseriscono di non conoscersi, non abbiano invece qualche grado di parentela, non si conoscano da tempo, non abbiano fatto viaggi assieme, o non abbiano qualche relazione di lavoro dipendente, tutte cose che potrebbero sollevare qualche dubbio su come si sia realmente svolto un incidente e sui suoi reali motivi.

Un esempio invece dell'uso di sensori in senso esteso che ha portato è invece quello di vigneti di altissima qualità, dove una rete di sensori permette di valutare praticamente pianta per pianta le esigenze di acqua o di concimi, o individuare eventuali attacchi da parte di insetti, in modo da poter allertare un sistema centrale e mettere in atto in tempo reale le contromisure. Insomma,è l'Internet of Things che avanza.

Complessità, velocità e volume sono i tre aspetti critici dei Big Data

Naturalmente, osserva Patano, e non senza ragione, più lo storage su cui i dati sono memorizzati è intelligente, e più bravi sono i Data Scientist a disposizione, più l'analisi viene velocizzata e facilitata. In sostanza, quello che serve è uno storage che sia veloce quando setve (non necessariamente sempre), affidabile e che si caratterizzi per consumi ottimizzati per non impattare sui costi operativi.

Big data e Cloud Ibrido

Il tema dei Big data, nella vision di NetApp , si lega al cloud e in particolare al cloud ibrido, perlomeno per le esigenze di analisi di dati che non sono soggetti a forti restrizioni normative per quanto concerne la loro riservatezza o che, in caso di loro perdita, non implichi forti responsabilità penali, cosa che ovviamente finisce con lo scoraggiare il ricorso a public cloud.

Proprio per loro natura, poiché in genere i big data servono per prendere decisioni, pianificare lo sviluppo di prodotti o di strategie di mercato, eccetera, il loro uso più che continuo è di tipo puntuale. In pratica, serve una infrastruttura da usare di tanto in tanto per elaborare quello che necessita ai fini decisionali.

E' per questo che NetApp, osserva Patano, ritiene che la soluzione più adatta consista in un cloud ibrido. Le possibilità a quel punto sono varie. Posso avere nel cloud pubblico sia i dati che la capacità elaborativa quando serve. Oppure mantenere i dati in house sul Private Cloud e spostarli nel pubblico quando mi serve la capacità elaborativa di cui non dispongo in casa.

Big Data tra cloud pubblico e privato

In pratica, il connubio privato - pubblico si presta molto bene per ottimizzare e distribuire sia la capacità elaborativa che di storage. Naturalmente più l'infrastruttura IT del cloud pubblico e privato sono simili e basate sui medesimi sistemi operativi e concetti, migliori sono i risultati che si ottengono.

Ad esempio, osserva Patano, nei casi in cui il Cloud Service Provider e l'azienda abbiano adottato storage NetApp con sistema operativo Data Ontap, dal punto di vista del manager IT si ha la massima flessibilità, perché può vedere e gestire la componete privata e pubblica dello storage come se fosse un tutt'uno e spostare da una all'altra i dati con le medesime modalità, cosa che peraltro assicura anche la massima indipendenza dal provider.

Un Cloud ibrido  permette di gestir einmodo ottimale le esigenze di Big Data

Un trend in crescita

Quello dei Big Data, soprattutto in Italia, è un fenomeno agli inizi, osserva Patano. "Negli ultime 6-8 mesi abbiamo visto diverse aziende avviare con le nostre soluzioni impianti pilota, delle sorte di proof of concept per verificare quanto promesso da questa nuova branca dello storage e degli Analytics", ha aggiunto.

NetApp appare comunque ben preparata per essere un attore primario in questa componente dello storage, soprattutto dopo il rilascio della versione Clustered Data Ontap del suo sistema operativo. Posizione che appare rafforzata anche da soluzioni preconfezionate e da progetti in cui il suo storage si abbina al frame Hadoop per il supporto di applicazioni distribuite o si integra in modo pretestato con prodotti e architetture di altri colossi dell'IT.

Data Ontap  crea un ambiente unico tra pubblico e privato, aperto e più  facile da gestire

In merito ai Big Data quindi, conclude NetApp, le aziende devono decidere dove si trovano e dove vogliono arrivare e identificare i punti critici. In tal senso NetApp, spiega Patano, ha sviluppato soluzioni storage che consentono alle aziende di sfruttare al meglio i Big Data e allo stesso tempo fornisce soluzioni chiavi in mano e supporto progettuale in modo da aiutare a scoprire il valore di questi dati e a trasformarlo in vantaggio competitivo.