Questa testata è partner di La Repubblica e contribuisce alla sua audience
Hot topics:
11 minuti

IBM prepara il futuro dello storage

Memoria Flash, Phase Change Memory, Tape innovativo e Cloud: un viaggio nella Ricerca e Sviluppo dello storage di IBM accompagnati da Alessandro Sorniotti, ricercatore presso il Laboratorio di Zurigo

IBM prepara il futuro dello storage

IBM ha avuto nel corso degli anni un ruolo decisivo nello sviluppo di tecnologie IT; non a caso il colosso statunitense detiene da 23 anni il primato per numero di brevetti negli Stati Uniti (fonte: IFI CLAIMS Patent Services). Lo storage non fa eccezione e l'invenzione di molte delle attuali tecnologie storage, a partire dal disco magnetico, sono ascrivibili a IBM.

In un periodo di forte vivacità del mondo IT, le direzioni evolutive dello storage si orientano verso le tecnologie Flash, Phase Change Memory e il modello cloud, ma anche verso un nuovo modo di utilizzare tecnologie consolidate come quella a nastro magnetico.

In questo panorama non è semplice districarsi e comprendere gli elementi essenziali per valutare differenze tecnologiche e modalità di utilizzo ottimali. Alessandro Sorniotti, laurea in Informatica al Politecnico di Torino, PhD in crittografia applicata da Telecom ParisTech (in precedenza Ecole Nationale Supérieure des Télécommunications) e una serie infinita di altre certificazioni, opera nello staff di ricerca del Gruppo Storage Systems presso il centro di ricerca IBM di Zurigo e ci aiuta a delineare alcuni degli aspetti salienti dell'evoluzione in corso.

«Assistiamo a un'evoluzione interessante che può apparire contraddittoria – sottolinea Sorniotti -. Lo storage da un lato diventa sempre più una commodity con un costo per GB che continua a diminuire e, nel contempo, è interessato da importanti innovazioni legate alla tecnologia a stato solido, Phase Change Memory e a celle capacitive basate su carbonio sempre più veloci, dense e complesse. Questa apparente contraddizione è il risultato di una sovrapposizione di esigenze. Tutto ormai viene memorizzato creando enormi archivi che restano pronti per possibili utilizzi futuri. Questi Big Data possono trasformarsi improvvisamente in una risorsa preziosa da utilizzare per estrarre informazioni che richiedono computazioni velocissime. Accanto alla disponibilità di enorme capacità di archiviazione, diventa quindi un'esigenza irrinunciabile poter disporre di dispositivi storage, persistenti, affidabili e veloci; ed è qui che le nuove tecnologie arrivano in soccorso».

IBm sorniotti 1

Alessandro Sorniotti, ricercatore del Gruppo Storage Systems presso il centro di ricerca IBM di Zurigo

Non tutto il Flash è uguale

Il numero di produttori fisici di celle a stato solido è limitato (forse una decina al mondo) mentre è molto ampio quello delle aziende che propongono storage basato su tecnologia Flash. Di conseguenza tutti i vendor Flash hanno più o meno a disposizione lo stesso materiale di partenza, ma il modo in cui viene utilizzato per realizzare il sistema finale può essere molto differente. Esistono quindi molte sfaccettature tra le diverse proposte e anche nel mondo enterprise, che usufruisce di maggiori competenze tecnologiche, esiste una certa confusione.

«Dalle brochure dei venditori sembra che tutto sia uguale - sottolinea Sorniotti -, ma l'evoluzione verso cui si muove il mercato e la ricerca sulle memorie a stato solido è variegata. Una prima direzione è quella del numero di bit per cella: passando da un bit per cella a valori superiori, si ottiene un aumento nella densità di memorizzazione che si paga in termini di durabilità della cella, tanto che il numero di cicli di scrittura prima che la cella si degradi si riduce di ordini di grandezza al crescere del numero di bit per cella. A questo punto il processo di ottimizzazione può seguire due strade. In un caso si punta verso Enterprise Multilevel Cell dove un primo miglioramento qualitativo si ottiene intervenendo sui processi di produzione ottenendo celle che si degradano meno: per esempio viene eliminata la parte laterale del wafer in silicio utilizzato come materiale di partenza e si utilizza solo quella centrale che è meno soggetta a possibili difetti. Un altro approccio parte da hardware di livello consumer e prevede di introdurre intelligenza sui controller, inserendo codice per la correzione degli errori e per la scrittura intelligente dei dati così da garantire un degrado uniforme di tutte le celle e sfruttare al massimo l'hardware disponibile. Spesso questi due ingredienti vengono "mischiati" per ottenere prestazioni migliori».IBM Flash memoryAnche nell'ambito dell'utilizzo di hardware di livello consumer si prospettano quindi differenti modalità nell'usufruire delle celle di memoria, che possono portare a risultati prestazionali e di affidabilità molto differenti tra loro. Questo potrebbe aprire un mercato intermedio per i produttori che non intendono investire nell'Enterprise Multilevel Cell, ma neppure buttarsi nell'arena di un mercato a basso valore aggiunto.

Sorniotti spiega che, nel Laboratorio di Zurigo, IBM sta conducendo ricerche intensive sui processi di inserimento di intelligenza "davanti" alla cella; per esempio, partendo da celle di diversi produttori e simulando condizioni di variazione della temperatura per accelerarne l'invecchiamento e capire come si degradano nel tempo.

«Sapere come invecchia la cella è importante perché ci aiuta, per esempio, a individuare i voltaggi ottimali per leggere l'informazione senza avere un degrado prestazionale nel tempo. Un'altra direzione di intervento è introdurre sistemi di codici di correzione di errore molto sofisticati per estrarre tutto il potenziale da questo hardware. Tutto ciò per dire che la differenza finale portata dal know how di IBM e dai suoi brevetti è enorme e inimitabile. Infatti, nei benchmark i sistemi Flash di IBM sono i più veloci del mercato e questa velocità viene mantenuta nel tempo: un risultato molto difficile da conseguire e imitare».

Phase Change Memory porta le prestazioni al massimo

Alcune voci del mercato vedono già un futuro "all flash" in cui tutto lo storage sarà basata sulla tecnologia a stato solido. Un'opinione che Sorniotti non condivide.

«Secondo me non è ancora ora dell'all flash memory. La mia personale visione è che il tiering per lo storage ha dimostrato e continuerà a dimostrare una grande versatilità. Nello stack storage vediamo bene l'avvento del Phase Change Memory come tecnologia capacitiva di memoria velocissima e durevole con prestazioni confrontabili a quelle delle DRAM: parliamo di un intervallo tra 100 e 1000 ns di tempo di latenza nell'accesso a dati in scrittura/lettura con Phase Change Memory, rispetto a circa 60 ns con DRAM. Ritengo che la tecnologia Flash sia lo storage ottimale da usare come acceleratore in cache, da combinare con dischi e tape o cloud per disporre di uno stack competo. I problemi dei Big Data non si risolvono solo con la tecnologia Flash e credo che nel prossimo futuro lo stack storage resterà complesso dal punto di vista del tiering fra diversi pool di risorse. Dove ci sarà molta competizione sarà sul versante dello smart tiering ovvero sulle modalità con cui spostare questi dati utilizzando tecniche di analytics predittivo in funzione delle previsioni sulle esigenze di accesso e sui costi di memorizzazione».IBM Phase Change Memory

Il nastro è morto, viva il nastro!

Da oltre 10 anni alcuni analisti e aziende sostengono in convegni e articoli che "the Tape is dead". In realtà, l'evoluzione tecnologica legata al nastro magnetico non ha mai cessato e, anzi, anticipa sui tempi i risultati delle roadmap annunciate, ripercorrendo un destino che sembra sempre più simile a quello toccato al mainframe, il cui decesso fu annunciato da molti forse un ventennio fa e che gode tutt'oggi di ottima salute.

È proprio l'evoluzione di mercato che apre nuovi spunti per la tecnologia a nastro come ci spiega Alessandro Sorniotti.

«Nel 2015 a Zurigo abbiamo superato il record di densità su nastro magnetico con 123 Gbit per pollice quadrato: un risultato che la roadmap prevedeva sarebbe stato raggiunto tra una decina di anni. Questo per confermare che la ricerca continua e che stiamo raggiungendo risultati molto incoraggianti. Il Tape, dal punto di vista sia del costo per capacità sia del consumo energetico è imbattibile; del resto qualsiasi altra tecnologia, per quanto smart, richiede maggiore consumo di corrente. Il Tape non è affatto morto ma trova nuova linfa nelle applicazioni legate alla gestione dei Big Data e nel cloud dove un trend in crescita è di realizzare storage tiering sfruttando la tecnologia a nastro per l'archiviazione di dati "freddi" ovvero che non richiedono accesso frequente».tape

Tra i progetti in corso di IBM vi è anche quello di integrare all'interno di Swift, la più diffusa implementazione Open Stack di object storage, le funzionalità di tiering verso il nastro magnetico.

«Sarà possibile con un semplice click lanciare in background la migrazione dei dati verso Tape e applicare diverse policy per estrarre questi dati: per esempio, tenere su disco i primi 2 MB in modo che quando l'applicazione richiede i dati sia possibile fornire immediatamente l'informazione, mentre il sistema comincia a estrarre il resto dei dati dal Tape. Oppure è possibile adottare un modello stile Amazon Glacier facendo una richiesta al service provider di riportare i dati su disco per poi accedervi in modo asincrono al ricevimento di una notifica che i dati sono disponibili su supporto veloce».

Il cloud si inserisce nella gestione dello storage

Forse è presto per tirare le somme sul cloud tiering e forse non è ancora chiaro quali siano i workload su cui utilizzare la nuvola, ma IBM è convinta che questa strada avrà un grande sviluppo e che il Tape sarà un'ottima tecnologia di supporto per questo tipo di workload.

«I tipi di workload che si possono spostare ora su cloud storage sono quelli dove non c'è bisogno di accesso frequente ai dati: tiering, archivio, backup e disaster recovery - evidenzia Sorniotti -. IBM ha recentemente abilitato il servizio di Cloud Tiering Migration per Spectrum Scale (il file system noto in precedenza come GPFS pensato per estendersi a migliaia di nodi e accogliere tipologie di storage eterogeneo). Abbiamo cioè reso accessibile a questo file system, che già poteva sfruttare diversi pool di risorse, anche lo storage su cloud. Tramite questo nuovo add-on di GPFS è possibile spostare o copiare i file usati meno frequentemente non solo sul cloud IBM SoftLayer, ma anche su Amazon S3, su tutti gli open stack basati su Swift e su Cleversafe azienda acquisita da IBM nel 2015, leader nel software per object storage di tipo on-premise».

In questo momento l'utente ha la possibilità di scegliere quale tipo di service provider utilizzare per usufruire dei servizi di cloud storage, ma resta limitato a un singolo cloud. Questa limitazione potrebbe presto scomparire a seguito delle ricerche in corso del gruppo di Zurigo di IBM per la realizzazione di un modello Intercloud.

«Intercloud è uno dei nostri obiettivi – conclude Sorniotti -. Si tratta di un cloud virtuale che si basa su più cloud storage provider reali. Vogliamo arrivare a predisporre un modello in cui utilizzare più di un cloud provider e una serie di sistemi di frammentazione a soglia: sarà cioè possibile frammentare il dato e collocare ogni frammento presso un differente cloud storage provider. Grazie ad algoritmi software è possibile ricostruire il dato anche in presenza di un numero limitato di frammenti e quindi anche se uno dei cloud non è disponibile. Inoltre, si ha il vantaggio in termini di sicurezza che nessun service provider detiene il dato nella sua completezza».

IBM Intercloud
Il modello Intercloud a cui sta lavorando IBM permetterà a un utente di memorizzare i suoi dati su più cloud
AREE TEMATICHE
Vuoi ricevere aggiornamenti su #IT Pro?
Iscriviti alla newsletter!