L'evoluzione tecnologica ha portato le aziende a confrontarsi con una realtà sempre più complessa: la gestione di patrimoni dati distribuiti tra infrastrutture diverse, dal cloud all'on-premise, passando per data center parzialmente interoperabili. Tradizionalmente, molte aziende si affidavano a sistemi monolitici e centralizzati per la gestione dei loro dati. Tuttavia, l'avvento del cloud computing ha rivoluzionato questo approccio, offrendo flessibilità, scalabilità e costi potenzialmente ridotti. Di conseguenza, molte organizzazioni hanno iniziato a migrare parte dei loro carichi di lavoro e dei loro dati verso ambienti cloud pubblici o privati. Questa transizione, pur portando indubbi benefici, ha spesso creato una situazione di coesistenza tra i nuovi sistemi basati su cloud e le infrastrutture legacy ancora residenti on-premise. A complicare ulteriormente il quadro, si aggiungono i data center ibridi, che tentano di colmare il divario tra i due mondi, ma spesso presentano sfide intrinseche legate all'interoperabilità e alla sincronizzazione dei dati.
La frammentazione dei dati tra queste diverse piattaure genera una serie di problematiche significative. Innanzitutto, la visibilità diventa un lusso: avere una visione olistica e in tempo reale dell'intero patrimonio informativo può essere estremamente difficile, se non impossibile. Senza una chiara comprensione di dove risiedono i dati e di come sono interconnessi, le decisioni strategiche possono basarsi su informazioni incomplete o obsolete. In secondo luogo, la sicurezza dei dati è messa a dura prova. Ogni ambiente, sia esso cloud o on-premise, ha le proprie vulnerabilità e i propri protocolli di sicurezza. La gestione della sicurezza su un'architettura distribuita richiede un approccio unificato e coerente, che garantisca la protezione dei dati indipendentemente dalla loro posizione fisica. Qualsiasi lacuna in uno degli anelli della catena può compromettere l'integrità dell'intero sistema.
Inoltre, la conformità normativa rappresenta un altro ostacolo complesso. Con l'introduzione di regolamentazioni sempre più stringenti, come il GDPR, le aziende devono assicurarsi che i dati siano gestiti in conformità con le leggi sulla privacy e la protezione dei dati, indipendentemente da dove siano archiviati. Tracciare l'origine, la destinazione e l'utilizzo dei dati attraverso infrastrutture diverse è un requisito fondamentale che richiede strumenti sofisticati e processi ben definiti. Infine, la performance e l'efficienza operativa possono risentirne. Spostare grandi volumi di dati tra cloud e on-premise può essere costoso e lento, impattando sulle performance delle applicazioni e sull'agilità aziendale. La complessità della gestione di ambienti eterogenei richiede inoltre risorse significative in termini di personale specializzato e investimenti in nuove tecnologie.
Per affrontare queste sfide, Pure Storage ha sviluppato una filosofia che va oltre la semplice fornitura di hardware, puntando su quello che definisce Enterprise Data Cloud, un approccio che promette di unificare la governance dei dati indipendentemente dalla loro ubicazione fisica. L'obiettivo è ambizioso: trasformare la complessità infrastrutturale in semplicità operativa, permettendo alle aziende di concentrarsi sul proprio core business.
L'automazione come risposta alla complessità
Secondo Umberto Galtarossa Sr. Presales Manager di Pure Storage, il cuore della strategia aziendale risiede nell'automazione della governance dei dati. "Storicamente, abbiamo sempre alleggerito il carico operativo dei team IT, eliminando la necessità di gestire le best practice a livello di storage", spiega. Questa filosofia si concretizza in Pure Fusion, una soluzione che permette di controllare ambienti eterogenei attraverso policy definite persino in linguaggio naturale. Il sistema consente agli utenti di richiedere spazio per applicazioni specifiche lasciando che l'infrastruttura gestisca automaticamente distribuzione, protezione e disaster recovery. Una policy "gold", per esempio, può includere copie immutabili contro i ransomware e repliche su più regioni per le applicazioni mission-critical.
L'integrazione con l'ecosistema di sicurezza rappresenta un altro pilastro fondamentale. Pure Storage collabora con Rubrik per la data security e con CrowdStrike per l'analisi dei log, estendendo le possibilità di disaster recovery anche su cloud pubblici. Questa strategia risulta particolarmente utile per aziende prive di siti secondari o soggette a normative stringenti come NIS2. Il provisioning dei dati diventa così un processo altamente automatizzato, dove la complessità tecnica viene nascosta dietro interfacce intuitive.
Perché il dato torna a casa: I fattori che guidano la "fuga" dal cloud
Pure1, il sistema di monitoraggio predittivo dell'azienda, rappresenta forse l'aspetto più innovativo dell'offerta. La piattaforma è in grado di anticipare fino a un anno il comportamento delle applicazioni in termini di richieste di spazio e performance, basandosi sui dati storici raccolti. "Se un cliente è nostro da almeno un anno, il sistema ha abbastanza informazioni per costruire un forecast su altri dodici mesi", precisa Galtarossa. L'integrazione di un motore di intelligenza artificiale ha reso questa funzionalità ancora più accessibile, permettendo agli utenti di ottenere risposte chiare su potenziali saturazioni senza necessità di competenze da data scientist.
Il sistema prevede scenari "business as usual" ma permette anche di simulare l'introduzione di nuove applicazioni o cambiamenti nei workload. Gli utenti possono aggiungere simulazioni di carico e verificare come cambiano le curve di utilizzo, ottenendo una visione predittiva che facilita la pianificazione infrastrutturale. Come osserva ironicamente un interlocutore durante la presentazione: "È sempre una buona notizia, anche perché i data scientist non crescono sugli alberi".
"Il cloud ha portato un cambio di paradigma, ma oggi molti clienti stanno tornando a preferire l’on-premise, per motivi di performance e prossimità del dato. Replicare lo stesso livello di performance sul cloud sarebbe troppo costoso. Inoltre, con l’aumento delle esigenze di localizzazione e compliance, la scelta on-prem resta molto valida".
Efficienza energetica e densità di storage
Sul fronte hardware, Pure Storage mantiene la leadership come unico vendor con un'offerta on-premise esclusivamente NVMe. I loro Direct Flash Module raggiungono capacità fino a 300 terabyte, permettendo densità impensabili fino a poco tempo fa. L'azienda gestisce decine di petabyte in spazi ridotti con consumi di circa 0,3 kilowattora per petabyte, un valore significativamente inferiore ai 5-10 kilowatt per petabyte dello storage tradizionale. Questa efficienza deriva dall'assenza di parti meccaniche in movimento e abilita modelli più flessibili in ottica "as-a-Service".
Nel settore medicale, per esempio, Pure Storage sta evolvendo da un modello a consumo puro verso formule orientate al numero di studi o cartelle, più aderenti alle logiche operative del settore. "Oggi l'immagine ospedaliera non è più solo da archiviare: viene utilizzata per analisi, e deve essere immediatamente disponibile", spiega Galtarossa. I carichi variabili tipici di questo ambito rendono i modelli flessibili vantaggiosi anche economicamente, mentre il fleet management elimina la frammentazione delle risorse gestendo tutto come un unico pool.
La rivoluzione container: Kubernetes (e simili) come abilitatore chiave
L'esplosione della containerizzazione negli ultimi anni ha trasformato l'approccio di Pure Storage al mercato. L'azienda supporta sempre più i clienti nell'analisi della trasformazione, specialmente per progetti di Analytics e IA che girano nativamente su ambienti containerizzati. "Abbiamo forti integrazioni con OpenShift e ambienti containerizzati. E con la diffusione di workload IA e GPU-intensive, la necessità di storage ad alte performance è ancora più evidente. Le GPU non devono mai stare in attesa dei dati, e su questo noi possiamo garantire performance costanti anche in ambienti containerizzati. Il nostro compito è fornire l'expertise necessaria e una gestione del dato in grado di tradurre i requisiti di questi ambienti in una piattaforma storage realmente efficace", sottolinea Galtarossa.
Nei contesti di intelligenza artificiale, questa capacità diventa cruciale: le GPU rappresentano l'investimento più costoso e richiedono storage capace di tenere il passo per evitare sprechi di risorse preziose. Pure Storage garantisce performance costanti e prevedibili, ottimizzando l'utilizzo delle GPU e assicurando tempi di risposta compatibili con le applicazioni moderne. Le forti integrazioni con OpenShift e ambienti containerizzati dimostrano come l'azienda abbia saputo adattarsi alle nuove esigenze del mercato.
Il posizionamento di Pure Storage si concentra su aziende che necessitano di resilienza elevata, continuità operativa e integrazioni avanzate, collaborando con MSP, service provider, GSI e pubbliche amministrazioni. Nonostante la concorrenza spesso si basi sul prezzo, l'azienda riesce a competere grazie alla componente tecnica che molti bandi pubblici includono nel punteggio di valutazione, conquistando clienti come INAIL e diversi enti sanitari.