L'analytics sui Big Data si fa con Hadoop

Uno studio IDC commissionato da Red Hat conferma l'affermazione dell'utilizzo del database open source per l’analisi olistica dei dati aziendali

Avatar di Riccardo Florio

a cura di Riccardo Florio

Cresce l'importanza di Hadoop nelle implementazioni big data.

Lo sostiene uno studio IDC commissionato da Red Hat dal titolo “Trends in enterprise Hadoop deployments” in base al quale il 32% degli intervistati ha indicato di avere implementazioni Hadoop in azienda, il 31% dichiara di volerlo adottare entro 12 mesi e il 36% commenta che la programmazione Hadoop potrebbe superare i 12 mesi.

Lo studio IDC ha analizza i diversi scenari di utilizzo di Hadoop.

Il modo d'uso più diffuso è per l'analisi di dati grezzi, mentre il 39% degli intervistati dichiara di utilizzarlo per l’analisi di set di dati secondari per modellare scenari di simulazione del tipo ‘if-then’ finalizzati all'innovazione dei servizi. Tra gli usi meno diffusi di Hadoop vi è la sua implementazione come piattaforma per carichi di lavoro non analitici (per esempio insieme a un SQL overlay per OLTP).

In particolare una delle indicazioni del rapporto IDC riporta che "I file system come GPFS di IBM, Red Hat Storage (GlusterFS), EMC Isilon OneFS e altri che si sono guadagnati una reputazione per le loro capacità di robustezza e scalabilità sono graditi come alternativa a HDFS. Di questi tre, solo Red Hat offre una piattaforma Linux open source integrata che combina un file system distribuito con un connettore Hadoop, middleware enterprise e la capacità di gestire workload Hadoop in maniera nativa".

Il sondaggio conferma anche che la maggior parte delle imprese elabora i big data prima e dopo il processing Hadoop, evidenziando la capacità di GlusterFS di tenere i dati in formato POSIX nativo e di utilizzare strumenti di analisi tradizionali.

Lo studio IDC è scaricabile previa registrazione al seguente LINK