Manager

Utilizzare per il business i dati sull’esperienza di utente

Le aziende di ricerca pubblicano di continuo analisi sull'esplosione dei dati e di come possano essere utilizzati. Ma poi lo si fa davvero? E se lo si fa  con che obiettivo? E' un problema che è stato analizzato da Gary Kaiser, Expert in Network Performance Analytics di Dynatrace.

Il dato di fatto, evidenzia l'esperto  in analisi, è che si è alle prese con le tante incalzanti esigenze del business digitale: sviluppare nuove applicazioni mobile, valutare la sicurezza di  progetti coinvolgenti l'Internet of Things, gestire il passaggio al cloud ibrido, valutare l'efficacia di nuovi approcci per passare a reti definite a software.

Dynatrace Gary Kaiser
Gary Kaiser

Il fattore comune è  rappresentato dal fatto che si tratta di settori in crescita che vedono l'IT sempre più orientato ai servizi, con l'obiettivo primario di fornire all'utente finale un'esperienza di qualità elevata, per tutti gli utenti, sia interni all'azienda che partner e clienti, con la velocità, la qualità e l'agilità che richiedono.

Come soddisfare però aspettative che sono sempre più elevate? La situazione non è semplice, perché da una parte i data center si evolvono verso ambienti più agili e dall'altra le architetture di rete e le applicazioni diventano sempre più complesse, cosa che contribuisce a rendere complessi gli sforzi per comprendere la reale qualità del servizio a partire dal semplice monitoraggio delle infrastrutture e delle applicazioni.

La virtualizzazione, mette in guardia Kaiser, può mascherare la visibilità sulle prestazioni critiche e le complesse interazioni dei servizi mettono alla prova anche i migliori analisti delle prestazioni. Potrebbe essere la premessa di un disastro nella gestione delle prestazioni ma, come le medaglie, ha nell'altra faccia la chiave per ottenere risultati  positivi.

La qualità del servizio percepita dall'utente

Per capire se un servizio à veramente di qualità, suggerisce il manager e si può essere tranquillamente d'accordo con lui, va misurata l'esperienza che di esso ha l'utente finale, perché fornisce un contesto importante per interpretare in modo efficace le metriche delle prestazioni delle infrastrutture.

Oggi, i team delle Il fatto è che gli IT operation si concentrano spesso sul monitoraggio delle infrastrutture più accessibili, sulla base della considerazione che il tutto è uguale alla somma delle parti. La teoria prevede che raccogliendo e valutando le metriche delle prestazioni rispetto a tutti questi componenti, è possibile mettere insieme una conoscenza ragionevole della qualità del servizio.

Questo approccio, a cui ci si riferisce come Business Service Management, comporta però la necessità di alimentare in modo continuativo le soluzioni con nuovi dati e controllarne il funzionamento.

Anche se non più da tutti seguito questo approccio ha insegnato che l'esperienza dell'utente è fondamentale per l'efficienza dell'IT perché è l'unico modo per sapere se ci sono problemi che si ripercuotono sugli utenti, definire le priorità di risposta ai problemi e giungere a una soluzione con la certezza (ragionevole viene da aggiungere) di sapere se e quando il problema è stato veramente risolto.

Dynatrace 2
Videata della console Dynatrace

La complessità guida l'evoluzione dell'APM

Ma come rispondere alla crescente complessità, che è chiaramente riconducibile al che fare della mole di dati raccolti? Fondamentalmente si tratta di un problema di big data.

La risposta, suggerisce Kaiser, consiste in soluzioni di IT operations analytics (ITOA), giunte sul mercato come un approccio che consente di ricavare intuizioni sui comportamenti del sistema IT (tra cui, ma non solo, le prestazioni) e analizzano grandi volumi di dati provenienti dalle fonti più disparate.

La visione di Gartner del mercato ITOA evidenzia in proposito come gli investimenti siano raddoppiati dal 2013 al2014, raggiungendo 1,6 miliardi di dollari, con una stima che vede oggi solo il 10% delle imprese utilizzare queste soluzioni e quindi un potenziale di crescita elevatissimo.

Il valore di  soluzioni ITOA va però oltre la questione della gestione dei problemi e degli incidenti. Ad esempio, possono offrire benefici importanti nella gestione dei cambiamenti e delle configurazioni.

Dal punto di vista delle prestazioni, le fonti di dati possono includere i log di sistema, informazioni sulla topologia, le metriche prestazionali, gli eventi e altro, a partire dai server, dagli agent e dalle sonde.

Le informazioni sono memorizzate, indicizzate e analizzate per raggiungere obiettivi quali l'identificazione dei trend, il rilevamento delle anomalie, l'isolamento dei domini di errore, la definizione della causa principale e la capacità di prevedere i comportamenti.

Le possibilità che queste analitiche forniscono, come ad esempio l'apprendimento automatico, rendono questo approccio, osserva Kaiser, notevolmente differente e, infatti, si parla spesso dello ITOA come il futuro dell'APM.

Dynatrace
Videata di Dynatrace

L'esperienza dell'utente la chiave verso l'efficienza

Anche i sistemi ITOA più robusti potranno dire ben poco se non includono le metriche sull'esperienza dell'utente finale.

Certo, conclude Kaiser, sarà possibile venire a conoscenza di anomalie di cui non si sapeva l'esistenza e acquisire una conoscenza diretta dei problemi imminenti ma una reale efficienza dell'IT e l'allineamento al business sono fondamentali per l'orientamento efficace del servizio e richiedono il contesto dell'esperienza dell'utente finale; ignorare questo significherebbe non cogliere un passaggio fondamentale verso la maturità.