Ho avuto modo di vedere recentemente un’indagine di mercato dalla quale risulta che ben due terzi dei CIO e dei responsabili dei team storage all’interno di medie e grandi aziende americane non conoscono (o comunque ammettono di non saper misurare con precisione) l’impatto dell’I/O delle loro principali applicazioni sulle infrastrutture storage messe a disposizione in azienda. Le prestazioni dello storage enterprise appaiono quindi poco note, e chi si occupa di storage nelle aziende sembra quasi brancolare nel buio quando si parla di profili I/O delle applicazioni chiave e dell’influenza sulle performance e disponibilità dei sistemi storage e sulla loro architettura.
Questo è quanto si evince dall’indagine condotta per conto di LoadDynamix, un fornitore di test di valutazione delle soluzioni storage, presso i professionisti che si occupano di storage e infrastruttura nelle grandi imprese americane. Due terzi circa delle 115 persone intervistate ha affermato di poter valutare l’utilizzo di I/O solo in situazioni ad-hoc e per il resto di affidarsi a quanto dichiarato dal fornitore di storage, oppure di non avere vero accesso (e quindi padronanza) a queste informazioni. Lascia abbastanza stupiti venire a conoscenza del fatto che, anche in aziende importanti dove sicuramente sono state implementate costose e sofisticate soluzioni di storage, solo un terzo degli intervistati dichiara di ritenersi in grado di misurare e comprendere i profili I/O delle applicazioni chiave. E questo nonostante le ovvie implicazioni che possono risultare da performance storage scadenti: rallentamenti dell’intero sistema, rapporto prezzo-prestazioni in pratica inadeguato, non poter portare a termine task critici per tempo o anche non poterne proporre di nuovi proprio per mancanza di capacità di sistema.
Pur non sapendo risolvere il problema, questi CIO sembrerebbero consapevoli della sua portata. Per la stragrande maggioranza di coloro che hanno risposto al questionario (90%), una flessione delle prestazioni dell’infrastruttura storage coincide (direi quasi ovviamente) con una minore soddisfazione dell’azienda, e per oltre la metà (54%) alla fine tutto ciò porterà, direttamente o indirettamente, a una perdita di profitto (e allora perché non cercare più proattivamente di porvi rimedio?). Per il 51%, una scarsa performance dello storage equivale di fatto a una violazione degli accordi interni sul livello di servizio (SLA) e per il 49% è possibile fonte di downtime.
Parlando del futuro, per il 54% degli intervistati, il progetto più importante di storage per l’anno a venire consiste nell’implementare un nuovo sistema di backup e ripristino d’emergenza (ma, fino ad adesso, come hanno fatto?). L’aumento della disponibilità di risorse è anch’esso una priorità importante (51%), così come la valutazione di nuove tecnologie quali lo storage basato su oggetti, cloud e soluzioni software-defined (49%), il miglioramento delle prestazioni storage utilizzando sistemi flash (45%) e la riduzione dei costi di acquisto ed esercizio dello storage (37%). La maggior parte degli intervistati utilizza ambienti storage tradizionali SAN su Fibre Channel, il 12% sistemi NAS e il 10% iSCSI SAN. Solo il 4% utilizza lo storage basato su oggetti, il che dimostra che tanto c’è ancora da fare su questo fronte (ma arriverà sicuramente anche il suo momento: lo storage ad oggetti sembra un trend inevitabile).
Alla domanda sui progetti chiave previsti per il prossimo anno, il 54% degli intervistati ha risposto che sarà data priorità ad introdurre in azienda gli all-flash array (apperò!), mentre poter trarre beneficio del cloud pubblico per dati non mission-critical è stata la seconda scelta con il 28% (proprio secondo i paradigmi della strategia “cloud first”: scegli il cloud dove vuoi e puoi, ma consideralo sempre come prima scelta). Segue al terzo posto tra le priorità (26%) lo storage converged o hyper-converged (e qui saranno contenti i produttori di soluzioni di questo tipo, quali Nutanix o SimpliVity), mentre il 23% degli intervistati ha risposto di avere pianificato il passaggio allo storage software-based che verrà implementato su architetture hardware x86 “industry-standard”. Più di un quarto del totale degli intervistati utilizzerà il cloud per le applicazioni non mission-critical, mentre il 7% ha pianificato di utilizzare il cloud anche per le applicazioni mission-critical (apperò!).
E quanto sono grandi questi “grandi clienti”, quanto meno a livello di volumi di storage gestito? Poco meno di un terzo degli intervistati (29%) lavora con tra 1 e 10 PB, e il 47% tra 2 e 10 PB. Solo il 2% gestisce meno di 500 TB, quindi li possiamo considerare piuttosto grandi in ottica italiana. Eppure non ne sanno molto. Probabilmente dovrebbero saperne di più. E tu quanto ne sai? E quanto storage gestisci? E i tuoi colleghi e clienti?
pensa poi per assurdo alla nuova frontiera delle applicazioni in memory come hana. è diffuso parere che qui lo storage divenga ancora piu marginale. questo ti dimostra come l’ ignoranza o la superficialità portino alla sottostima dei rischi.
Bruno