Cloud, software defined, iperconvergenza: le soluzioni per innovare le architetture aziendali sono diverse, così come le opinioni legate alla loro implementazione. Indaghiamo sui possibili approcci, con uno sguardo anche al midmarket.
È in atto un profondo cambiamento dell’IT aziendale. Un nuovo approccio al disegno dell’infrastruttura dei sistemi informativi sta emergendo come indispensabile, da una parte per tenere il passo con il crescente volume di dati da elaborare e analizzare (grazie anche all’IoT), dall’altra per aumentare l’efficienza delle risorse IT che entrano in gioco e quindi per consumare una minor parte dei budget. Al paradigma del software defined, che vuole che gli elementi essenziali per l’infrastruttura IT (server, storage, networking, sicurezza) siano messi in comune, virtualizzati, acceduti e gestiti centralmente via software (con evidenti vantaggi in termini di governance), si affianca sempre più un utilizzo di soluzioni infrastrutturali IT integrate e facilmente mantenibili, mentre l’intelligenza, la gestione, la sicurezza e i servizi si spostano nel cloud, con un preciso risparmio sul TCO.
Le architetture software defined, iperconvergenti e basate su cloud ibrido, consentono oggi un approccio diverso all’IT aziendale (enterprise e midmarket), più in linea con le esigenze di un business che richiede un’infrastruttura capace di reagire rapidamente a fronte di esigenze di business mutevoli. Entro il 2019, la necessità di maggiore agilità, semplicità e sicurezza spingerà le aziende oggi alle prese con la digital transformation a migrare la maggior parte della loro infrastruttura IT a un modello software defined con un ruolo centrale per il cloud. Se quindi le tradizionali architetture data center si sono rivelate adeguate per gestire ambienti onpremise caratterizzati da applicazioni client/server, storage fisico e reti on-site, il trend è cambiato con l’avvento di nuove generazioni di applicazioni che richiedono agilità, automazione e gestibilità.
Da silos di tecnologie e processi si sta passando a sistemi convergenti e ambienti cloud disegnati, non solo per scalare verso l’alto per supportare nuovi workload, ma anche per costare di meno e garantire più controllo e flessibilità, realizzando così la promessa del ‘Software Defined Everything’ per le grandi e medie imprese. Il 2018 vede anche il consolidarsi di trend tecnologici guidati dal ‘dato’, linfa vitale per l’azienda e che deve essere sempre disponibile, accessibile, archiviabile, sicuro, gestibile:
– Data Privacy (GDPR)
– Data Mobility (approccio distribuito al dato, cloud privato pubblico e ibrido)
– Data Quantity (IOT e nuove applicazioni di raccolta del dato)
– Data Quality (affidabilità ed efficienza del dato)
– Data Integrity (repliche sincronizzate)
– Data Availability (disaster recovery)
– Data Security (cybersecurity, malware, ransomware)
Se questo trend è vero per l’enterprise, oggi tali necessità toccano anche le medie imprese (a partire anche da poche decine di posti di lavoro) e queste soluzioni tecnologiche sono ora a disposizione, con complessità e costi contenuti, anche del midmarket. Per analizzare queste dinamiche, abbiamo organizzato la tavola rotonda “2018: modernizzare le infrastrutture IT, opportunità e sfide”. L’appuntamento ha coinvolto diversi professionisti del settore che con il loro contributo hanno regalato importanti spunti di riflessione.
Nicola Morreale, Territory Manager – Huawei
Credo che non si andrà mai verso un cloud puro: ci sono clienti che decidono di archiviare tutti i loro dati su cloud e altri che preferiscono tenere tutta l’infrastruttura in azienda. Dipende dalla sensibilità che ognuno attribuisce ai dati e da come viene affrontato il problema della sicurezza: un tema da non sottovalutare, perché può essere un fattore ostativo alla scelta del cloud. Per quanto riguarda la nostra offerta, Huawei è presente in più ambiti ed è abilitante da ogni punto di vista, sia da quello infrastrutturale, quindi tutta la parte che poi viene data al cliente per far sì che questa trasformazione sul cloud avvenga, sia alla parte relativa al software di gestione, per permettergli di decidere se andare verso un cloud provider pubblico oppure realizzarlo in azienda. Per quanto riguarda le nostre esperienze nel 2017, da questo punto di vista possiamo affermare che ci sono stati dei rivenditori di servizi che hanno acquistato la nostra intera infrastruttura, perché siamo riusciti a dimostrare che ottimizzandola, sia da un punto di vista hardware che software per la gestione del cloud, venivano garantite ottime prestazioni con un impatto economico inferiore. Con la piattaforma FusionSphere, grazie alla nostra soluzione FusionStorage, possiamo inoltre assicurare al cliente la gestione dei dati riducendo al contempo i costi. Si tratta di una soluzione innovativa che Huawei propone insieme ad altri prodotti tramite il canale, a tutti i livelli di mercato, anche con eventi territoriali sia rivolti ai partner che alle aziende clienti e prospect.
L’ampia offerta di Huawei è strutturata infatti per fornire tutta l’infrastruttura per il trasferimento delle informazioni, partendo dalla periferia per arrivare al centro. L’unica cosa che non realizziamo sono i sensori, ma per questi ci avvaliamo di diversi partner e con loro studiamo le soluzioni migliori a seconda delle esigenze del cliente. Un lavoro di innovazione a 360° che ci vede attivi anche nella creazione di soluzioni per l’Internet of Things. A tal proposito sono diversi i progetti che vedono Huawei protagonista a livello internazionale, implementazioni che toccano molti settori e spaziano in differenti ambiti, sia privati sia pubblici.
Vorrei citare alcuni esempi dei progetti che Huawei sta portando avanti su questo fronte. Abbiamo realizzato insieme a Schindler, in tutto il mondo, la parte IoT per gli ascensori e le scale mobili; con la Fair Winds Digital, uno studio di progettazione italiano dedicato all’IoT, abbiamo realizzato la prima piattaforma di eHealth dedicata al risparmio antibiotico e dunque alla lotta dell’antibiotico-resistenza; stiamo portando avanti la Smart Water Governance focalizzata sulla Smart Agriculture nel nostro Paese; inoltre i piani comunali di Smart&Safe City della Regione Sardegna sono realizzati attraverso le nostre tecnologie. Non solo. Stiamo implementando, insieme a SAS, un progetto di raccolta dati basato su router intelligenti, dove verrà inserita una componente software per selezionare i dati che transitano dalla periferia verso il centro e quindi per abilitare tutta la parte di manutenzione predittiva, di analisi dei big data e di gestione dei dati. In conclusione, stiamo lavorando assiduamente alla realizzazione di soluzioni Internet of Things, la cui crescita dovrà andare sempre di pari passo con la sicurezza dei device. Un aspetto, quest’ultimo, che è fondamentale mettere sempre in primo piano nella progettazione di nuove soluzioni tecnologiche.
Cristian Meloni, Country Manager – Rubrik
Rubrik è un’azienda giovane: siamo sul mercato da quasi tre anni, mentre in Italia da poco più di uno. Posso sicuramente affermare che il cloud fa parte del nostro DNA: la nostra piattaforma è infatti definita Cloud Data Management.
Quello che vediamo, dopo questo primo anno di presenza in Italia, è che finalmente il cloud si trova. I motivi principali che portano le aziende ad andare verso questa soluzione sono tre: economicità, semplicità e disponibilità. Ma esiste anche un quarto motivo che mi piace sottolineare, che è quello della libertà che può fornire il cloud. Un concetto, quest’ultimo, che ci fa entrare però nei punti negativi di queste piattaforme, ovvero i lock-in dei vari fornitori. Stanno nascendo le prime aziende di cloud brokering e – se nascono intermediari per offrire più semplicità di scelta – vuol dire che tutta questa libertà in realtà non c’è e che l’infrastruttura più utilizzata non sarà mai solo il cloud pubblico. Sono del parere che si rimarrà in ambienti cloud ibridi, aggiungo multicloud ibridi, con un importante problema di governance.
Uno degli obiettivi principali di Rubrik è quello di offrire ai propri clienti una piattaforma di cloud data management in grado di orchestrare e mettere in sicurezza questa tipologia di ambienti, automatizzandone i processi e offrendo allo stesso tempo la possibilità di ‘staccare’ i propri dati e le proprie applicazioni dall’infrastruttura sottostante, rendendoli mobili (o ‘liquidi’, per usare un termine 2.0), passaggio fondamentale per un ambiente multicloud ibrido.
Un’offerta che guarda anche all’iperconvergenza e al software defined: esperienze ormai mature che Rubrik ha spostato nella parte secondaria del data center, che troppo spesso viene trascurata e dove negli ultimi 20 anni di vere innovazioni non ce ne sono state. Una proposta ricca, adatta ad aziende enterprise che hanno più di 100 macchine virtuali, ma che guarda anche al mercato con numeri inferiori, che indirizziamo tramite service provider o system integrator che sfruttano la bontà della nostra piattaforma per erogare servizi.
Se il 2017 è stato un anno davvero importante per Rubrik, con numeri impressionanti in termini di fatturato e di nuovi clienti, il 2018 si presenta come un periodo ricco di novità, iniziato con l’annuncio dell’acquisizione di Datos IO (http://datos.io). Continuerà inoltre la ricerca di nuovi partner – che si affiancheranno a quelli che hanno creduto da subito in noi e alla nostra tecnologia – e quella di nuovi collaboratori. Anche in Italia raddoppierà la presenza di persone sul mercato, aprendo inoltre una filiale a Roma.
Il tutto, senza dimenticare i grandi temi che l’innovazione e la digital transformation portano con sé: sempre più cloud, l’AI, i big data, gli analytics, la data intelligence, DevOps, il disaster recovery e tanti altri. Argomenti che trattiamo mettendo sempre al centro la parola security, un fiore all’occhiello per noi.
La nostra piattaforma, infatti, viene definita security by design, perché nello sviluppo di ogni singolo componente il tema della sicurezza è sempre centrale e ‘tutto viaggia cifrato’. Numerose sono le certificazioni ricevute: Common Criteria EAL2+, FIPS 140-2 Level2 e DODIN APL per citare le più importanti. È documentato inoltre che la nostra piattaforma di Cloud Data Management è immune dalle minacce Petya e Meltdown e che a livello di ransomware i nostri cluster sono inattaccabili. Un’affidabilità e una sicurezza che soddisfano anche il GDPR.
Donato Ceccomancini, Sales Manager – Infinidat
Infinidat è nata nel 2011 con l’obiettivo di portare innovazione in un mercato dello storage ancora legato a tecnologie che non riescono più a gestire in maniera adeguata i volumi di dati generati nella nuova era digitale e a garantire quindi alte performance, massima affidabilità ma a costi contenuti. In Italia siamo presenti dal 2015 con una proposta che soddisfa clienti di grandi e medie dimensioni e, ultimamente, anche la Pubblica Amministrazione, un settore nel quale stiamo muovendo i primi passi. Tutti i clienti che incontriamo stanno valutando politiche di gestione dei dati in cloud, ma non credo che il cloud andrà a sostituire l’infrastruttura interna, è probabile piuttosto che si arrivi a un compromesso. Di certo, saranno gli skill a cambiare.
I principali motivi che spingono le aziende a valutare il cloud sono la possibilità di un risparmio economico, una maggiore flessibilità e facilità d’uso, una riduzione delle competenze interne e la possibilità di pagare a consumo.
La realtà che riscontriamo presso diversi clienti che l’hanno adottato, specialmente nel caso di cloud pubblici, è che le condizioni economiche non sono così vantaggiose, che uscire dal contratto non è particolarmente semplice e che molto spesso i contratti sono intoccabili e i termini e le condizioni devono essere accettate così come sono.
Quello che con Infinidat offriamo ai clienti è la possibilità di avere una nuova infrastruttura storage nel proprio data center per gli ambienti mission critical, che permetta di avere tutti i vantaggi in termini di risparmio economico, flessibilità e facilità d’uso che si potrebbero avere andando in cloud – e quindi basse competenze interne –, ma con performance e affidabilità uniche sul mercato e una flessibilità commerciale attraverso la funzionalità CapacityOnDemand (acquisti spazio aggiuntivo solo quando ne hai bisogno e lo paghi dopo che lo hai utilizzato) e/o un modello utility con pagamento a TB/mese.
Una delle principali limitazioni delle soluzioni software defined attualmente presenti sul mercato è l’incapacità di potersi ancora confrontare con gli ambienti mission critical dei clienti, ambienti dove è necessario garantire, non solo alte prestazioni, ma anche elevata affidabilità.
Infinidat, con le sue soluzioni software defined storage di classe enterprise, è l’unica azienda in grado di offrire soluzioni infrastrutturali pre-assemblate e pretestate in fabbrica che con suoi 140 brevetti software è stata capace di riscrivere completamente il modo con cui viene gestito il dato, spostando l’intelligenza dall’hardware al software e introducendo algoritmi predittivi-cognitivi e logiche di intelligenza artificiale.
Questo ci permette di avere un’architettura basata su hardware commodity, ma in grado di scalare fino a 5PB in un rack singolo, performance all flash, gestione di workload/protocolli eterogenei con affidabilità 100 volte superiori ai tradizionali storage high end.
Per quanto riguarda le soluzioni iperconvergenti, invece, la nostra opinione è che si tratta sicuramente di una proposta interessante per il midmarket, ma per dimensioni importanti, nelle aziende che hanno la necessità di elevata scalabilità e flessibilità, i sistemi iperconvergenti introducono degli elementi di complessità che fanno decadere i vantaggi di questo modello.
Il nostro approccio innovativo ci differenzia in modo sostanziale dai nostri competitor ed è anche per questo che Gartner ci ha definiti ‘lo storage del futuro’. Questa è anche una delle tante ragioni per cui a settembre 2017 Goldman Sachs ha deciso di investire 95 milioni di dollari su Infinidat, valutando l’azienda 1,6 miliardi di dollari, con un piano che ci porterà a breve in borsa.
Su questa scia, abbiamo appena annunciato di aver raddoppiato il fatturato Emea nel 2017. La straordinaria performance del canale, gli investimenti in linee di prodotti e sviluppo, nonché la capacità di trasformare i clienti soddisfatti in sostenitori di Infinidat, sono stati gli elementi cruciali di questo successo.
Marco Spoldi, Software Defined Storage BU Director – BCLOUD
Partiamo dalla nostra esperienza. BCLOUD, nella sua veste di azienda software defined system integrator, ha introdotto Cloudian in Europa e lo ha fatto nel 2013, un periodo in cui l’object storage, e quindi la base del cloud, non era ancora molto nota.
Occuparsi di object storage significava dunque andare dai clienti e spiegare che i loro dati sarebbero stati posti al centro di un ecosistema e poi sfruttati attraverso l’impiego delle applicazioni. Anche le applicazioni devono quindi evolvere nel loro utilizzo dei dati.
Per fare apprezzare al meglio il cloud ai clienti, è stato importante creare una rete di aziende che lo utilizzasse. I nostri primi clienti sono stati quindi i service provider: Cloudian è stato venduto a tutti i service provider italiani e abbiamo fatto in modo che si venisse a creare una sorta di network in cui anche le aziende clienti finali, che volevano sfruttare l’ecosistema e tutte le applicazioni disponibili, avessero la possibilità di immettere i propri dati, o in casa, quindi onpremise, o in cloud. Di conseguenza, in un secondo momento, Cloudian è stato proposto anche a tutti i clienti finali. L’offerta di servizi cloud storage di Cloudian è compatibile al 100% con S3 di AWS e questo è sicuramente uno dei suoi punti più forti.
In Italia purtroppo però, ancora oggi, le imprese preferiscono avere i dati sotto controllo, ma questo non significa che l’evoluzione verso il cloud non ci sarà. Nell’ultimo anno e mezzo, infatti, c’è stata una forte crescita della domanda nei confronti di questa soluzione: dopo un’evangelizzazione durata quasi tre anni, i clienti hanno iniziato a capire il significato e l’opportunità di avere una piattaforma cloud in azienda, con alcuni dispositivi di livello uno in cui caricare le informazioni – per esempio dei software di backup – e un cloud esterno in cui fare il disaster recovery.
Un’accelerazione che risponde alle esigenze del cliente, che non vuole più ritrovarsi in casa un’infrastruttura complessa, e che vede molte aziende sperimentare il cloud con diverse opzioni di esternalizzazione di dati e/o applicazioni.
Non è detto che una volta concluse queste esperienze non ci siano realtà che decidano di rimettere tutto in azienda, ma, secondo noi, è il cliente che deve poter decidere se tenere tutto in casa, oppure un po’ in casa e un po’ presso service provider italiani e/o stranieri.
Uno scenario in evoluzione, insomma, in cui sta emergendo come fattore chiave anche un altro tema, quello della formazione delle persone chiamate a gestire il cloud: un compito al quale, come software defined system integrator, rispondiamo in modo efficace.
BCLOUD, come detto, punta molto sull’ecosistema e in quest’ottica offre al cliente un insieme di applicazioni e di brand con diversi livelli di archiviazione: una proposta che consente alle aziende di prendere decisioni e agire nel modo più appropriato e adatto alle esigenze di business.
Parte da qui la nostra idea di innovazione delle infrastrutture IT: un processo nel quale ci inseriamo come interlocutori qualificati nella nostra veste di azienda specializzata nel software defined.
Un concetto, quello del software defined e anche dell’iperconvergenza, in fortissima evoluzione, sia nella parte storage che in quella IT, che ci vede protagonisti con l’offerta di soluzioni che si adattano anche al mercato delle aziende medio/piccole.
Un’offerta che segue e si evolve guardando anche l’Internet of Things, ambito nel quale, nel corso del 2017, abbiamo stretto diverse alleanze con imprese che realizzano device e software di gestione.
BCLOUD è stata contattata poi da queste realtà per affrontare anche un nuovo tema, quello del Fog Computing, un altro modo di intendere l’edge volto a garantire lo stesso livello di prestazioni anche in periferia. Ci sono player, con i quali ci relazioniamo, che realizzano software e device proprio in questo campo e nel 2018 saremo sicuramente molto presenti anche in questo mercato.
Roberto Patano, Senior Manager Systems Engineering – NetApp
Il cloud è da tempo parte integrante dei discorsi di trasformazione digitale, ma il dialogo, rispetto a qualche anno fa, è cambiato. La questione non è più perché devo andare verso il cloud. Le domande sono: quando utilizzarlo? Cosa ci posso fare? Dove andare? Quale cloud utilizzare nell’ottica multicloud? Tutti i clienti con cui stiamo parlando, piccoli e grandi, hanno l’obiettivo di avere una soluzione multicloud. Le aziende si sono rese conto che il dato è la vera ricchezza e avere la possibilità di mantenere il controllo della memorizzazione dell’informazione è fondamentale, così come diventa importante poter disporre di un cloud senza dover dipendere da nessuno. Questo aspetto è parte della trasformazione che ha avuto NetApp in questi anni: creare una maglia, un ecosistema, in cui il dato è fondamentale e possiamo movimentarlo è la strada che abbiamo seguito e che continueremo a seguire, perché crediamo che il cloud sia un’ottima opportunità anche per sfruttare al meglio un’informazione che magari già risiede in azienda. A questo proposito, NetApp ha fatto un’analisi relativa all’utilizzo dei dati da parte delle aziende, prendendo in esame un campione di circa 800 imprese medio/grandi attive in tutto il mondo: dalla ricerca è emerso che chi è stato capace di impiegare al meglio i dati ha ottenuto il 30% in più di fatturato, aumentando di tre volte i nuovi clienti. È la dimostrazione pratica che l’utilizzo corretto dei dati fa sì che si possa avere un vantaggio competitivo sul mercato e il cloud in quest’ambito può rappresentare una spinta.
NetApp è nata 25 anni fa con insito un concetto di software defined. Rispetto al passato, oggi nell’ottica software defined la novità è che è possibile concedere un grado di libertà aggiuntivo che si può ottenere proprio all’interno del cloud. Troppo spesso il software defined lo si pensa legato solo allo storage tradizionale, invece è un approccio di tipo diverso che va nell’ottica di quella che abbiamo definito next generation data center, basato su storage tradizionali oppure a oggetto. E in quest’ambito si collocano anche i sistemi di iperconvergenza. Per quanto riguarda l’esperienza di NetApp, che con il canale è presente anche nel midmarket, vediamo un’attenzione nei nostri partner verso due soluzioni classiche del cloud, la parte di backup e la parte di gestione, mentre nell’ottica software defined le aziende stanno approcciando, in maniera veloce, la gestione delle filiali remote. Partner più evoluti, invece, riescono a ricoprire anche il ruolo di broker di servizi: questo significa non pensare solo a implementazioni cloud, ma cercare di capire sul mercato quali servizi possono essere integrati nella propria offerta per presentarsi in maniera diversa e competitiva.
In questo cammino di evoluzione delle infrastrutture IT, un’accelerazione può arrivare dall’Internet of Things. Secondo il mio punto di vista, in futuro ci sarà una parte edge, una parte core e una parte cloud all’interno infrastruttura. Nell’edge verranno generati sempre più dati e ci sarà la necessità di elaborarli in blocco in maniera veloce, per mandare i risultati nel core, dove verranno eseguite ulteriori elaborazioni, mentre l’archiviazione potrà essere garantita dal cloud. Come ci si evolve in questo ambito? O con una parte software defined storage, nell’immediato, ma se guardo al futuro ci sarà bisogno di soluzioni che siano estremamente veloci. Non a caso NetApp ha acquisito un’azienda che si chiama Plexistor che offre soluzioni di questo tipo.
Roberta Marchini, Technical Sales Manager, Lenovo Data Center Group
L’adozione del cloud ibrido è in costante ascesa, perché le aziende vogliono gestire le risorse dove servono, in un ambiente IT altamente flessibile. Lenovo, che è attiva in quest’ambito, ha registrato, soprattutto nell’ultimo periodo, l’intenzione da parte di tanti clienti di trasformare il loro data center. Un desiderio di cambiamento e innovazione che necessariamente deve essere sostenuto da tecnologie hardware e software, possibilmente integrate, che possano, da un lato abilitare l’introduzione del cloud in ambienti tradizionali, dall’altro semplificare la gestione del data center e mantenerne elevati standard di sicurezza, sia che si parli di macchine virtuali che di macchine fisiche.
Il principio su cui si basa la proposizione per il data center di Lenovo è il ‘Future Defined Data Center’, ovvero un data center a prova di futuro, quindi necessariamente software defined e integrabile con i principali cloud provider, per permettere a ogni cliente di scegliere liberamente il percorso verso il cloud che più si adatta alle sue esigenze. Non esiste infatti un modello unico di introduzione e implementazione del cloud che vada bene per tutti, ‘one size fits all’. Questo è il nostro obiettivo e vediamo che chi fa cloud e infrastruttura – intendo anche software infrastrutturale – sta cercando sempre più di abilitare il modello di cloud in modo tale che i clienti possano scegliere in maniera semplice dove andare, con chi attivarlo e non essere legati a un singolo provider.
La maggiore difficoltà, ovvero la sfida di oggi, è però disporre di un layer di software pronto al cloud e in grado di seguirne la crescita e la trasformazione. Lenovo, in quest’ambito, ha maturato diverse esperienze: abbiamo per esempio una consolidata expertise in ambito VMware, la cui filosofia ‘any cloud, any provider’ implica che quello che interessa all’azienda venga eseguito internamente, ma ciò che serve in termini di flessibilità possa essere spostato all’esterno – ma anche con Microsoft, il cui approccio ‘tutto cloud’ sta evolvendo, grazie ad Azure Stack, verso la possibilità di collegarsi ai Data Center locali delle aziende clienti.
L’innovazione delle infrastrutture IT è in continua crescita e in trasformazione. Un’evoluzione che Lenovo segue in un’ottica d’insieme, grazie all’approccio software defined e all’iperconvergenza. A questo proposito, a giugno abbiamo annunciato il brand ThinkSystem, sotto cui sono raccolti i building block (server, storage, networking) costituenti un data center, realizzati con grande attenzione al dettaglio al fine di garantire massima affidabilità e ottime prestazioni, e il brand ThinkAgile per le appliance già integrate con questi building block e basate sulle soluzioni software dei nostri principali partner. La nostra idea, che accompagna ogni progetto che realizziamo, è quella di fornire al cliente una soluzione pronta per essere utilizzata, software defined se è quello che il cliente desidera, in grado di erogare alti livelli di servizio. Nel mercato vediamo un grande interesse verso queste soluzioni, ma notiamo anche che il principale inibitore è l’integrazione di queste tecnologie all’interno dei processi e delle procedure aziendali. Difficoltà che vanno affrontate caso per caso, perché è grande la varietà di esigenze dei clienti. Notiamo infatti che – nonostante l’interesse crescente, sulla carta, per il software defined – molti clienti optano poi per un modello infrastrutturale tradizionale.
Si stima che il 10% dei dati gestiti nel mondo sia generato e venga elaborato nel cuore del data center e questo trend è in continua crescita: per il 2020, infatti, questa previsione si alza fino al 50%. Tutto ciò significa che avere un data center flessibile diventa fondamentale, così come saper applicare tecniche di intelligenza artificiale per conoscere al meglio il valore dei dati che abbiamo a disposizione e comprendere come utilizzarli. Lenovo, in questo senso, ha annunciato di recente l’istituzione di tre ‘AI Innovation Center’, negli Stati Uniti, in Europa (a Stoccarda, in Germania) e in Cina: realtà che vogliono aiutare i clienti a capire che cos’è l’intelligenza artificiale – che non a caso noi chiamiamo intelligenza aumentata, augmented intelligence – e come poter rendere più concreti questi temi, non solo a fini commerciali ma anche di ricerca scientifica e ambientale.
Albert Zammar, Country Manager – Veeam
Nel processo di innovazione delle infrastrutture IT, il cloud vince a mani basse. Veeam – che è cresciuta nel 2017 sul 2016 del 36% a livello mondiale – su questo fronte registra infatti un trend importante. Non riporto solo il nostro punto di vista, ma anche quello dei clienti. Parlando con i CIO, infatti, l’attenzione principale è quella di cercare di dare maggiore agilità al processo di digital trasformation e di poter utilizzare le infrastrutture cloud per tutto ciò che riguarda il lancio di nuovi progetti. Durante un recente momento di condivisione di opinioni ed esperienze, un CIO in particolare ha sottolineato come qualche anno fa si parlasse di IT bimodale, un concetto che non è superato: se guardiamo, per esempio, a una grande banca, è chiaro che un data center dove ci sono processi standardizzati, magari di tipo legacy, non è possibile cambiare tutto dall’oggi al domani, ma allo stesso tempo bisogna supportare tutta quella che è la trasformazione digitale che le linee di business richiedono e quindi avere la possibilità di sperimentare, utilizzare DevOps ed essere molto veloci nel rilascio di nuovi progetti. In questo senso il cloud aiuta molto.
Aggiungo che è vero che l’infrastruttura utilizzata maggiormente dai nostri clienti è quella ibrida, ma esistono delle eccezioni. Un’azienda che aveva lanciato dei progetti innovativi, per esempio, alla domanda “quanto e in che modo vi rivolgete al cloud pubblico?”, ha risposto: noi abbiamo il nostro cloud. Questo significa che molte aziende, anche utenti finali, si stanno trasformando per i loro clienti in cloud provider, un’importante trasformazione che coinvolge anche molti rivenditori IT tradizionali che, proprio perché c’è una richiesta del mercato, cambiano pelle e diventano anch’essi dei piccoli cloud provider. A volte mettono in piedi delle infrastrutture proprie, in altri casi si avvalgono di cloud provider più grandi che forniscono delle soluzioni di tipo ‘white label’. Un approccio al cloud dalle diverse sfumature, insomma, in cui il dato ricopre un ruolo sempre più centrale. Una volta si diceva “the content is the king”, oggi si dice “the data is the king”: il valore di un’azienda oggi non è rappresentato tanto dal contenuto, quanto dal dato, che va dunque gestito, protetto, utilizzato e fatto fruttare in termini di business. Per Veeam il fatto di disporre di un dato sempre protetto, consistente e disponibile – in maniera tale che l’azienda possa essere anche conforme alle normative vigenti – e recuperabile in qualsiasi momento, è oggi fondamentale in quanto è questo ciò che determina il vero valore di un’azienda.
Un altro aspetto che voglio sottolineare è quello della governance. Nel momento in cui un’azienda si rivolge ai cloud provider, ma anche ai propri data center nel caso di un cloud di tipo ibrido, deve essere in grado di gestire e coordinare attraverso un’unica dashboard generalizzata la gestione dei dati dovunque questi risiedano e deve avere la certezza che il dato sia sempre recuperabile e che l’infrastruttura permetta la ripartenza del servizio senza interruzioni, perché la continuità del business è fondamentale. Un altro fenomeno che nella nostra esperienza abbiamo incontrato è l’accoglimento da parte delle aziende delle soluzioni iperconvergenti e l’evoluzione delle imprese verso il software defined, perché accoppiare una parte infrastrutturale con l’applicazione del software della gestione è diventato l’obiettivo di tutti i clienti, soprattutto in un percorso che oggi va verso soluzioni multicloud. Concludo dicendo che guardando al futuro, ma anche al presente, una grande opportunità è rappresentata dall’Internet of Things, il cui sviluppo dovrà andare sempre di pari passo con quello della cybersecurity.
Andrea Sappia, Sales Consultant Manager – Fujitsu
Avvicinarsi al cloud non vuol dire solamente cercare una riduzione dei costi perché il concetto di cloud può essere associato anche ai temi della ricerca della velocità e dell’innovazione. Uno dei vantaggi principali che possiamo portare attraverso gli ambienti cloud, infatti, è quello di poter assicurare ai clienti maggiore flessibilità e rapidità nell’implementazione dei servizi con l’utilizzo di tecnologie innovative in continua crescita ed evoluzione. Il cloud viene visto come fattore abilitante all’innovazione e in quest’ottica Fujitsu è un’azienda in grado di offrire due anime al mercato, quella dei prodotti, quindi l’onpremise, e quella dei servizi, consentendo di bilanciare la propria proposta nell’una o nell’altra direzione. Guardando ai nostri clienti, il cloud ibrido, ovvero il concetto di Hybrid IT, è la soluzione più richiesta, quella standard, ma diventa fondamentale poter disporre di strumenti che lo abilitino e che consentano anche di orchestrare tutti i processi e tutti i workload. L’orchestrazione deve fare in modo che i servizi possano essere erogati dal data center locale, all’interno dell’azienda, oppure essere indirizzati verso il cloud, portando una dinamicità che rappresenta la parte fondamentale della richiesta dei clienti. È importante quindi l’utilizzo di soluzioni software defined che permettano di decidere se un certo servizio, una certa attività, sia più efficiente se erogata onpremise piuttosto che da un public cloud, anche – e non solo – integrandosi con partner, quindi con cloud aperti. Non rimanere chiusi in un ambito proprietario è una delle caratteristiche principali che i nostri clienti e il mercato in generale chiedono.
Le soluzioni software defined diventano quindi fondamentali per le aziende, permettendo una gestione più agevole dei processi e la scalabilità verso grandi dimensioni, cosa che è possibile realizzare anche in maniera molto estesa, con i sistemi integrati che consentono di realizzare il software defined data center.
Per quanto riguarda la nostra esperienza diretta, la tendenza è quella di utilizzare il software defined per posizionare al centro l’applicazione, anziché l’hardware, in un’ottica application e business centric.
È infatti fondamentale gestire il fast deploy delle applicazioni e non tanto dell’hardware che le deve supportare; siamo abituati a utilizzare i nostri smartphone, scaricando applicazioni di ogni tipo e utilizzandole in pochi secondi, perché non pensare che un giorno questo meccanismo possa essere applicabile anche al mondo del business e del data center, quindi spostare il focus verso applicazioni semplici e disponibili in pochi istanti? È una prospettiva che Fujitsu definisce Human Centric, un approccio che permette all’utente di semplificare il proprio lavoro: il software defined favorisce e semplifica una serie di attività di gestione dei componenti che nel tempo si aggiungono alle infrastrutture e che possono rendere più complesse le architetture da tenere sotto controllo.
Le soluzioni per il software defined data center di Fujitsu permettono di realizzare fast provisioning e di semplificare anche la scalabilità, il deployment e quindi garantire tempi rapidi di implementazione contestualmente alla semplificazione nella gestione di architetture molto scalabili. Si parla infatti anche di migliaia di virtual machine e di storage nell’ordine dei petabyte all’interno di un unico ambiente software defined, che hanno la possibilità di essere gestiti e monitorati in maniera semplice da un unico punto di accesso.
Tramite il canale e una rete di partner, la proposta di Fujitsu può toccare anche i piccoli clienti, con un’offerta che ruota attorno anche all’Internet of Things, un ambito che ci vede estremamente coinvolti sia dal punto di vista di soluzioni as a service, erogate tramite il nostro global cloud, che nel rilascio di componenti di edge computing e architetture per l’elaborazione ad alte prestazioni e l’archiviazione dei dati. Tutto questo senza perdere mai di vista il tema fondamentale della cybersecurity, in un’ottica di identificazione, protezione, difesa e risposta ai rischi derivanti dalla proliferazione di dispositivi che producono dati e li condividono su reti pubbliche.
Riccardo Bandoni, Senior Competitive Systems Analyst – Oracle Emea
L’innovazione deve essere totalmente trasparente. È questa la filosofia che Oracle porta avanti e che propone in tutta la sua offerta: da IaaS a SaaS, passando per Oracle Cloud at Customer, l’opzione che consente al cliente di mantenere dei sistemi cloud installati nella sua azienda. Trasparenza significa che tutti quei plus che ci sono nel data center devono essere garantiti e che le competenze devono mantenersi uniformi e in linea tra gli ambienti ibridi e onpremise. Un ambito, quello dell’onpremise, che secondo me non sparirà: sono infatti convinto che si andrà sempre più verso sistemi ibridi, con imprese di una certa dimensione che utilizzeranno il tradizionale public cloud come motore di distribuzione di dati e servizi.
Molti clienti, in questa fase, sono all’inizio del percorso di adozione del cloud e non riescono a comprendere al meglio di cosa hanno bisogno per la loro realtà: quello che abbiamo fatto e continuiamo a fare, per i ‘nuovi utenti’, sono delle analisi utili a indirizzarli verso la soluzione migliore. Soluzione migliore che, nel lungo periodo, a mio parere, sarà Oracle Cloud at Customer: la conferma arriva anche da alcuni competitor che stanno cercando di raggiungere una proposta simile alla nostra. Noi, a differenza loro, abbiamo però il vantaggio che sull’onpremise avevamo da tempo delle competenze in determinati ambienti, anche nel mondo dei sistemi virtualizzati.
Per quanto riguarda le architetture software defined, Oracle sostiene che i sistemi, non solo devono essere pilotati dal software, ma devono essere ingegnerizzati con il software. Non basta fare il fast deploy: il sistema deve essere scalabile, deve supportare tutti gli ambienti, e deve essere ottimizzato, non solo nel sistema operativo, ma in tutto lo stack applicativo. Oracle ha introdotto per la prima volta nel 2010 – e poi fino all’ultimo Oracle OpenWorld – sistemi che sono ottimizzati e che sono integrati. Il fast deploy è solo il primo step, ma il resto deve venire di conseguenza. Dico un’altra cosa: ormai siamo abituati a prendere il cellulare e scaricare le applicazioni che desideriamo in pochi secondi. Bene, questa semplicità e immediatezza vogliamo portarla anche nel mondo delle imprese: un approccio con il quale intendiamo rivolgerci anche al midmarket, dove siamo presenti in forma diretta e indiretta, grazie ai nostri partner: operatori tradizionali, distributori e system integrator.
Nel 2017, con diverse iniziative realizzate sul territorio, siamo riusciti a proporre le nostre soluzioni di iperconvergenza per il mercato delle medie aziende. Non solo; stiamo testando la parte in cloud, stiamo offrendo sistemi misti che possono essere adatti anche al midmarket e abbiamo esteso e annunciato soluzioni Sparc: sistemi che partono da piattaforme entry-level e arrivano fino al grande server. Soluzioni nate abbracciando un tema chiave, quello della sicurezza, che Oracle affronta partendo dal processore, con l’integrazione della cybersecurity all’interno dell’ambiente operativo, da Sparc in poi, nell’ottica cloud. L’approccio alla cybersecurity, anche in questo caso, deve essere unico a livello enterprise, dall’onpremise al cloud, e muoversi in parallelo anche nella progettazione di soluzioni di Internet of Things. In quest’ambito siamo molto attivi anche in Italia: partecipiamo al programma del Politecnico di Milano e a molte altre iniziative di mercato. L’Internet of Things è ormai un fenomeno molto ampio che tocca praticamente tutti i settori industriali e avrà sviluppi che a oggi è quasi difficile prevedere. Oracle fornisce tutti gli strumenti di approccio a queste nuove soluzioni con un’attenzione particolare ai problemi di sicurezza che ruotano attorno al loro utilizzo.
Alfredo Rolletta, Field Sales Manager Emea – Cradlepoint
Il cloud non farà scomparire la parte tradizionale dell’architettura presente nei vari data center: questo fenomeno non potrà mai accadere, rimarrà sempre una componente a ‘casa del cliente’; e non ridurrà neanche il livello di competenza del personale IT. Il cloud darà invece più tempo al reparto IT di una società di potersi focalizzare sul proprio business o sull’investimento tecnologico da realizzare per aiutare l’azienda a crescere. Per quanto riguarda la nostra realtà, Cradlepoint (punto di riferimento nella produzione di router LTE) ha deciso, nel 2015, con l’acquisizione di Pertino (società attiva nel campo del Software Defined WAN), di cogliere un trend: quello di utilizzare il software per permettere l’utilizzo dei propri dispositivi di rete in modo semplice, veloce e zero touch, come lo definiamo noi. Un approccio che consente ai clienti di disporre di prodotti pronti all’uso in una rete sicura, ibrida, ma di facile implementazione. Una visione di rete che ci vede ancora oggi protagonisti con molti progetti, come per esempio quello realizzato nel 2017 per un’azienda del midmarket, alla quale siamo riusciti a garantire una concentrazione di servizi consolidati con l’utilizzo di un’unica console tramite la quale poter gestire tutta la rete distribuita su un ampio territorio.
Questa è solo una delle tante esperienze che ci vedono attivi nella proposta di soluzioni innovative. Soluzioni che, grazie all’ausilio dei service provider, riusciamo a offrire a tutte le fasce di mercato, non solo enterprise. Un’offerta che negli anni si è arricchita di una novità: la transizione da una visione ‘hardware centric’ a una ‘solution centric’, con l’ideazione di un prodotto più pacchettizzato capace di andare incontro a quelle che sono le esigenze del cliente. Un taglio che ancora ci contraddistingue e che consente ai partner di approcciare meglio il midmarket e quello enterprise. In futuro, Cradlepoint continuerà a lavorare in questa direzione e lo farà anche nell’anno in corso.
Un impegno e un servizio che prosegue senza perdere di vista due temi fondamentali: l’Internet of Things, un fenomeno di innovazione a noi molto vicino, e la cybersecurity, un aspetto che tutte le aziende devono mettere al centro nella fase di progettazione di ogni nuova soluzione. In questo senso, Cradlepoint può considerarsi una realtà solida e affidabile. La nostra società, infatti, è stata scelta qualche anno fa proprio per risolvere un problema di sicurezza su un dispositivo collegato alla rete aziendale di una delle piu’ grandi catene operanti nel canale della grande distribuzione, un condizionatore all’interno di uno dei suoi megastore. Durante una normale manutenzione, un tecnico si è inserito con il suo portatile ‘infetto’ al sistema WiFi che collegava i condizionatori permettendo cosi la clonazione di migliaia di carte di credito. Una faglia per la quale è stata cercata subito una soluzione, creando un nuovo perimetro di sicurezza anche per diverse tipologie di end point, come i condizionatori, utilizzando dispositivi ‘high value IoT’. È da questa esperienza che ha preso il via la crescita della nostra società che ancora oggi lavora per garantire ai propri clienti soluzioni innovative, efficienti, affidabili e sicure.
Alfredo Nulli, Senior Cloud Architect Emea – Pure Storage
Finalmente si può parlare di cloud come un modello architetturale di implementazione. Rispetto a qualche anno fa, infatti, oggi il livello di maturità del mercato e dei clienti è diverso e dietro la parola cloud, spesso, risiede un desiderio di semplicità, prima ancora che di modello di business. Dico subito che è estremamente falso che l’adozione del cloud, così come anche l’iperconvergenza e il software defined, permetta di fare a meno di skill infrastrutturali in azienda. Non è vero: questi si modificano, diventano ancora più profondi, sofisticati, verticali e precisi rispetto alle competenze più tradizionali presenti nell’IT delle aziende negli ultimi vent’anni. Nell’ambito dello storage, per esempio, ci sono persone che hanno degli skill di 25 anni assolutamente rispettabili su modelli architetturali tradizionali. Queste competenze ora devono essere trasportate nel nuovo modello architetturale a supporto del cloud. E non è un caso che i corsi tecnici sui cloud di Amazon, Azure, Google e altri siano tra quelli più richiesti. Ciò che non servirà più sono gli skill necessari per connettere elementi di hardware diversi tra di loro.
Il discorso fatto per il cloud, come detto, vale anche per l’iperconvergenza e il software defined. A questo proposito, sfido chiunque a implementare una soluzione di software defined di storage e anche di iperconvergenza, senza compromettere il trade-off tra prestazioni, affidabilità e prezzo. Questo trade-off è irraggiungibile, a meno che non si metta mano alle applicazioni, nel modo in cui utilizzano la sottostante componente infrastrutturale per funzionalità come alta affidabilità e protezione del dato. Nel caso del cloud ibrido, l’esperienza sul campo ci dice che i clienti non spostano dati: decidono a priori di essere ibridi, nel senso che mantengono aperte più opzioni e una volta compiuta la scelta del cloud ibrido al limite spostano il backup o il vaulting, ma il dato originario viene raramente spostato, in quanto questo processo è costoso e delicato.
Per Pure Storage il messaggio è sempre quello della semplicità. A oggi il costo delle memorie flash è diventato assolutamente confrontabile con tecnologie tradizionali (HD). Per questo Pure Storage ha l’obiettivo di posizionare il flash come nuovo Tier1 dei data center aziendali indipendentemente dalla dimensione aziendale. Nel nuovo anno, un altro tema fondamentale sarà l’evangelizzazione del mercato su temi di data management legati anche ai dati non strutturati. L’ambizione di Pure Storage è quella di portare il cliente a semplificare l’implementazione del data management che aiuta di clienti a realizzare il concetto di data lake. Nel fare questo, Pure Storage si propone di utilizzare protocolli semplici e standard in modo da dare slancio alle soluzioni di analytics e di machine learning. Per fare ciò, nel 2017 abbiamo lanciato la piattaforma FlashBlade, in cui sono supportati i protocolli di accesso ai dati non strutturati. Grazie alle elevate prestazioni e al supporto nativo di protocolli come IPv6, FlashBlade si propone oltre che per ambienti Analytics e ML, anche come target di applicazioni business in ambito IoT, con una sfida: creare una piattaforma disponibile direttamente a livello di ogni device.
[per leggere l’articolo sul sito della rivista clicca QUI]