L’obiettivo della storica azienda di storage è rendere coerente la gestione dati in una dimensione software. Il fine ultimo è la valorizzazione e l’ottimizzazione dei dati in ambienti complessi e distribuiti, on e off premise.

di Piero Macrì

 

Alla base della trasformazione digitale vi è l’affermazione implicita di uno scenario di mercato caratterizzato dall’inarrestabile progressione della data economy. D’altra parte, come più volte affermato dagli osservatori più attenti, i dati sono diventati il nuovo petrolio, la materia grezza da cui è magicamente possibile estrarre modelli di business digitali algoritmici e artificiali così come nuove forme di revenue.

Una teoria, quella di cui sopra, che trova conferma nelle indicazioni fornite da Gartner: il fatturato digitale globale – affermano gli analisti della società – è l’unico che nel giro dei prossimi anni conoscerà una crescita significativa mentre il business analogico è destinato nel tempo a ridursi o a convertirsi attraverso un processo di graduale metabolizzazione nell’infosfera della data economy.

In altre parole, e guardando il tutto da una prospettiva ancora diversa, e se vogliamo più filosofica, questo mondo non è un paese per vecchi. Il futuro appartiene ai nativi digitali, siano essi imprese o comuni cittadini, poiché, in qualsiasi ambito ci si collochi – B2B o B2C – le coordinate da seguire per proiettare sé stessi verso uno sviluppo sostenibile, economico e insieme sociale, sono inevitabilmente racchiuse nel DNA delle tecnologie abilitanti una data driven experience. Che il tutto sia poi un bene o un male ha poca importanza. Questo è ciò che ci aspetta.

Non è un caso, quindi, che aziende da sempre impegnate e attive sul fronte dello storage siano andate nel tempo sempre più focalizzando la propria attenzione sulla gestione del dato e sulla capacità di individuare le forme più opportune, da un punto di vista architetturale e di servizio, per supportare gli impliciti cambiamenti che introduce la data economy.

Un’esigenza che nasce, in particolare, dalla necessità di impostare una governance di dati e informazioni che fluiscono attraverso infrastrutture on premise e off premise, in cloud privati e pubblici, in una dimensione ibrida che tende a integrare logiche fisiche e virtuali caratterizzate da una gestione software defined. Una modalità quest’ultima che si è affermata per garantire la flessibilità necessaria per disaccoppiare l’intelligenza software dalle risorse di pure computing rendendo possibile una gestione multi distribuita dei dati.

E’ questo il caso di Netapp, azienda storica del mercato storage, che da tempo ha concentrato i propri sviluppi ed evoluzioni per rendere coerente la gestione dati in una dimensione software, il cui fine ultimo è al tempo stesso la valorizzazione e l’ottimizzazione del dato attraverso uno spettro di molteplici nuclei applicativi.

Come affermato da Marco Pozzoni, country manager di Netapp Italia, “E’ il software il vero vantaggio competitivo in quanto consente di connettere il vecchio e il nuovo mondo”.  Il software, dunque, come elemento abilitante l’erogazione di applicazioni e servizi coerenti con tutte quelle esigenze che vengono sollevate dalla trasformazione digitale.

I riferimenti per lo sviluppo di una nuova generazione di servizi che travalica il perimetro aziendale mettono in discussione il tradizionale approccio al data management, evidenziando l’esigenza di sapere movimentare i dati in una molteplicità di luoghi poiché ci si confronta con istanze di centralizzazione e distribuzione del dato.

Cloud pubblico e privato, on premise e off premise. Sta di fatto che, qualunque sia il riferimento, lo storage deve essere elastico e prevedere la possibilità di supportare dinamicamente processi a più dimensioni.

“E’ seguendo questa logica – dice Pozzoni – che abbiamo attualizzato la nostra offerta nel corso degli ultimi anni. Da una parte introducendo risorse storage sempre più performanti, vedi tecnologia flash array e sistemi convergenti e iperconvergenti, dall’altra creando la piattaforma software o data fabric in grado di assecondare l’efficiente movimentazione all’interno di uno scenario di business sempre più ibrido che deve prevedere capacità di integrazione di risorse on e off premise, il tutto declinato coerentemente con obiettivi di diversificazione del sourcing tecnologico. Significa, in buona sostanza dare alle aziende la capacità di essere più agili e reattivi assecondando la velocità del business e dei cambiamenti.

Velocità, real time o near real time computing. “La velocità di accesso ai dati – afferma Roberto Patano, Senior Manager Systems Engineering di Netapp Italia – è oggi assicurata da piattaforme superperformanti che rispondono alla logica della tecnologia a stato solido, una volta privilegio di pochi, in virtù degli elevati costi, che oggi sta invece diventando una risorsa mainstream, imponendosi come elemento fondante delle nuove architetture a supporto di applicazioni e servizi che devono garantire tempi di latenza sempre più ridotti.”.

Se l’elemento flash array conquista sempre più rilevanza e consenso da parte dei clienti, non meno interessante è l’evoluzione Netapp che si è espressa nell’ambito delle soluzioni convergenti e iperconvergenti che di fatto determinano le basi per la creazione di data center di nuova generazione basati su architetture software defined.

Nel caso di appliance iper-convergenti stiamo parlando di veri e propri micro data center, dove risorse computazionali, storage e di rete, permettono l’orchestrazione delle diverse risorse in funzione di esigenze applicative prevedendone un utilizzo dinamico. Una dimensione quest’ultima che nel caso di piccole e medie organizzazioni può diventare l’infrastruttura unificante l’insieme complessivo delle istanze aziendali, piuttosto che un elemento a supporto di singoli workload nel caso di realtà che presentano infrastrutture più estese e/o diversificate.

 

 

Per aggiornamenti in tempo reale su questo argomento, segui la nostra Redazione anche su Facebook, Twitter, Google+ o LinkedIn