mercoledì 22 febbraio 2017

DataCore, le potenzialità del Software-Defined Data Center

DataCore pone l’accento sulle potenzialità del Software-Defined Data Center e su come sia possibile sfruttare completamente il potenziale di questa tecnologia.

Nel Software-Defined Data Center (SDDC) tutti gli elementi dell’infrastruttura - come rete, capacità di calcolo, server e storage - sono virtualizzati ed erogati come servizio. La virtualizzazione a livello di server e storage è un componente critico del viaggio verso l’SDDC, dato che porta a una maggiore produttività attraverso l’automazione software e l’agilità, proteggendo gli utenti dalla sottostante complessità dell’hardware.
Oggi sono le applicazioni a guidare l’impresa, e queste applicazioni sono esigenti, specialmente negli ambienti virtualizzati, richiedendo allo storage prestazioni elevate per tenere il passo con l’acquisizione dei dati e con l’imprevedibile domanda dei carichi di lavoro aziendali. Il problema è che in un mondo che richiede tempi di risposta quasi istantanei e accesso sempre più veloce ai dati aziendali critici, le necessità di applicazioni aziendali di primo livello come database SQL, Oracle e SAP sono rimaste ampiamente senza risposta. Nella maggior parte dei data center, la causa numero uno di questi ritardi è l’infrastruttura di storage dei dati.

Perché? Il principale collo di bottiglia sono state le prestazioni dell’I/O. Leggete lanostra intervista a George Teixeira relativamente ai vantaggi delSoftware-Defined Storage.

Nonostante il fatto che quasi tutti i server standard mettano già a disposizione in modo conveniente un’ampia gamma di funzionalità multiprocessore, la maggior parte di loro non è sfruttata, trovandosi spesso in modalità inattiva. Questo accade perché gli attuali sistemi si basano ancora su ottimizzazioni a livello di dispositivo legate a specifiche tecnologie a disco e flash che non dispongono di un’intelligenza software capace di sfruttare pienamente i più potenti sistemi server con architetture multi-core.

La rivoluzione dei server virtuali è diventata la “killer app” che ha portato al pieno utilizzo delle CPU e a un certo livello di funzionalità multi-core, ma il lato negativo è che la virtualizzazione e il passaggio a un maggiore consolidamento dei server ha creato un effetto frullatore in cui sempre più carichi di lavoro I/O degli applicativi si sono concentrati fino al punto di dover essere eseguiti in modo pianificato dallo stesso sistema. Tutte quelle VM e le loro applicazioni si sono quindi infilate in un collo di bottiglia costituito da una “cannuccia di I/O” serializzata. Mentre processori e memorie hanno visto incrementi sostanziali nella loro velocità, questo imbuto dell’I/O continua a limitare le prestazioni, specialmente quando si parla di applicazioni aziendali critiche che gestiscono carichi di lavoro costituiti da database e transazioni online.

Molti hanno provato ad affrontare il problema prestazionale a livello di dispositivo aggiungendo storage a stato solido (flash) per rispondere alla crescente richiesta delle applicazioni aziendali o collegando fisicamente questi dispositivi veloci alle macchine virtuali (VM) in sistemi iper-convergenti. Tuttavia, il miglioramento delle prestazioni dei supporti di storage - dove si rimpiazzano i tradizionali dischi rotanti con flash che cercano di fare le stesse cose - affronta solamente un aspetto dello stack I/O. Collegare direttamente la flash alle VM sembra anche in contraddizione con il concetto di virtualizzazione, in cui la tecnologia viene elevata a un livello software-defined al di sopra dei collegamenti cablati e al livello di consapevolezza fisica, aggiungendo complessità e “vendor lock-in” specifici tra i livelli dell’hypervisor e dei dispositivi.

I processori multi-core sono all’altezza della sfida. L’elemento primario che si è perso è il software che può trarre vantaggio dall’infrastruttura di elaborazione multi-core/parallela. La tecnologia Parallel I/O consente di realizzare l’elaborazione dell’I/O in modo separato dalla capacità di calcolo e in parallelo, migliorando le prestazioni di I/O sfruttando la capacità della virtualizzazione di disaccoppiare i miglioramenti del software dalle innovazioni hardware. Questo metodo utilizza il software per suddividere l’I/O parallelo tra tutti i core della CPU.

La tecnologia Parallel I/O può pianificare in modo efficace l’I/O dei carichi di lavoro della virtualizzazione e delle applicazioni utilizzando le piattaforme server multi-core già disponibili. Sfruttando la potenza dei multi-core è possibile superare il collo di bottiglia dell’I/O incrementando notevolmente la produttività, aumentando il consolidamento dei carichi di lavoro e riducendo l’inefficiente proliferare dei server. Questo permetterà di ottenere risparmi molto più consistenti sui costi aumentando la produttività e portando il consolidamento a un nuovo livello, in modo che i sistemi possano fare molto di più con meno risorse.

Parallel I/O è essenzialmente come una superstrada a più corsie con un sistema di “sorpasso facilitato”. Evita il collo di bottiglia e i tempi di attesa creati dalla presenza di un singolo casello e apre gli altri core (tutte le “corsie” in questa analogia) per distribuire l’I/O in modo che i dati possano continuare a fluire avanti e indietro tra l’applicazione e il supporto di storage alla massima velocità.
L’effetto è che più dati fluiscono attraverso la medesima infrastruttura hardware nella stessa quantità di tempo, come avviene nei sistemi di storage proprietari. La tradizionale infrastruttura a tre livelli costituita da server, rete e sistema di calcolo trae quindi beneficio dall’avere sistemi di storage che rispondono direttamente ed evadono le richieste di I/O più velocemente, potendo quindi supportare un numero significativamente maggiore di applicazioni e carichi di lavoro sulla stessa piattaforma. L’efficienza di un’architettura parallela a bassa latenza è potenzialmente più critica nelle architetture iper-convergenti, che sono un’infrastruttura in cui “tutto è condiviso”. Se lo storage software è più efficiente nell’uso delle risorse di calcolo, questo significa che restituirà agli altri processi che girano sulla stessa piattaforma una maggiore quantità di potenza di calcolo disponibile.


Traendo il massimo vantaggio dalla potenza di calcolo offerta dai server multi-core, la tecnologia di I/O parallelo agisce come elemento abilitante di un vero software-defined data center. Questo si deve al fatto che evita qualsiasi collegamento fisico speciale che impedirebbe il raggiungimento dei benefici della virtualizzazione, mentre sblocca la sottostante potenza hardware per ottenere una notevole accelerazione delle prestazioni di I/O e storage. Risolvendo così il problema del collo di bottiglia dell’I/O e rendendo possibile la realizzazione dei software-defined data center.

lunedì 20 febbraio 2017

Tom's Hardware: Più produttività e meno costi con l'elaborazione parallela

Nel 2017 il software di elaborazione parallela rivoluzionerà la produttività cambiando le regole del gioco. George Teixeira di DataCore spiega perchè


La virtualizzazione ha spostato in alto l'asticella della produttività ed ha permesso allo stesso tempo di sfruttare meglio le risorse e di ridurre il Capex dei sistemi informativi.

Esiste però ancora una grande potenza di calcolo non adeguatamente sfruttata. Il problema è però vedere quali spazi tecnologici ci sono per farlo. La soluzione, evidenzia George Teixeira, President e CEO di DataCore Software, una sorta di uovo di colombo tecnologico, consiste nel ricorrere all'elaborazione parallela.
Secondo il manager, che in pochi anni ha portato DataCore ad affermarsi a livello mondiale nel settore della virtualizzazione dello storage,  il 2017 sarà quello in cui il software di elaborazione parallela permetterà di liberare l'immensa potenza di calcolo dei moderni sistemi multi-core, con un impatto fortemente positivo sia sugli aspetti economici che e sulla produttività dei sistemi IT.

Perché ciò possa avvenire il software deve però diventare semplice da usare e non interferire con le applicazioni, e aprirsi ad un uso più generalizzato.


Il catalizzatore dell'evoluzione saranno le nuove tecnologie software per l'I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare del tutto o quasi la potenza dei sistemi multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia sino ad ora costituito dalla velocità dell'I/O.

L'effetto combinato di tempi di risposta più veloci e dell'impatto sulla produttività attraverso l'elaborazione parallela aprirà la strada agli analytics in "tempo reale" e porterà le prestazioni di big data e database a un nuovo livello.

"La nostra esperienza nell'elaborazione parallela, nell'I/O in tempo reale e nel software-defined storage ci ha messo in grado come nessun altro di trarre vantaggio dalle prossime grandi sfide, in un mondo che richiede a una gran quantità di interazioni e transazioni di essere trattate con un passo più veloce e con tempi di risposta ancora più rapidi", ha osservato Teixeira.

Le implicazioni sulla produttività e sulla capacità di prendere decisioni in base alle informazioni estratte dai dati in aree come la finanza, il banking, il retail, l'identificazione delle frodi, la sanità e la genomica, così come nelle applicazioni che riguardano il machine learning e l'Internet of Things, saranno profonde.

Dal parallel I/O all'iperconvergenza
Con l'avanzare del 2017, anche il software iper-convergente continuerà a incrementare la sua popolarità. Per farlo però, gli utilizzatori dovranno essere in grado di trarre pieno vantaggio dalla  promessa di una maggiore produttività. Di certo, osserva DataCore, la  potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.

DataCore PrevisioniPIC Nel 2017 crescerà il calcolo parallelo e l'iperconvergenza
Gli attuali sistemi iper-convergenti sono in sostanza un server più un'infrastruttura software-defined, ma in molti casi sono molto limitati in termini di prestazioni e possibilità d'impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi, ad esempio perché non supportano connessioni fibre channel.

Le tecnologie di storage software-defined in grado di eseguire l'I/O parallelo permettono invece di ottenere un livello più elevato di flessibilità e sfruttare la potenza dei server multi-core in modo che per eseguire il lavoro è sufficiente un numero più ridotto di nodi, rendendoli più convenienti.

Il software può inoltre integrare lo storage su flash e su disco esistente senza dover creare silo aggiuntivi, migrare e gestire dati attraverso l'intera infrastruttura storage, e utilizzare efficacemente i dati memorizzati nel cloud.

"Le intere infrastrutture dati, compresi i sistemi iper-convergenti, possono beneficiare di queste migliorie attraverso le tecnologie software avanzate di I/O parallelo, che può aumentare sostanzialmente la produttività liberando la potenza che risiede nei server multi-core standard. Anche se iper-convergenza è la parola magica di oggi, il vero obiettivo è quello di ottenere la maggior produttività possibile a un costo più basso, e che quindi la chiave è quella di utilizzare meglio storage e server esistenti per gestire le applicazioni", osserva Teixeira. 

venerdì 17 febbraio 2017

Gli all-flash array NeoSapphire di AccelStor sono ora certificati DataCore Ready

Memorie flash veloci per le infrastrutture più rapide: gli all-flash array prodotti da AccelStor sono ora compatibili con il software di DataCore

AccelStor, fornitore di all-flash array definiti da software, annuncia che NeoSapphire 3605 e NeoSapphire 3611 hanno ottenuto la certificazione DataCore Ready. I risultati ottenuti da questi all-flash array Fibre Channel con la piattaforma di storage definita da software SANsymphony™ di DataCore sono stati eccellenti. Grazie a questa nuova collaborazione, gli utenti dispongono ora di migliori opzioni per la virtualizzazione dello storage.
Questa Smart News Release (Comunicato Notizie Intelligenti) è corredata da contenuti multimediali. Vedi la versione integrale qui:http://www.businesswire.com/news/home/20170117005209/it/
AccelStor Fibre Channel array: NeoSapphire 3611 (Photo: Business Wire)
AccelStor Fibre Channel array: NeoSapphire 3611 (Photo: Business Wire)
NeoSapphire 3605 e NeoSapphire 3611 hanno offerto performance eccellenti e si sono affermate come soluzioni di storage preferenziali nell'ambiente DataCore. Nel test effettuato da DataCore con SANsymphony, basato sulla tecnologia Parallel-I/O DataCore™ proprietaria dell'azienda, questi all-flash array hanno dato risultati estremamente positivi anche in condizioni critiche, con tempi di risposta I/O inferiori a 1ms pur continuando a offrire performance elevate in termini di IOPS (Input/Output Operations Per Second).
Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.

venerdì 10 febbraio 2017

V-Valley distribuisce le soluzioni DataCore

DataCore Software può contare su un partner solido ed affidabile e grazie a un team di presales dedicati, con competenze tecniche specifiche, e la possibilità di creare sinergie con gli altri brand a portafoglio, potrà crescere ulteriormente nel mercato italiano.

DataCore Software - fornitore di soluzioni SAN virtuali iper-convergentiSoftware-Defined Storage e Software adattativo per il Parallel I/O ha iglato un accordo di distribuzione con V-Valley, distributore a valore aggiunto del Gruppo Esprinet.

Scegliendo V-Valley, DataCore Software può contare su un partner solido ed affidabile e grazie a un team di presales dedicati con competenze tecniche specifiche e la possibilità di creare sinergie con gli altri brand a portafoglio, V-Valley supporterà DataCore nella crescita nel mercato italiano.

“Siamo lieti di aver siglato questo contratto di distribuzione con V-Valley", evidenzia Rèmi Bargoing, Country Manager Italia di DataCore. "Siamo convinti che la sinergia che si crea tra le loro competenze tecniche e le tante partnership hardware che intrattengono non potrà che sfruttare al meglio le potenzialità di San Symphony V e Hyperconverged Virtual San sul mercato Italiano".

Per Luca Casini, Direttore Commerciale di V-Valley, questo accordo consente a V-Valley di completare la propria offerta con una soluzione software di iperconvergenza al top di gamma. “Per V-Valley questo rappresenta un’ulteriore opportunità per creare valore aggiunto per i propri clienti rivenditori”, concude Casini.

mercoledì 1 febbraio 2017

Storage Server Software-Defined ed elaborazione parallela in cima alle priorità 2017 per moltiplicare la produttività dei Data Center


http://itware.com/blog-itware/cloud-computing/item/1310-storage-server-software-defined-ed-elaborazione-parallela-in-cima-alle-priorita-2017-per-moltiplicare-la-produttivita-dei-data-center

Nel 2017 il Software di elaborazione parallela cambierà le regole del gioco non solo nella gestione dello Storage...

George Teixeira, President e CEO, DataCore Software
George TeixeiraNonostante gli incredibili avanzamenti tecnologici registrati negli ultimi anni, ancora oggi nella gran parte dei Data Center delle imprese c'è una grande quantità di potenza di elaborazione che non viene adeguatamente sfruttata. Nel corso del 2017, a cambiare questa situazione contribuirà l'affermarsi di soluzioni software basate sull'elaborazione parallela capaci di sfruttare al meglio l’immensa potenza elaborativa offerta dai moderni sistemi Multi-core.
La chiave di svolta sta nel progressivo incremento di semplicità d'uso del software e nella sua capacità di non interferire con l'esercizio delle applicazioni funzionali. Un'evoluzione in grado di generare impatti enormi sull'esercizio dei sistemi in quqnto le prestazioni applicative, i carichi di lavoro Enterprise e un maggiore consolidamento della densità delle piattaforme virtuali e del Cloud Computing - finora soffocati dal crescente gap tra capacità di calcolo e I/O - non saranno più limitati.
Tutto ciò sarà realizzabile con le nuove tecnologie software per l’I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare completamente la potenza dei multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia dell’I/O che ha frenato l’intero settore: saranno il catalizzatore del cambiamento.
Il software di elaborazione parallela è pronto per andare oltre l’ambito degli impieghi specializzati come l’HPC e di aree come la genomica, che si focalizzano prima di tutto sulla capacità di calcolo, ed estendersi al più ampio mondo applicativo che richiede interazioni e risposte in tempo reale. Ciò comprende applicazioni e Storage molto diffusi che stanno alla base di transazioni aziendali, Cloud Computing, Database e Data Analytics, così come dei mondi interattivi del Machine Learning e dell’Internet of Things (IoT).
Oggi, molte nuove applicazioni come gli Analytics non sono alla portata di qualsiasi azienda in quanto per completare il loro lavoro richiedono centinaia, se non migliaia, di Server. Eppure, ogni singolo Server è in grado di supportare centinaia di core di calcolo Multi-threading per gestire i carichi di lavoro che fino a oggi sono stati messi in attesa di essere completati. Stiamo inaugurando un’epoca in cui un Server farà il lavoro di 10 - o addirittura 100 - Server del passato. Questo è il risultato del software di elaborazione parallela, che sblocca la potenza inutilizzata dei Multi-core per apportare una vera rivoluzione in fatto di produttività dell'IT e a un nuovo mondo applicativo che nel 2017 diventerà molto popolare.

L’impatto degli Analytics in tempo reale

La parallelizzazione potrà portare ad utilizzare gli Analytics in “tempo reale”, offrendone nuove prospettive d'impiego e risultati dalle prestazioni strabilianti. Questa è la previsione di  DataCore per il 2017 appena iniziato. Le esperienze che abbiamo maturato nell’elaborazione parallela, nell’I/O in tempo reale e nel Software-defined Storage ci mettono in grado di cavalcare con successo questo importante cambiamento, dando risposte concrete ad un mondo nel quale la quantità di interazioni e transazioni sono in continua crescita, richiedendo tempi di risposta sempre più rapidi.
Un'area nella quale DataCore sta facendo consistenti investimenti puntando ad assicurare ai propri clienti il cambio di passo necessario a rendere pratico e conveniente l'uso degli Analytics per svolgere analisi e dare risposte anche in tempo reale in contesti quali la finanza, il banking, il retail, l’identificazione delle frodi, la sanità e la genomica.

L’impatto di Microsoft attraverso lo Stack Azure, il cloud ibrido, Windows e SQL Server 2016

Il successo e la crescita di Azure Cloud sono evidenti, sebbene l’impatto reale risulterà in tutta la sua portata mano a mano che si materializzano le strategie di Microsoft per riconciliare il mondo On-premise con quello del Cloud Computing.
Microsoft è stata uno dei primi fornitori Cloud a riconoscere che il mondo non è composto solo da Cloud pubbliche, ma che continuerà a essere un insieme integrato tra soluzioni e componenti On-premise e cloud. Lo Stack Azure di Microsoft così continua a progredire inesorabilmente, offrendo i benefici delle piattaforme di elaborazione in Cloud, indipendentemente dal fatto che si tratti di Cloud pubbliche vere e proprie o di Cloud private. Oggi, questo può esser considetato come l'emblema del Cloud Computing ibrido.
Mentre Windows e Azure attirano la maggior parte delle attenzioni da parte di tutti gli addetti ai lavori, uno dei cambiamenti più sostanziali apportati da Microsoft alle proprie soluzioni di infrastruttura è riconducibile alla trasformazione della sua offerta Database, oggi divenuta la base di una vera piattaforma per la gestione di Big Data e Analytics.
È pertanto giunto il momento di dare nuovamente un’occhiata a SQL Server 2016, molto più potente di tutte le versioni che lo hanno preceduto, capace di gestire tutte le tipologie di dati. Progettato sin dall'inizio per operare nell’ampio ecosistema costituito dai partner presenti nel marketplace di Microsoft, compresa DataCore, questa innovativa piattaforma è particolarmente indicata per gestire l’elaborazione parallela. Si tratta così di ridefinire ciò che è possibile - e conveniente - fare nei tipici casi d’impiego delle tradizionali applicazioni aziendali per l’impresa.

Lo Storage si è trasformato in un’infrastruttura basata su Server e componenti Software-defined!

L'altra evoluzione significativa scaturita dal mutare del contesto è che oggi ci troviamo nel mezzo di un‘inevitabile e crescente tendenza nella quale sono i Server a definire che cos’è lo Storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i Server Multi-core pre-configurati e arrivare a sistemi di Storage caratterizzati da altissime prestazioni, bassa latenza e vantaggiosi rapporti prezzo-prestazioni. Questo perché è facilmente dimostrabile che i tradizionali sistemi di Storage non sono più in grado di tenere il passo di quelli di nuova generazione, per cui sono entrati in un'inesorabile fase di declino. Di fatto, vengono sempre più sostituiti con Server economici e soluzioni infrastrutturali Software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare.
Lo Storage e i relativi servizi dati sono ora gestiti dal Software. In tal modo, la gestione dello Storage sta diventando semplicemente un altro “carico di lavoro applicativo” che gira su Server standard e a basso costo. Un'ondata di sistemi di Storage flessibili basati su Server generici che sta facendo registrare impatti devastanti in tutto il settore. Commercializzati come sistemi SAN Server, SAN virtuali, Web-scale, Scale-out o iper-convergenti, sono un insieme di Server standard pre-configurati, combinati con schede Flash e unità disco. È però il software che definisce veramente il loro valore.

Lo Storage funzione a carico dei Server

Il software di elaborazione parallela e la capacità di sfruttare le tecnologie Multi-core dei Server costituiscono l'elemento principale capace di modificare le regole del gioco.  Unito all’infrastruttura Software-defined, porterà a una rivoluzione della produttività e confermerà ulteriormente i “Server come il nuovo Storage”. (Uno studio dettagliato sull'argomento è visibile sul report: http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/)

Superare le tecnologie Flash?

Ricordate quando le tecnologie Flash venivano considerate come una grande novità? Bene, ormai sono divenute realtà.
Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: sebbene le unità Flash siano oggi realtà quotidiana, le prestazioni di molte applicazioni Enterprise continuano a costituire un problema, specie quando si tratta di Database. Una strada percorribile con successo sta quindi proprio nella parallelizzazione delle operazioni di I/O. Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molte unità di elaborazione per gestire e rimuovere i colli di bottiglia e ridurre i ritardi generati dalle code, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da Flash/SSD.
La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’integrazione tra le unità Flash e le tecnologie di parallelizzazione delle operazioni di I/O consente di eseguire le applicazioni in modo molto più rapido, di completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.

Andare oltre l’iper-convergenza: l’iper-produttività obiettivo reale

Con l’avanzare del 2017, il software iper-convergente continuerà a incrementare la sua popolarità. Per cementare questo successo, però, gli utenti dovranno essere in grado di trarre pieno vantaggio dalle sue promesse di migliori prestazioni. L’incredibile potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.
Gli attuali sistemi iper-convergenti sono in sostanza costituiti da Server combinati in un’infrastruttura software-defined. In molti casi questi risultano estremamente limitati in termini di prestazioni e possibilità d’impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi (per esempio non supportando connessioni in Fibre Channel, spesso è indispensabili per la connettività aziendale e per i Database).
Le potenti tecnologie di Storage Software-defined in grado di eseguire l’I/O parallelo offrono in modo efficace un livello più elevato di flessibilità e sfruttano la potenza dei Server Multi-core così che per eseguire il lavoro è sufficiente disporre di un numero più basso di nodi. Il software può inoltre integrare le unità Flash con lo Storage su disco esistente, senza creare ambienti separati tra loro, facilitando la progressiva migrazione da una tecnologia all'altra e l'utilizzo dei dati memorizzati nella Cloud.
Questa combinazione di software potente e di server porterà a maggiori funzionalità, più automazione e a servizi completi per gestire e memorizzare produttivamente i dati nell’ambito dell’intera infrastruttura dati. Tutto ciò significherà una nuova epoca, i cui benefici potranno essere applicati universalmente.