lunedì 27 marzo 2017

Lenovo DX8200D Powered by DataCore, un’appliance per unificare lo storage

http://www.silicon.it/data-storage/storage/lenovo-dx8200d-unappliance-per-unificare-lo-storage-104512
DX8200D usa la piattaforma di DataCore per estendere funzioni di gestione a risorse anche eterogenee
Arriva da Lenovo una nuova appliance siglata DX8200D che è il frutto della combinazione tra l’hardware server System x3650 M5 di Lenovo stessa e il software di virtualizzazione SANsymphony di DataCore. Si tratta quindi di un’appliance per le applicazioni di software-defined storage (SDS), che punta a offrire costi di gestione più economici, oltre che più agilità e semplicità nella gestione stessa grazie all’approccio appliance.
Idealmente l’appliance DX8200D fa da punto di connessione e armonizzazione di infrastrutture storage anche eterogenee. Sfrutta le funzioni degli array già disponibili ma permette anche di ragionare in una logica “espansiva” in cui i modelli più datati sono man mano sostituiti con altri più nuovi in maniera trasparente, senza cambiare le modalità di gestione e senza impatti sulle funzioni abilitate dall’appliance stessa – tra cui replica, de-duplicazione, compressione e protezione dei dati – perché sono indipendenti da quelle degli array sottostanti.
Per ulteriori informazioni sul Dx8220D:

mercoledì 22 marzo 2017

Lenovo DX8200D Powered by DataCore semplifica l’adozione del Software-Defined Storage

Lenovo DX8200D è pensato per gli ambienti Software-Defined Storage “chiavi in mano” e sfrutta il software di virtualizzazione SANsymphony di DataCore Software.
Questa nuova offerta è il più recente traguardo di Lenovo nel promuovere l'adozione della tecnologia per il software-defined data center, che offre enormi vantaggi ai clienti come una maggiore agilità e semplicità, e una gestione più economica.

Lenovo prevede di offrire DX8200D come appliance pre-integrata, che promette di semplificare notevolmente l'implementazione e ridurre le spese di gestione, fornendo un unico punto di supporto. L'ultima offerta nel portafoglio SDS di Lenovo, permette ai data center di implementare rapidamente una soluzione “chiavi in mano” che sfrutta le capacità di array SAN esistenti. La nuova appliance è in grado di ottimizzare le infrastrutture di storage eterogenee, consentendo loro di scalare in base alle esigenze, per crescere e sostituire facilmente array di storage meno recenti. Tramite l'interfaccia centralizzata, il dispositivo DX8200D fornisce la protezione dei dati, replica, de-duplica, compressione e consente altre funzionalità storage enterprise a un prezzo molto più basso rispetto ai tradizionali array SAN.

Radhika Krishnan, Executive Director & General Manager of Software-Defined Data Center & Networking, Data Center Group Lenovo
In qualità di nuovo player ambizioso in questo settore, la nostra soluzione di SDS all'avanguardia consente alle aziende di implementare i sistemi in modo più rapido, per ridurre il tempo e le risorse necessarie a gestire l’infrastruttura di base. Questo a sua volta consente ai clienti di concentrarsi sulle sfide di business di oggi, in preparazione del futuro. Questo è in netto contrasto con le offerte di storage tradizionali, dai fornitori comuni, che spesso richiedono compromessi in termini di tempo e di prestazioni, disponibilità, affidabilità e funzionalità - limitando la possibilità di scalare e aumentando i costi di CAPEX, energia, raffreddamento e mantenimento.



Radhika Krishnan, Executive Director and GM of Software-Defined Data Center & Networking, Lenovo Data Center Group

Costruito su server System x3650 M5 di Lenovo, che offre affidabilità e prestazioni consolidate, DX8200D è progettata per fornire tempi di risposta, disponibilità e utilizzo ai massimi livelli. Lenovo testerà preventivamente la nuova appliance con DataCore per ridurre al minimo i rischi di implementazione e aumentare il time-to-value. Con Predictive Failure Analysis e un pannello di diagnostica di nuova generazione che facilita la manutenzione, il server x3650 M5 consente di ridurre i tempi di inattività e i costi. Lenovo Trusted Platform Assurance, che unisce funzionalità e pratiche di sicurezza in modo integrato, protegge l'hardware e il firmware.

Il Lenovo DX8200D prende i dispositivi di storage isolati, a volte dislocati in sedi diverse, e li unisce in un unico set di servizi a disposizione dell’azienda. In questo modo raggruppa le risorse per gestirle in modo centralizzato e uniforme nonostante le differenze e le incompatibilità fra i vari vendor, i diversi modelli e le generazioni degli storage.

Con questi dispositivi, i data center hanno total cost of ownership più basso, con un risparmio di tempo fino al 90% per compiti di gestione e di supporto dello storage, a una riduzione del 75% dei costi di storage e una riduzione fino al 100% nei tempi di indisponibilità delle risorse. Con un aumento di 10 volte in termini di prestazioni, i data center sono anche in grado di ottenere una maggiore disponibilità dei dati critici.

Infine, il Lenovo DX8200D è in grado di automatizzare centralmente il processo di discovery, l’inventario delle risorse storage, il monitoraggio in tempo reale, la configurazione, il rilevamento dei guasti e la gestione degli allarmi sul suo ciclo di vita con il software XClarity di Lenovo, tra i migliori strumenti di gestione enterprise.



DataCore: George Teixeira, President & CEO, DataCore
La potenza e l’affidabilità dei server Lenovo in combinazione con la tecnologia software Datacore parallel I/O ripristina i livelli di prestazioni, efficienza dei costi e gestione nel complesso panorama di infrastrutture storage di classe enterprise. Il Lenovo DX8200D, powered by DataCore, rende più semplice non solo iniziare con il software defined storage, ma anche crescere e programmare gli investimenti nel futuro. Questa appliance chiavi in mano può essere adottata in modo rapido e senza interruzioni in qualsiasi ambiente, garantendo risparmi immediati e benefici nelle prestazioni. 

lunedì 20 marzo 2017

Lenovo e DataCore in tandem per lo storage definito dal software

http://www.ictbusiness.it/cont/news/lenovo-e-datacore-in-tandem-per-lo-storage-definito-dal-software/38982/1.html#.WM3jXDvyt3h
Le fondamenta hardware di questa proposta stanno nel server System x3650 M5 dell'azienda cinese, un modello storico e basato su processori Intel Xeon. Con questo sistema, promette Lenovo, si possono ridurre notevolmente i costi di storage, sia in merito all'acquisto di hardware sia al tempo perso nella gestione dei dati e delle risorse: non importa dove risiedano i dati e non importa quali risorse siano in possesso all'azienda, perché l'appliance le aggrega in un unico pool, gestibile da una sola interfaccia centralizzata. Nessun problema, dunque, per chi abbia in azienda array San di produttori diversi, e non importa che si tratti di modelli più o meno datati. Si potranno così ottimizzare le infrastrutture di storage eterogenee, consentendo loro di scalare in base alle esigenze, per crescere e sostituire facilmente gli array meno recenti.
In sostanza, il server con sistema operativo SanSymphony centralizza e rende automatici il processo di discovery, l’inventario delle risorse storage, il monitoraggio in tempo reale, la configurazione, il rilevamento dei guasti e la gestione degli allarmi. Le prestazioni dello storage in senso stretto, invece, vengono potenziate dalla tecnologia di calcolo I/O parallelo, caratteristica di DataCore.
Lenovo testerà preventivamente la nuova appliance con DataCore per ridurre al minimo i rischi di implementazione. Le promesse fatte non sono da poco: si potrà risparmiare, a detta del vendor, fino al 90% del tempo altrimenti speso in compiti di gestione e di supporto, fino al 75% dei costi di storage e fino al 100% dei tempi di indisponibilità delle risorse (grazie alla tecnologia Predictive Failure Analysis e a un nuovo pannello di diagnostica che facilita la manutenzione). A detta diGeorge Teixeira, presidente & Ceo di DataCore, questa soluzione “rende più semplice non solo iniziare con il  software-defined storage, ma anche crescere e programmare gli investimenti nel futuro. Questa appliance chiavi in mano può essere adottata in modo rapido e senza interruzioni in qualsiasi ambiente, garantendo risparmi immediati e benefici nelle prestazioni”.

mercoledì 22 febbraio 2017

DataCore, le potenzialità del Software-Defined Data Center

DataCore pone l’accento sulle potenzialità del Software-Defined Data Center e su come sia possibile sfruttare completamente il potenziale di questa tecnologia.

Nel Software-Defined Data Center (SDDC) tutti gli elementi dell’infrastruttura - come rete, capacità di calcolo, server e storage - sono virtualizzati ed erogati come servizio. La virtualizzazione a livello di server e storage è un componente critico del viaggio verso l’SDDC, dato che porta a una maggiore produttività attraverso l’automazione software e l’agilità, proteggendo gli utenti dalla sottostante complessità dell’hardware.
Oggi sono le applicazioni a guidare l’impresa, e queste applicazioni sono esigenti, specialmente negli ambienti virtualizzati, richiedendo allo storage prestazioni elevate per tenere il passo con l’acquisizione dei dati e con l’imprevedibile domanda dei carichi di lavoro aziendali. Il problema è che in un mondo che richiede tempi di risposta quasi istantanei e accesso sempre più veloce ai dati aziendali critici, le necessità di applicazioni aziendali di primo livello come database SQL, Oracle e SAP sono rimaste ampiamente senza risposta. Nella maggior parte dei data center, la causa numero uno di questi ritardi è l’infrastruttura di storage dei dati.

Perché? Il principale collo di bottiglia sono state le prestazioni dell’I/O. Leggete lanostra intervista a George Teixeira relativamente ai vantaggi delSoftware-Defined Storage.

Nonostante il fatto che quasi tutti i server standard mettano già a disposizione in modo conveniente un’ampia gamma di funzionalità multiprocessore, la maggior parte di loro non è sfruttata, trovandosi spesso in modalità inattiva. Questo accade perché gli attuali sistemi si basano ancora su ottimizzazioni a livello di dispositivo legate a specifiche tecnologie a disco e flash che non dispongono di un’intelligenza software capace di sfruttare pienamente i più potenti sistemi server con architetture multi-core.

La rivoluzione dei server virtuali è diventata la “killer app” che ha portato al pieno utilizzo delle CPU e a un certo livello di funzionalità multi-core, ma il lato negativo è che la virtualizzazione e il passaggio a un maggiore consolidamento dei server ha creato un effetto frullatore in cui sempre più carichi di lavoro I/O degli applicativi si sono concentrati fino al punto di dover essere eseguiti in modo pianificato dallo stesso sistema. Tutte quelle VM e le loro applicazioni si sono quindi infilate in un collo di bottiglia costituito da una “cannuccia di I/O” serializzata. Mentre processori e memorie hanno visto incrementi sostanziali nella loro velocità, questo imbuto dell’I/O continua a limitare le prestazioni, specialmente quando si parla di applicazioni aziendali critiche che gestiscono carichi di lavoro costituiti da database e transazioni online.

Molti hanno provato ad affrontare il problema prestazionale a livello di dispositivo aggiungendo storage a stato solido (flash) per rispondere alla crescente richiesta delle applicazioni aziendali o collegando fisicamente questi dispositivi veloci alle macchine virtuali (VM) in sistemi iper-convergenti. Tuttavia, il miglioramento delle prestazioni dei supporti di storage - dove si rimpiazzano i tradizionali dischi rotanti con flash che cercano di fare le stesse cose - affronta solamente un aspetto dello stack I/O. Collegare direttamente la flash alle VM sembra anche in contraddizione con il concetto di virtualizzazione, in cui la tecnologia viene elevata a un livello software-defined al di sopra dei collegamenti cablati e al livello di consapevolezza fisica, aggiungendo complessità e “vendor lock-in” specifici tra i livelli dell’hypervisor e dei dispositivi.

I processori multi-core sono all’altezza della sfida. L’elemento primario che si è perso è il software che può trarre vantaggio dall’infrastruttura di elaborazione multi-core/parallela. La tecnologia Parallel I/O consente di realizzare l’elaborazione dell’I/O in modo separato dalla capacità di calcolo e in parallelo, migliorando le prestazioni di I/O sfruttando la capacità della virtualizzazione di disaccoppiare i miglioramenti del software dalle innovazioni hardware. Questo metodo utilizza il software per suddividere l’I/O parallelo tra tutti i core della CPU.

La tecnologia Parallel I/O può pianificare in modo efficace l’I/O dei carichi di lavoro della virtualizzazione e delle applicazioni utilizzando le piattaforme server multi-core già disponibili. Sfruttando la potenza dei multi-core è possibile superare il collo di bottiglia dell’I/O incrementando notevolmente la produttività, aumentando il consolidamento dei carichi di lavoro e riducendo l’inefficiente proliferare dei server. Questo permetterà di ottenere risparmi molto più consistenti sui costi aumentando la produttività e portando il consolidamento a un nuovo livello, in modo che i sistemi possano fare molto di più con meno risorse.

Parallel I/O è essenzialmente come una superstrada a più corsie con un sistema di “sorpasso facilitato”. Evita il collo di bottiglia e i tempi di attesa creati dalla presenza di un singolo casello e apre gli altri core (tutte le “corsie” in questa analogia) per distribuire l’I/O in modo che i dati possano continuare a fluire avanti e indietro tra l’applicazione e il supporto di storage alla massima velocità.
L’effetto è che più dati fluiscono attraverso la medesima infrastruttura hardware nella stessa quantità di tempo, come avviene nei sistemi di storage proprietari. La tradizionale infrastruttura a tre livelli costituita da server, rete e sistema di calcolo trae quindi beneficio dall’avere sistemi di storage che rispondono direttamente ed evadono le richieste di I/O più velocemente, potendo quindi supportare un numero significativamente maggiore di applicazioni e carichi di lavoro sulla stessa piattaforma. L’efficienza di un’architettura parallela a bassa latenza è potenzialmente più critica nelle architetture iper-convergenti, che sono un’infrastruttura in cui “tutto è condiviso”. Se lo storage software è più efficiente nell’uso delle risorse di calcolo, questo significa che restituirà agli altri processi che girano sulla stessa piattaforma una maggiore quantità di potenza di calcolo disponibile.


Traendo il massimo vantaggio dalla potenza di calcolo offerta dai server multi-core, la tecnologia di I/O parallelo agisce come elemento abilitante di un vero software-defined data center. Questo si deve al fatto che evita qualsiasi collegamento fisico speciale che impedirebbe il raggiungimento dei benefici della virtualizzazione, mentre sblocca la sottostante potenza hardware per ottenere una notevole accelerazione delle prestazioni di I/O e storage. Risolvendo così il problema del collo di bottiglia dell’I/O e rendendo possibile la realizzazione dei software-defined data center.

lunedì 20 febbraio 2017

Tom's Hardware: Più produttività e meno costi con l'elaborazione parallela

Nel 2017 il software di elaborazione parallela rivoluzionerà la produttività cambiando le regole del gioco. George Teixeira di DataCore spiega perchè


La virtualizzazione ha spostato in alto l'asticella della produttività ed ha permesso allo stesso tempo di sfruttare meglio le risorse e di ridurre il Capex dei sistemi informativi.

Esiste però ancora una grande potenza di calcolo non adeguatamente sfruttata. Il problema è però vedere quali spazi tecnologici ci sono per farlo. La soluzione, evidenzia George Teixeira, President e CEO di DataCore Software, una sorta di uovo di colombo tecnologico, consiste nel ricorrere all'elaborazione parallela.
Secondo il manager, che in pochi anni ha portato DataCore ad affermarsi a livello mondiale nel settore della virtualizzazione dello storage,  il 2017 sarà quello in cui il software di elaborazione parallela permetterà di liberare l'immensa potenza di calcolo dei moderni sistemi multi-core, con un impatto fortemente positivo sia sugli aspetti economici che e sulla produttività dei sistemi IT.

Perché ciò possa avvenire il software deve però diventare semplice da usare e non interferire con le applicazioni, e aprirsi ad un uso più generalizzato.


Il catalizzatore dell'evoluzione saranno le nuove tecnologie software per l'I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare del tutto o quasi la potenza dei sistemi multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia sino ad ora costituito dalla velocità dell'I/O.

L'effetto combinato di tempi di risposta più veloci e dell'impatto sulla produttività attraverso l'elaborazione parallela aprirà la strada agli analytics in "tempo reale" e porterà le prestazioni di big data e database a un nuovo livello.

"La nostra esperienza nell'elaborazione parallela, nell'I/O in tempo reale e nel software-defined storage ci ha messo in grado come nessun altro di trarre vantaggio dalle prossime grandi sfide, in un mondo che richiede a una gran quantità di interazioni e transazioni di essere trattate con un passo più veloce e con tempi di risposta ancora più rapidi", ha osservato Teixeira.

Le implicazioni sulla produttività e sulla capacità di prendere decisioni in base alle informazioni estratte dai dati in aree come la finanza, il banking, il retail, l'identificazione delle frodi, la sanità e la genomica, così come nelle applicazioni che riguardano il machine learning e l'Internet of Things, saranno profonde.

Dal parallel I/O all'iperconvergenza
Con l'avanzare del 2017, anche il software iper-convergente continuerà a incrementare la sua popolarità. Per farlo però, gli utilizzatori dovranno essere in grado di trarre pieno vantaggio dalla  promessa di una maggiore produttività. Di certo, osserva DataCore, la  potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.

DataCore PrevisioniPIC Nel 2017 crescerà il calcolo parallelo e l'iperconvergenza
Gli attuali sistemi iper-convergenti sono in sostanza un server più un'infrastruttura software-defined, ma in molti casi sono molto limitati in termini di prestazioni e possibilità d'impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi, ad esempio perché non supportano connessioni fibre channel.

Le tecnologie di storage software-defined in grado di eseguire l'I/O parallelo permettono invece di ottenere un livello più elevato di flessibilità e sfruttare la potenza dei server multi-core in modo che per eseguire il lavoro è sufficiente un numero più ridotto di nodi, rendendoli più convenienti.

Il software può inoltre integrare lo storage su flash e su disco esistente senza dover creare silo aggiuntivi, migrare e gestire dati attraverso l'intera infrastruttura storage, e utilizzare efficacemente i dati memorizzati nel cloud.

"Le intere infrastrutture dati, compresi i sistemi iper-convergenti, possono beneficiare di queste migliorie attraverso le tecnologie software avanzate di I/O parallelo, che può aumentare sostanzialmente la produttività liberando la potenza che risiede nei server multi-core standard. Anche se iper-convergenza è la parola magica di oggi, il vero obiettivo è quello di ottenere la maggior produttività possibile a un costo più basso, e che quindi la chiave è quella di utilizzare meglio storage e server esistenti per gestire le applicazioni", osserva Teixeira. 

venerdì 17 febbraio 2017

Gli all-flash array NeoSapphire di AccelStor sono ora certificati DataCore Ready

Memorie flash veloci per le infrastrutture più rapide: gli all-flash array prodotti da AccelStor sono ora compatibili con il software di DataCore

AccelStor, fornitore di all-flash array definiti da software, annuncia che NeoSapphire 3605 e NeoSapphire 3611 hanno ottenuto la certificazione DataCore Ready. I risultati ottenuti da questi all-flash array Fibre Channel con la piattaforma di storage definita da software SANsymphony™ di DataCore sono stati eccellenti. Grazie a questa nuova collaborazione, gli utenti dispongono ora di migliori opzioni per la virtualizzazione dello storage.
Questa Smart News Release (Comunicato Notizie Intelligenti) è corredata da contenuti multimediali. Vedi la versione integrale qui:http://www.businesswire.com/news/home/20170117005209/it/
AccelStor Fibre Channel array: NeoSapphire 3611 (Photo: Business Wire)
AccelStor Fibre Channel array: NeoSapphire 3611 (Photo: Business Wire)
NeoSapphire 3605 e NeoSapphire 3611 hanno offerto performance eccellenti e si sono affermate come soluzioni di storage preferenziali nell'ambiente DataCore. Nel test effettuato da DataCore con SANsymphony, basato sulla tecnologia Parallel-I/O DataCore™ proprietaria dell'azienda, questi all-flash array hanno dato risultati estremamente positivi anche in condizioni critiche, con tempi di risposta I/O inferiori a 1ms pur continuando a offrire performance elevate in termini di IOPS (Input/Output Operations Per Second).
Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.

venerdì 10 febbraio 2017

V-Valley distribuisce le soluzioni DataCore

DataCore Software può contare su un partner solido ed affidabile e grazie a un team di presales dedicati, con competenze tecniche specifiche, e la possibilità di creare sinergie con gli altri brand a portafoglio, potrà crescere ulteriormente nel mercato italiano.

DataCore Software - fornitore di soluzioni SAN virtuali iper-convergentiSoftware-Defined Storage e Software adattativo per il Parallel I/O ha iglato un accordo di distribuzione con V-Valley, distributore a valore aggiunto del Gruppo Esprinet.

Scegliendo V-Valley, DataCore Software può contare su un partner solido ed affidabile e grazie a un team di presales dedicati con competenze tecniche specifiche e la possibilità di creare sinergie con gli altri brand a portafoglio, V-Valley supporterà DataCore nella crescita nel mercato italiano.

“Siamo lieti di aver siglato questo contratto di distribuzione con V-Valley", evidenzia Rèmi Bargoing, Country Manager Italia di DataCore. "Siamo convinti che la sinergia che si crea tra le loro competenze tecniche e le tante partnership hardware che intrattengono non potrà che sfruttare al meglio le potenzialità di San Symphony V e Hyperconverged Virtual San sul mercato Italiano".

Per Luca Casini, Direttore Commerciale di V-Valley, questo accordo consente a V-Valley di completare la propria offerta con una soluzione software di iperconvergenza al top di gamma. “Per V-Valley questo rappresenta un’ulteriore opportunità per creare valore aggiunto per i propri clienti rivenditori”, concude Casini.

mercoledì 1 febbraio 2017

Storage Server Software-Defined ed elaborazione parallela in cima alle priorità 2017 per moltiplicare la produttività dei Data Center


http://itware.com/blog-itware/cloud-computing/item/1310-storage-server-software-defined-ed-elaborazione-parallela-in-cima-alle-priorita-2017-per-moltiplicare-la-produttivita-dei-data-center

Nel 2017 il Software di elaborazione parallela cambierà le regole del gioco non solo nella gestione dello Storage...

George Teixeira, President e CEO, DataCore Software
George TeixeiraNonostante gli incredibili avanzamenti tecnologici registrati negli ultimi anni, ancora oggi nella gran parte dei Data Center delle imprese c'è una grande quantità di potenza di elaborazione che non viene adeguatamente sfruttata. Nel corso del 2017, a cambiare questa situazione contribuirà l'affermarsi di soluzioni software basate sull'elaborazione parallela capaci di sfruttare al meglio l’immensa potenza elaborativa offerta dai moderni sistemi Multi-core.
La chiave di svolta sta nel progressivo incremento di semplicità d'uso del software e nella sua capacità di non interferire con l'esercizio delle applicazioni funzionali. Un'evoluzione in grado di generare impatti enormi sull'esercizio dei sistemi in quqnto le prestazioni applicative, i carichi di lavoro Enterprise e un maggiore consolidamento della densità delle piattaforme virtuali e del Cloud Computing - finora soffocati dal crescente gap tra capacità di calcolo e I/O - non saranno più limitati.
Tutto ciò sarà realizzabile con le nuove tecnologie software per l’I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare completamente la potenza dei multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia dell’I/O che ha frenato l’intero settore: saranno il catalizzatore del cambiamento.
Il software di elaborazione parallela è pronto per andare oltre l’ambito degli impieghi specializzati come l’HPC e di aree come la genomica, che si focalizzano prima di tutto sulla capacità di calcolo, ed estendersi al più ampio mondo applicativo che richiede interazioni e risposte in tempo reale. Ciò comprende applicazioni e Storage molto diffusi che stanno alla base di transazioni aziendali, Cloud Computing, Database e Data Analytics, così come dei mondi interattivi del Machine Learning e dell’Internet of Things (IoT).
Oggi, molte nuove applicazioni come gli Analytics non sono alla portata di qualsiasi azienda in quanto per completare il loro lavoro richiedono centinaia, se non migliaia, di Server. Eppure, ogni singolo Server è in grado di supportare centinaia di core di calcolo Multi-threading per gestire i carichi di lavoro che fino a oggi sono stati messi in attesa di essere completati. Stiamo inaugurando un’epoca in cui un Server farà il lavoro di 10 - o addirittura 100 - Server del passato. Questo è il risultato del software di elaborazione parallela, che sblocca la potenza inutilizzata dei Multi-core per apportare una vera rivoluzione in fatto di produttività dell'IT e a un nuovo mondo applicativo che nel 2017 diventerà molto popolare.

L’impatto degli Analytics in tempo reale

La parallelizzazione potrà portare ad utilizzare gli Analytics in “tempo reale”, offrendone nuove prospettive d'impiego e risultati dalle prestazioni strabilianti. Questa è la previsione di  DataCore per il 2017 appena iniziato. Le esperienze che abbiamo maturato nell’elaborazione parallela, nell’I/O in tempo reale e nel Software-defined Storage ci mettono in grado di cavalcare con successo questo importante cambiamento, dando risposte concrete ad un mondo nel quale la quantità di interazioni e transazioni sono in continua crescita, richiedendo tempi di risposta sempre più rapidi.
Un'area nella quale DataCore sta facendo consistenti investimenti puntando ad assicurare ai propri clienti il cambio di passo necessario a rendere pratico e conveniente l'uso degli Analytics per svolgere analisi e dare risposte anche in tempo reale in contesti quali la finanza, il banking, il retail, l’identificazione delle frodi, la sanità e la genomica.

L’impatto di Microsoft attraverso lo Stack Azure, il cloud ibrido, Windows e SQL Server 2016

Il successo e la crescita di Azure Cloud sono evidenti, sebbene l’impatto reale risulterà in tutta la sua portata mano a mano che si materializzano le strategie di Microsoft per riconciliare il mondo On-premise con quello del Cloud Computing.
Microsoft è stata uno dei primi fornitori Cloud a riconoscere che il mondo non è composto solo da Cloud pubbliche, ma che continuerà a essere un insieme integrato tra soluzioni e componenti On-premise e cloud. Lo Stack Azure di Microsoft così continua a progredire inesorabilmente, offrendo i benefici delle piattaforme di elaborazione in Cloud, indipendentemente dal fatto che si tratti di Cloud pubbliche vere e proprie o di Cloud private. Oggi, questo può esser considetato come l'emblema del Cloud Computing ibrido.
Mentre Windows e Azure attirano la maggior parte delle attenzioni da parte di tutti gli addetti ai lavori, uno dei cambiamenti più sostanziali apportati da Microsoft alle proprie soluzioni di infrastruttura è riconducibile alla trasformazione della sua offerta Database, oggi divenuta la base di una vera piattaforma per la gestione di Big Data e Analytics.
È pertanto giunto il momento di dare nuovamente un’occhiata a SQL Server 2016, molto più potente di tutte le versioni che lo hanno preceduto, capace di gestire tutte le tipologie di dati. Progettato sin dall'inizio per operare nell’ampio ecosistema costituito dai partner presenti nel marketplace di Microsoft, compresa DataCore, questa innovativa piattaforma è particolarmente indicata per gestire l’elaborazione parallela. Si tratta così di ridefinire ciò che è possibile - e conveniente - fare nei tipici casi d’impiego delle tradizionali applicazioni aziendali per l’impresa.

Lo Storage si è trasformato in un’infrastruttura basata su Server e componenti Software-defined!

L'altra evoluzione significativa scaturita dal mutare del contesto è che oggi ci troviamo nel mezzo di un‘inevitabile e crescente tendenza nella quale sono i Server a definire che cos’è lo Storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i Server Multi-core pre-configurati e arrivare a sistemi di Storage caratterizzati da altissime prestazioni, bassa latenza e vantaggiosi rapporti prezzo-prestazioni. Questo perché è facilmente dimostrabile che i tradizionali sistemi di Storage non sono più in grado di tenere il passo di quelli di nuova generazione, per cui sono entrati in un'inesorabile fase di declino. Di fatto, vengono sempre più sostituiti con Server economici e soluzioni infrastrutturali Software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare.
Lo Storage e i relativi servizi dati sono ora gestiti dal Software. In tal modo, la gestione dello Storage sta diventando semplicemente un altro “carico di lavoro applicativo” che gira su Server standard e a basso costo. Un'ondata di sistemi di Storage flessibili basati su Server generici che sta facendo registrare impatti devastanti in tutto il settore. Commercializzati come sistemi SAN Server, SAN virtuali, Web-scale, Scale-out o iper-convergenti, sono un insieme di Server standard pre-configurati, combinati con schede Flash e unità disco. È però il software che definisce veramente il loro valore.

Lo Storage funzione a carico dei Server

Il software di elaborazione parallela e la capacità di sfruttare le tecnologie Multi-core dei Server costituiscono l'elemento principale capace di modificare le regole del gioco.  Unito all’infrastruttura Software-defined, porterà a una rivoluzione della produttività e confermerà ulteriormente i “Server come il nuovo Storage”. (Uno studio dettagliato sull'argomento è visibile sul report: http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/)

Superare le tecnologie Flash?

Ricordate quando le tecnologie Flash venivano considerate come una grande novità? Bene, ormai sono divenute realtà.
Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: sebbene le unità Flash siano oggi realtà quotidiana, le prestazioni di molte applicazioni Enterprise continuano a costituire un problema, specie quando si tratta di Database. Una strada percorribile con successo sta quindi proprio nella parallelizzazione delle operazioni di I/O. Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molte unità di elaborazione per gestire e rimuovere i colli di bottiglia e ridurre i ritardi generati dalle code, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da Flash/SSD.
La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’integrazione tra le unità Flash e le tecnologie di parallelizzazione delle operazioni di I/O consente di eseguire le applicazioni in modo molto più rapido, di completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.

Andare oltre l’iper-convergenza: l’iper-produttività obiettivo reale

Con l’avanzare del 2017, il software iper-convergente continuerà a incrementare la sua popolarità. Per cementare questo successo, però, gli utenti dovranno essere in grado di trarre pieno vantaggio dalle sue promesse di migliori prestazioni. L’incredibile potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.
Gli attuali sistemi iper-convergenti sono in sostanza costituiti da Server combinati in un’infrastruttura software-defined. In molti casi questi risultano estremamente limitati in termini di prestazioni e possibilità d’impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi (per esempio non supportando connessioni in Fibre Channel, spesso è indispensabili per la connettività aziendale e per i Database).
Le potenti tecnologie di Storage Software-defined in grado di eseguire l’I/O parallelo offrono in modo efficace un livello più elevato di flessibilità e sfruttano la potenza dei Server Multi-core così che per eseguire il lavoro è sufficiente disporre di un numero più basso di nodi. Il software può inoltre integrare le unità Flash con lo Storage su disco esistente, senza creare ambienti separati tra loro, facilitando la progressiva migrazione da una tecnologia all'altra e l'utilizzo dei dati memorizzati nella Cloud.
Questa combinazione di software potente e di server porterà a maggiori funzionalità, più automazione e a servizi completi per gestire e memorizzare produttivamente i dati nell’ambito dell’intera infrastruttura dati. Tutto ciò significherà una nuova epoca, i cui benefici potranno essere applicati universalmente.

martedì 31 gennaio 2017

DataCore, Carrie Reber è la Vice President of Worldwide Marketing

DataCore Software, fornitore leader di SAN virtuali iper-convergentiSoftware-Defined Storage e software per l’elaborazione parallela dell’I/O, ha annunciato la nomina di Carrie Reber a Vice President of Worldwide Marketing.

Reber sarà responsabile delle attività di vendita e canale.Ben conosciuta come professionista di marketing e comunicazione nel settore della tecnologia, ha una vasta esperienza nella realizzazione e nella guida di strutture di marketing, nello sviluppo e nella gestione di piani strategici di posizionamento e comunicazione, nonché nel lancio di aziende software B2B innovative.

Con oltre 20 anni di esperienza nel settore tecnologico, Reber è stata recentemente vicepresidente di Datto con la responsabilità del marketing internazionale. In precedenza ha svolto funzioni dirigenziali in Infinio e ha realizzato la struttura di marketing gestendo le iniziative di go-to-market a supporto della rapida crescita di Veaam, partita come startup e arrivata a 100 milioni di dollari di fatturato.

Precedentemente, Reber è stata Director of Product Public Relations and Analyst Relations di Quest Software e ha lavorato in strutture di marketing di diverse aziende, tra cui Aelita Software, Legent Corp. e CompuServe.

Con la tecnologia Parallel I/O di DataCore che continua a ottenere risultati record nelle prestazioni e nel rapporto prezzo/prestazioni con le soluzioni Hyper-converged Virtual SAN e SANsymphony Software-Defined Storage, l’azienda ha registrato una crescita a doppia cifra in regioni chiave come le Americhe, l’EMEA e l’APAC.

Una delle principali responsabilità di Reber sarà quella di continuare a rafforzare la riconoscibilità del marchio DataCore a livello mondiale, evidenziando al contempo i vantaggi e la value proposition di Parallel I/O, che libera la potenza e la produttività dell’elaborazione parallela per portare a prestazioni e tempi di risposta da record nello storage di applicazioni per database, analytics ed elaborazione transazionale in tempo reale.

Sono lieto che una persona con il calibro e l’esperienza di Carrie si unisca al nostro team,” ha detto George Teixeira, President e CEO di DataCore. “Come azienda con oltre 10.000 implementazioni di successo, abbiamo la necessità di far conoscere i risultati che abbiamo ottenuto e raggiungere nuovi clienti per far crescere ancora il nostro core business. Strategicamente, dobbiamo trarre il massimo profitto dalla nostra innovativa tecnologia di elaborazione parallela e sfruttare le nuove opportunità che si presenteranno nel 2017. Il forte lavoro e la gestione di Carrie saranno determinanti per aiutare DataCore a rendere queste iniziative un successo".

martedì 10 gennaio 2017

Infrastrutture parallele, trend nel 2017

http://www.01net.it/infrastrutture-parallele/
L’esigenza di avere analisi dei dati e database più veloci sta portando a creare infrastrutture parallele per ottimizzare le prestazioni e soddisfare la richiesta di risposte in tempo reale. Si tratta di un aspetto fondamentale per l’interazione con l’Internet of Things
Tuttavia, le attuali tecnologie capaci di accelerare le prestazioni e ridurre la latenza aggiungono anche significative problematiche alle applicazioni esistenti, dando maggiore complessità e conferendo costi più elevati.
Anche se cavalcando la Legge di Moore i computer sono diventati sempre più veloci, sinora non siamo stati capaci di metterli a lavorare in parallelo per cercare di risolvere i continui problemi di latenza e tempi di risposta. Ad affermarlo è il ceo di Datacore, George Texeira, con il quale facciamo un istruttivo excursus sulle evoluzioni tecnologiche degli ultimi anni per individuare il trend  più plausibile.

Questo è accaduto - spiega - perché la maggior parte dei processi di elaborazione avviene in modo seriale, sottoutilizzando le funzionalità multi-core intrinseche nelle moderne piattaforme server preconfigurate.
I prodotti sfornati dalle società tecnologiche dieci anni fa erano già pensati per trarre vantaggio dalla parallelizzazione, ma l’hardware disponibile a quell’epoca non disponeva delle funzionalità di elaborazione multi-core e nemmeno della larghezza di banda nella memoria per consentire ai database paralleli di decollare.
Invece, per moltiplicare le prestazioni il mondo si è spostato verso i cluster. Ma il problema principale (la latenza, causata in particolare dall’I/O) non è stato affrontato.
Sono allora arrivate tecnologie, come le unità flash a stato solido e i protocolli NVMe, che hanno aiutato, ma hanno anche portato a ulteriori spese senza sfruttare pienamente i vantaggi delle funzionalità multiprocessing.
La tecnologia in-memory è recentemente entrata in voga per le applicazioni database, ma anche se è importante per sfruttare la maggiore velocità della memoria, ancora una volta non ha affrontato il tema dell’elaborazione I/O e di tempi di risposta più rapidi.

Verso le infrastrutture parallele

Se la parallelizzazione potesse realizzarsi senza creare problemi a programmi e applicazioni esistenti, e se tutti i multi-core fossero all’opera a tempo pieno invece di rimanere in attesa delle richieste di I/O, il risultato sarebbe una rivoluzione per la produttività, fondendo analisi in tempo reale ed elaborazione delle transazioni.
Server standard x86, uniti a software specifici, possono oggi essere utilizzati per parallelizzare l’I/O ed eliminare i rallentamenti delle diverse applicazioni che si trovano di fronte il problema dei servizi di I/O.
Lavorando a livello sub-applicativo, le tecnologie di I/O parallelo non creano problemi ai normali carichi di lavoro aziendali.
La piena potenza dei processori multi-core e la larghezza di banda della memoria disponibili nei server x86 sono invece in grado di abbassare la latenza e ridurre i tempi di risposta, dato che i processori elaborano in parallelo le richieste di I/O permettendo a un maggior numero di carichi di lavoro di essere gestito più velocemente.
Questo tipo di tecnologia è arrivato sul mercato nel 2016. Secondo Teixeira, quando le aziende cominceranno a comprendere i benefici delle infrastrutture parallele senza la complessità e i costi di tecnologie che non sfruttano completamente la potenza dei sistemi multi-core, l’interesse crescerà.
E questa sarà una delle tendenze principali del 2017.

martedì 3 gennaio 2017

01Net. Come si realizza il datacenter software defined

Nel datacenter software defined tutti gli elementi dell’infrastruttura (rete, capacità di calcolo, server e storage) sono virtualizzati ed erogati come servizio
La virtualizzazione a livello di server e storage è un componente critico dellla trasfromazione verso il datacenter software defined, dato che porta a una maggiore produttività attraverso l’automazione software e l’agilità, proteggendo gli utenti dalla sottostante complessità dell’hardware.
Oggi sono le applicazioni a guidare l’impresa: sono esigenti, specialmente negli ambienti virtualizzati, richiedono allo storage prestazioni elevate per tenere il passo con l’acquisizione dei dati e con l’imprevedibile domanda dei carichi di lavoro aziendali.
Secondo il ceo di DatacoreGeorge Teixeira, il problema è che in un mondo che richiede tempi di risposta quasi istantanei e accesso sempre più veloce ai dati aziendali critici, le necessità di applicazioni aziendali di primo livello come database SQL, Oracle e SAP sono rimaste senza risposta convincente. Nella maggior parte dei datacenter la causa principale di questi ritardi è l’infrastruttura di storage dei dati.

I ritardi dello storage e la rivoluzione virtuale

Perché? Il principale collo di bottiglia sono state le prestazioni dell’I/O. Nonostante il fatto che quasi tutti i server standard mettano già a disposizione in modo conveniente un’ampia gamma di funzionalità multiprocessore, la maggior parte di loro non è sfruttata, trovandosi spesso in modalità inattiva.
Questo accade perché gli attuali sistemi si basano ancora su ottimizzazioni a livello di dispositivo legate a specifiche tecnologie a disco e flash che non dispongono di un’intelligenza software capace di sfruttare pienamente i più potenti sistemi server con architetture multi-core.
La rivoluzione dei server virtuali è diventata la “killer app” che ha portato al pieno utilizzo delle CPU e a un certo livello di funzionalità multi-core, ma il lato negativo è che la virtualizzazione e il passaggio a un maggiore consolidamento dei server ha creato un "effetto frullatore" in cui sempre più carichi di lavoro I/O degli applicativi si sono concentrati fino al punto di dover essere eseguiti in modo pianificato dallo stesso sistema.
Tutte quelle VM e le loro applicazioni si sono quindi infilate in un collo di bottiglia costituito da una “cannuccia di I/O” serializzata. Mentre processori e memorie hanno visto incrementi nella loro velocità, questo imbuto dell’I/O continua a limitare le prestazioni, specialmente quando si parla di applicazioni aziendali critiche che gestiscono carichi di lavoro costituiti da database e transazioni online.

Quando il flash non basta

Molti hanno provato ad affrontare il problema prestazionale a livello di dispositivo aggiungendo storage a stato solido (flash) per rispondere alla richiesta delle applicazioni aziendali o collegando fisicamente questi dispositivi veloci alle macchine virtuali (VM) in sistemi iper-convergenti.
Tuttavia, il miglioramento delle prestazioni dei supporti di storage, dove si rimpiazzano i tradizionali dischi rotanti con flash che cercano di fare le stesse cose, affronta solamente un aspetto dello stack I/O.
Collegare direttamente la flash alle VM sembra anche in contraddizione con il concetto di virtualizzazione, in cui la tecnologia viene elevata a un livello software defined al di sopra dei collegamenti cablati e al livello di consapevolezza fisica, aggiungendo complessità e cosiddetti "vendor lock-in” tra i livelli dell’hypervisor e dei dispositivi.

La risposta è nel multi-core

processori multi-core sono invece all’altezza della sfida. L’elemento primario che si è perso è il software, che qui può trarre vantaggio dall’infrastruttura di elaborazione multi-core/parallela.
La tecnologia Parallel I/O consente di realizzare l’elaborazione dell’I/O in modo separato dalla capacità di calcolo e in parallelo, migliorando le prestazioni di I/O sfruttando la capacità della virtualizzazione di disaccoppiare i miglioramenti del software dalle innovazioni hardware.
Questo metodo utilizza il software per suddividere l’I/O parallelo tra tutti i core della CPU. La tecnologia Parallel I/O può pianificare in modo efficace l’I/O dei carichi di lavoro della virtualizzazione e delle applicazioni utilizzando le piattaforme server multi-core già disponibili.
Sfruttando la potenza dei multi-core è possibile superare il collo di bottiglia dell’I/O incrementando notevolmente la produttività, aumentando il consolidamento dei carichi di lavoro e riducendo l’inefficiente proliferare dei server.
Questo permetterà di ottenere risparmi più consistenti sui costi aumentando la produttività e portando il consolidamento a un nuovo livello, in modo che i sistemi possano fare molto di più con meno risorse.

La superstrada parallela

Parallel I/O, esemplifica Teixeira, è essenzialmente come una superstrada a più corsie con un sistema di sorpasso facilitato.
Evita il collo di bottiglia e i tempi di attesa creati dalla presenza di un singolo casello e apre gli altri core (tutte le corsie in questa analogia) per distribuire l’I/O in modo che i dati possano continuare a fluire avanti e indietro tra l’applicazione e il supporto di storage alla massima velocità.
L’effetto è che più dati fluiscono attraverso la medesima infrastruttura hardware nella stessa quantità di tempo, come avviene nei sistemi di storage proprietari.
La tradizionale infrastruttura a tre livelli costituita da server, rete e sistema di calcolo trae quindi beneficio dall’avere sistemi di storage che rispondono direttamente ed evadono le richieste di I/O più velocemente, potendo quindi supportare un numero significativamente maggiore di applicazioni e carichi di lavoro sulla stessa piattaforma.
L’efficienza di un’architettura parallela a bassa latenza è potenzialmente più critica nelle architetture iper-convergenti, che sono un’infrastruttura in cui tutto è condiviso. Se lo storage software è più efficiente nell’uso delle risorse di calcolo, questo significa che restituirà agli altri processi che girano sulla stessa piattaforma una maggiore quantità di potenza di calcolo disponibile.
Traendo il massimo vantaggio dalla potenza di calcolo offerta dai server multi-core, la tecnologia di I/O parallelo agisce come elemento abilitante di un vero datacenter software defined.
Questo si deve al fatto che evita qualsiasi collegamento fisico speciale che impedirebbe il raggiungimento dei benefici della virtualizzazione, mentre sblocca la sottostante potenza hardware per ottenere una notevole accelerazione delle prestazioni di I/O e storage. Risolve così il problema del collo di bottiglia dell’I/O e rende possibile la realizzazione dei datacenter software defined.

martedì 13 dicembre 2016

Tra cloud e analytic, nella nuova partita dello storage, Datacore va a segno grazie all'indipendenza

https://readymag.com/u12452779/avnet-magazine-01/14/
L’architettura offerta da DataCore è adottata da oltre 10.000 clienti in tutto il mondo, e la propria tecnologia adattiva, grazie alle caratteristiche di autoapprendimento e autocorrezione, risolve le problematiche classiche dei processi manuali di gestione, ed è quindi indispensabile per tutte le interpretazioni dei moderni Software Defined Data Center, grazie alla propria architettura hardware independent.
Remi Bargoing, country manager Italia di Datacore

Limitarsi a ricondurre lo storage a una mera conservazione dei dati e relativa accessibilità, concentrandosi quindi su spazio e velocità di accesso, rischia di rivelarsi riduttivo nel contesto di una strategia aziendale. Le grandi quantità e varietà di dati che un'organizzazione è chiamata a gestire hanno anche altre importanti implicazioni. «Chi afferma che lo storage sta morendo in termini di business commette un grande errore - afferma Remi Bargoing, country manager Italia di Datacore -. Oltre all'aumento inarrestabile dei dati, bisogna tenere conto anche dei cambiamenti di scenario».

Uno in particolare si rivela strategico, a condizione di avere una visione abbastanza lungimirante. «È fondamentale raccordare i dati in ottica di business analytic, vale a dire trarre vantaggio dalle proprie informazioni - spiega Bargoing -. Nell'arco di pochi mesi può servire a poco, ma impostando il lavoro su anni si possono ottenere indicazioni importanti, utili a livello tecnico per l'infrastruttura IT, utili anche per il marketing e come supporto al management».

Una situazione nella quale di riflesso si trova inevitabilmente coinvolto anche il mercato dell'offerta. «Chi si adatta e mostra flessibilità, non accusa particolarmente la crisi - osserva Bargoing -. Quelli ancorati al tradizionale invece, hanno speso in grandi strutture, difficili da cambiare e quindi con maggiori rischi».

Datacore non esita a collocarsi tra i primi, forte dei risultati di decisioni prese in tempi non sospetti, all'apparenza di all'ora quasi azzardate. «Chi è riuscito a guardare lo storage oltre l'aspetto fisico oggi è in vantaggio. Nell'approccio alle infrastrutture software defined, possiamo contare su una forza speciale. Le nostre applicazioni non sono legate a nessuno, non l'abbiamo mai voluto fare. Magari fa perdere qualcosa in termini di notorietà, ma alla fine è una strategia che paga».


Trovando conferma anche in chi solo pochi anni fa chi puntava senza esitazioni su una migrazione al cloud puro e oggi si trova a dover fare i conti con uno scenario nettamente orientato all'ibrido, la strategia dell'azienda resta incentrata sulla massima flessibilità. «Credo sempre meno nelle soluzioni proprietarie. Ogni tassello deve adattarsi al contesto del cliente e questo è l'aspetto sul quale raccogliamo le maggiori soddisfazioni».

Datacore: il substrato Software Defined che gestisce l’iperconvergenza