giovedì 28 gennaio 2016

DataCore infrange il record mondiale prezzo/prestazioni per i sistemi storage e iper-convergenti

Il software di I/O paralleo DataCore infrange il record mondiale prezzo/prestazioni per i sistemi storage e iper-convergenti

DataCore ha annunciato che il suo software SANsymphony™ ha ottenuto il miglior valore di price-performance nel più prestigioso benchmark dell'industria di storage: il benchmark SPC-1 di Storage Performance Council, battendo array multimilionari e sistemi All.flash.
La soluzione basata su DataCore ha fatto registrare un rapporto prezzo/prestazioni 3 volte migliore rispetto al concorrente più prossimo, e il più veloce tempo di risposta (la più bassa latenza) mai misurati dal benchmark. 

Il sito della rivista Forbes ha pubblicato l'interessante articolo Rebirth of Parallel I/O a cura dell'analista/blogger John Webster che descrive quanto significativo sia il risultato ottenuto da DataCore. 

Questo exlpoit è appunto il frutto dei nuovi sviluppi nella tecnologia di I/O parallelo di DataCore – che consente di ottenere la piena potenza da "commodity server" multi-core come mai è successo in passato . 

Per avere tutti i dettagli a proposito del benchmark e dell'impegnativo carico di lavoro enterprise OLTP e database che esso simula, scaricate il DataCore SANsymphony-V 10.0 Full Disclosure Report

I partner possono richiedere tutte le informazioni di cui necessitano sulla soluzione DataCore contattando il team DataCore info@datacore.com o il team DataCore di ICOS all'indirizzo  datacore@icos.it o chiamando il numero in calce.

lunedì 25 gennaio 2016

Tom's Hardware: DataCore migliora prezzo/prestazioni nello storage

Storage enterprise e carichi di lavoro girano sulla stessa piattaforma a 8 centesimi di dollaro per SPC-1 IOPS e con tempi di risposta velocissimi

DataCore ha annunciato di avere fatto registrare un nuovo record mondiale nel rapporto prezzo/prestazioni utilizzando il benchmark per lo storage indipendente: l'SPC-1 dello Storage Performance Council.
Il risultato, ha evidenziato il suo CEO George Teixeira, è stato ottenuto grazie soprattutto alle elevate capacità del suo software per l'I/O parallelo, che sfrutta la potenza inutilizzata dei processori multi-core.
In pratica, il risultato ottenuto da DataCore nell'SPC-1 Price-Performance è di 0,08 dollari statunitensi per ogni SPC-1 IOPS, cosa che pone la società come leader dell'SPC-1 Price-Performance.
DataCore ha certificato i suoi risultati su un Lenovo System x3650 M5 multi-core con ingombro di 2U, dotato di processori Intel Xeon della serie E5-2600 v3 e di un mix di storage flash SSD e a disco. Sulla stessa piattaforma, ha dichiarato la società, DataCore ha registrato i tempi di risposta più veloci di sempre, anche rispetto alle molte batterie all-flash e ai sistemi multi-milionari di altri marchi di cui sono noti i risultati SPC-1.
I risultati nel rapporto prezzo/prestazioni sono stati ottenuti su una soluzione iper-convergente capace di soddisfare sia i requisiti dello storage di livello enterprise sia quelli legati agli impegnativi database e ai carichi di lavoro tipici delle applicazioni di elaborazione delle transazioni. Il tutto funzionante contemporaneamente sulla stessa piattaforma.
I sistemi iper-convergenti, ritene DataCore, devono dimostrare di saper gestire in modo economicamente conveniente tanto lo storage di livello enterprise quanto i carichi di lavoro applicativi.
Al contrario dei risultati SPC-1 calcolati solo sui sistemi di storage esterno, escludendo quindi i server utilizzati per generare il carico, il risultato di DataCore di 0,08 dollari per SPC-1 IOPS comprende il costo per la generazione del carico di lavoro, e quindi si riferisce al costo complessivo e ai requisiti globali per far funzionare l'applicazione aziendale.
Per il test, DataCore ha utilizzato un sistema iper-convergente pronto all'uso rivolto all'OLTP di livello enterprise e alle applicazioni database sensibili ai tempi di latenza. La soluzione ha fatto registrare 459.290,87 SPC-1 IOPS, con un costo totale per l'hardware, il software e tre anni di supporto pari a 38.400,29 dollari USA...

sabato 23 gennaio 2016

IDC White Paper: Virtualizzazione dello storage: perché il modello via software offre maggiori vantaggi

L'SDS è un modello di architettura emergente che attraverso un uso intelligente delle componenti applicative consente di ridurre i costi e di liberare risorse. Il tema interessa l'IT quanto il business, come viene spiegato in questo documento di IDC che fa il punto della situazione, descrivendo opportunità e criteri di adozione

Si chiama SDS e significa Software Defined Storage. La virtualizzazione dello storage sarà la nuova buzzword degli IT manager, perennemente cablati nella gestione di una crescente mole di dati da archiviare e da gestire a fronte di una riduzione dei budget.

L’SDS è un modello che, in estrema sintesi, trasforma una complessità in un servizio. Come? Intervenendo a livello dell'hardware su cui risiedono i dati per eliminare i blocchi e la rigidità legata a un’impostazione proprietaria, presentando il tutto alle applicazioni come un unico pool di storage.

 In questo white paper, realizzato da IDC e sponsorizzato da DataCore, sono spiegati numeri e strategie sottese a questa virtualizzazione dei sistemi di archiviazione, aiutando a capire le caratteristiche fondamentali di una soluzione SDS che sono:
  • Non deve richiedere alcun componente hardware proprietario
  • Deve poter funzionare su più istanze hardware (virtuali e fisiche)
  • Deve essere un sistema a sé stante o comunque autonomo
  • Deve prevedere un'allocazione automatica dei dati in base a una serie di preimpostazioni
  • Deve essere semplice da installare e ridimensionare
L’SDS permetterà alle organizzazioni di trarre vantaggio da una grande varietà di opzioni di storage, dal livello elaborativo alla flash, fino ai dischi tradizionali, così come da numerose interfacce diverse - come blocchi, file, oggetti - e dallo storage basato su cloud. Una scelta che va incontro a quell'IT as a service di cui si parla da tempo come risposta ideale alla scalabilità e flessibilità richiesta dagli utenti in particolare e dal business in generale. 

Per accedere al White Paper gratuito compilate i campi del form seguente:  http://www.corrierecomunicazioni.it/white-paper-detail/MzI1NA==

martedì 19 gennaio 2016

Le previsioni di DataCore Software per il 2016 - 2/2

Nel 2016 l’elaborazione parallela rivoluzionerà le infrastrutture IT, la virtualizzazione e la produttività aziendale - 2/2

I server saranno il nuovo storage

Solamente un layer di Software-Defined Storage abbinato a software per l’I/O parallelo può gestire in modo efficiente la potenza dei server multicore, migrare e gestire i dati attraverso l’intera infrastruttura di storage, integrare flash e sistemi iper-convergenti senza aggiungere ulteriori silo e utilizzare in modo efficiente i dati memorizzati in qualunque parte dell’azienda o della cloud. Liberando la potenza dei server multicore standard, grazie alle tecnologie di I/O parallelo, le infrastrutture dati potranno raggiungere incredibili livelli di consolidamento e produttività.

Con la realizzazione di questa convergenza di software e server, questi ultimi diventeranno sempre più il modello dominante per lo storage: “i server saranno il nuovo storage”. Perché utilizzare strumenti specializzati quando il software intelligente e gli attuali server possono offrire più funzionalità, maggiore automazione e offrire servizi completi per gestire e memorizzare produttivamente i dati attraverso l’intera infrastruttura dati? Perché con i sistemi specializzati i tradizionali produttori di storage non sono più in grado più stare al passo con la Legge di Moore e con l’innovazione e il risparmio offerti dalle piattaforme dei server generici. Questi nuovi sistemi di storage basati sui server stanno trasformando il nostro settore (e continueranno a farlo), aumentando la produttività dell’IT.
L’I/O parallelo e il Software-Defined Storage rivoluzioneranno infrastrutture IT e produttività

Ma la cosa più interessante è che questa rivoluzione è già cominciata. Recentemente DataCore ha fatto registrare il nuovo record mondiale di prezzo-prestazioni e lo ha fatto su una piattaforma iper-convergente (con il benchmark indipendente SPC1 dello Storage Performance Councils). DataCore ha fatto registrare anche i migliori risultati di sempre in termini di spazio occupato e tempi di risposta. In pratica, gli attuali server multicore e software possono “fare di più con meno risorse” e cambiare drasticamente gli aspetti economici e la produttività. Scoprite voi stessi i risultati degli ultimi benchmark: Top 10 SPC1 Price-Performance Results; e ottenete maggiori informazioni leggendo il nuovo e-book di DataCore: How to Unlock the Full Power of Your Servers with DataCore’s Adaptive Parallel I/O Software.

Insieme al Software-Defined Storage, il software per l’I/O parallelo porterà a una nuova rivoluzione nella produttività e nel 2016 trasformerà completamente l’IT.

lunedì 18 gennaio 2016

Le previsioni di DataCore Software per il 2016 - 1/2



Nel 2016 l’elaborazione parallela rivoluzionerà le infrastrutture IT, la virtualizzazione e la produttività aziendale - 1/2



L’elaborazione parallela cambierà “le regole del gioco”

Le più grandi innovazioni del futuro sono spesso realizzate basandosi su quelle del passato. Guardando agli Anni ’70, alla nascita del moderno microprocessore e all’apporto della Legge di Moore, si comprende come i microprocessori siano alla base dei due maggiori percorsi di innovazione tecnologica. Il primo ha portato a “monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei PC e nell’attuale pervasività dei microprocessori, dagli smartphone ai dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti microprocessori” che operano insieme.

Tuttavia, i miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e dall’assenza di software capace di elaborare carichi di lavoro in parallelo senza dover riscrivere le applicazioni o richiedere strumenti specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela fosse disponibile, la rivoluzione del parallel computing come funzionalità diffusa nell’IT è rimasta bloccata per la mancanza di software capace di farla esplodere.

Venendo ai giorni nostri, i nuovi progressi nel software promettono di rendere il 2016 l’anno di svolta per l’elaborazione parallela. Prestazioni applicative, gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione multicore è evoluta, senza però che piattaforme di elaborazione parallela convenienti potessero esistere in mancanza di software dedicato. Anche questo è cambiato.

Il software per l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le piattaforme server multicore, oggi facilmente reperibili. È in grado di superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il settore sfruttando la potenza dei multicore per aumentare in modo incredibile la produttività, consolidando un maggior numero di carichi di lavoro e riducendo le inefficienze create da un numero eccessivo di server. Portare il consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di “fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di quella rivoluzione promessa dall’elaborazione parallela. 

Nel corso del 2016 vedremo anche incredibili incrementi di prestazioni e produttività che trasformeranno l’iper-convergenza e il Software-Defined Storage. Inoltre, crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti che in quelle future.

Nonostante il recente grande interesse nei confronti dell’iper-convergenza, la tecnologia tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse limitazioni, specialmente quando si parla di scalabilità e prestazioni per gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter avanzare al livello successivo nell’adozione di tecnologie iper-convergenti, dove prestazioni e interoperabilità con il resto dei loro investimenti non sono sacrificati.

mercoledì 13 gennaio 2016

Star Wars, la Forza e la potenza dell’elaborazione multi-core parallela: come ottenere il massimo dai carichi di lavoro virtualizzati

di George Teixeira, President & CEO, DataCore Software

Negli Anni ’80, i film originali di Star Wars mostravano incredibili tecnologie future e facevano continuamente riferimento al “potere della Forza”. L’ultimo episodio ha battuto tutti i record al botteghino e mi ha fatto riflettere su quanti progressi abbiano fatto in questi anni la tecnologia informatica e l’IT, anche se rimane ancora molto da scoprire.

Molte delle trovate immaginate allora sono diventate realtà, soprattutto grazie alla Legge di Moore e alla crescente potenza derivante dalla rivoluzione dei microprocessori. Per esempio, software per la virtualizzazione dei server come VMware hanno portato a radicali riduzioni di costi, aumenti della produttività e a velocità di clock delle CPU sempre più rapide. Oggi i microprocessori sono pervasivi, presenti in PC, portatili, smartphone e dispositivi intelligenti di tutti i tipi. Il completo sfruttamento della potenza promessa dall’utilizzo parallelo di molti microprocessori è però ancora lontano e l’I/O continua a essere il principale collo di bottiglia prestazionale che impedisce al settore di compiere una nuova rivoluzione nel consolidamento, nelle prestazioni e nella produttività.

L’informatica virtuale è ancora limitata dall’I/O. Proprio come chi guida in città imbottigliato nel traffico può solo sognare le vetture volanti, l’IT vagheggia il giorno in cui i carichi applicativi potranno raggiungere la velocità della luce.

Come è possibile che con elaborazione multi-core, app virtualizzate, abbondante RAM e grandi quantità di flash si debbano ancora fare i conti con macchine virtuali (VM) affamate di I/O mentre molti processori rimangono inattivi? È certamente possibile far girare diversi carichi di lavoro indipendenti allo stesso tempo su un unico server utilizzando risorse di memoria e CPU separate, ma è lì che cominciano i problemi. I molti carichi di lavoro in fase di elaborazione generano richieste di I/O in concorrenza tra loro, mentre un solo core è incaricato dell’elaborazione I/O. Questo limite architetturale soffoca le prestazioni applicative. Invece di avere un server che svolge grandi quantità di lavoro, l’IT è costretta ad aggiungere più server e più rack per superare i colli di bottiglia dell’I/O, e questa tendenza va contro “le riduzioni di costi e gli aumenti della produttività” che sono il fulcro della virtualizzazione.

Ciò che accade nella realtà è che poche VM che girano simultaneamente su processori multi-core si occupano di incredibili volumi di lavoro e contemporaneamente ingolfano il solo processore impegnato nell’I/O seriale. E invece di una marea di lavoro eseguito, emerge un rivolo di I/O. Nell’IT si ha quindi la stessa sensazione che provano i ragazzi cresciuti guardando Star Wars, che si chiedono dove sono le loro astronavi e quando potranno viaggiare alla velocità della luce.

La buona notizia è che non tutto è perduto. DataCore ha diverse menti brillanti al lavoro per offrire a tutti una svolta rivoluzionaria nell’I/O: la tecnologia Parallel I/O, che  lascia fluire il traffico virtualizzato senza rallentamenti. L’esclusiva architettura di I/O parallelo software-defined è indispensabile per ottenere il massimo dalle odierne e potenti infrastrutture di elaborazione multi-core/parallele. Sfruttando il software per gestire l’elaborazione I/O tramite molti core differenti allo stesso tempo, si eliminano i colli di bottiglia dell’I/O e si raggiungono nuovi livelli di riduzione dei costi e di aumento della produttività. La notizia ancora più bella è che questa tecnologia è già disponibile.

Proprio come Star Wars ha battuto ogni record mondiale, scoprite come DataCore ha recentemente ottenuto il nuovo record mondiale nel rapporto prezzo/prestazioni su un sistema iper-convergente (con il benchmark indipendente SPC1 dello Storage Performance Councils). DataCore ha fatto registrare anche  i migliori risultati di sempre in termini di spazio occupato e tempi di risposta, e così – anche se le prestazioni  non raggiungono ancora la velocità della luce – DataCore ha surclassato l’esistente non una, ma numerose volte. Verificate direttamente i risultati dei benchmark in questo articolo pubblicato su Forbes: The Rebirth of Parallel I/O.

Come si ottiene tutto questo? Il software di DataCore tiene attivamente monitorato il carico di I/O generato da VM concorrenti tra loro, adattandosi e rispondendo dinamicamente con l’assegnazione di un numero adeguato di core per elaborare il traffico in entrata e uscita. In questo modo le VM non si trovano più ad attendere che un flusso di I/O seriale si renda disponibile. E se i carichi di lavoro I/O diventassero più leggeri, i core delle CPU sarebbero pronti a svolgere maggiori quantità di attività di calcolo.

Questo risolve non solo gli attuali problemi di prestazioni degli ambienti virtualizzati multi-core, ma aumenta in modo importante anche la potenziale densità di VM per ogni server fisico. In pratica si può “fare di più con meno risorse”. Questo si traduce in un minor numero di server o di rack e quindi in meno spazio occupato, minori consumi e riduzione del raffreddamento. In pratica, è possibile ottenere una notevole riduzione dei costi attraverso il massimo sfruttamento di CPU, memoria e spazio di storage consentendo alla virtualizzazione di mantenere le sue promesse di produttività.
Per saperne di più potete il white paper di DataCore

 Waiting on I/O: The Straw that Broke Virtualization’s Back - http://info.datacore.com/waiting-on-io-the-straw-that-broke-virtualizations-back 


(Aspettando l’I/O: la goccia che ha fatto traboccare la virtualizzazione).