martedì 31 gennaio 2017

DataCore, Carrie Reber è la Vice President of Worldwide Marketing

DataCore Software, fornitore leader di SAN virtuali iper-convergentiSoftware-Defined Storage e software per l’elaborazione parallela dell’I/O, ha annunciato la nomina di Carrie Reber a Vice President of Worldwide Marketing.

Reber sarà responsabile delle attività di vendita e canale.Ben conosciuta come professionista di marketing e comunicazione nel settore della tecnologia, ha una vasta esperienza nella realizzazione e nella guida di strutture di marketing, nello sviluppo e nella gestione di piani strategici di posizionamento e comunicazione, nonché nel lancio di aziende software B2B innovative.

Con oltre 20 anni di esperienza nel settore tecnologico, Reber è stata recentemente vicepresidente di Datto con la responsabilità del marketing internazionale. In precedenza ha svolto funzioni dirigenziali in Infinio e ha realizzato la struttura di marketing gestendo le iniziative di go-to-market a supporto della rapida crescita di Veaam, partita come startup e arrivata a 100 milioni di dollari di fatturato.

Precedentemente, Reber è stata Director of Product Public Relations and Analyst Relations di Quest Software e ha lavorato in strutture di marketing di diverse aziende, tra cui Aelita Software, Legent Corp. e CompuServe.

Con la tecnologia Parallel I/O di DataCore che continua a ottenere risultati record nelle prestazioni e nel rapporto prezzo/prestazioni con le soluzioni Hyper-converged Virtual SAN e SANsymphony Software-Defined Storage, l’azienda ha registrato una crescita a doppia cifra in regioni chiave come le Americhe, l’EMEA e l’APAC.

Una delle principali responsabilità di Reber sarà quella di continuare a rafforzare la riconoscibilità del marchio DataCore a livello mondiale, evidenziando al contempo i vantaggi e la value proposition di Parallel I/O, che libera la potenza e la produttività dell’elaborazione parallela per portare a prestazioni e tempi di risposta da record nello storage di applicazioni per database, analytics ed elaborazione transazionale in tempo reale.

Sono lieto che una persona con il calibro e l’esperienza di Carrie si unisca al nostro team,” ha detto George Teixeira, President e CEO di DataCore. “Come azienda con oltre 10.000 implementazioni di successo, abbiamo la necessità di far conoscere i risultati che abbiamo ottenuto e raggiungere nuovi clienti per far crescere ancora il nostro core business. Strategicamente, dobbiamo trarre il massimo profitto dalla nostra innovativa tecnologia di elaborazione parallela e sfruttare le nuove opportunità che si presenteranno nel 2017. Il forte lavoro e la gestione di Carrie saranno determinanti per aiutare DataCore a rendere queste iniziative un successo".

martedì 10 gennaio 2017

Infrastrutture parallele, trend nel 2017

http://www.01net.it/infrastrutture-parallele/
L’esigenza di avere analisi dei dati e database più veloci sta portando a creare infrastrutture parallele per ottimizzare le prestazioni e soddisfare la richiesta di risposte in tempo reale. Si tratta di un aspetto fondamentale per l’interazione con l’Internet of Things
Tuttavia, le attuali tecnologie capaci di accelerare le prestazioni e ridurre la latenza aggiungono anche significative problematiche alle applicazioni esistenti, dando maggiore complessità e conferendo costi più elevati.
Anche se cavalcando la Legge di Moore i computer sono diventati sempre più veloci, sinora non siamo stati capaci di metterli a lavorare in parallelo per cercare di risolvere i continui problemi di latenza e tempi di risposta. Ad affermarlo è il ceo di Datacore, George Texeira, con il quale facciamo un istruttivo excursus sulle evoluzioni tecnologiche degli ultimi anni per individuare il trend  più plausibile.

Questo è accaduto - spiega - perché la maggior parte dei processi di elaborazione avviene in modo seriale, sottoutilizzando le funzionalità multi-core intrinseche nelle moderne piattaforme server preconfigurate.
I prodotti sfornati dalle società tecnologiche dieci anni fa erano già pensati per trarre vantaggio dalla parallelizzazione, ma l’hardware disponibile a quell’epoca non disponeva delle funzionalità di elaborazione multi-core e nemmeno della larghezza di banda nella memoria per consentire ai database paralleli di decollare.
Invece, per moltiplicare le prestazioni il mondo si è spostato verso i cluster. Ma il problema principale (la latenza, causata in particolare dall’I/O) non è stato affrontato.
Sono allora arrivate tecnologie, come le unità flash a stato solido e i protocolli NVMe, che hanno aiutato, ma hanno anche portato a ulteriori spese senza sfruttare pienamente i vantaggi delle funzionalità multiprocessing.
La tecnologia in-memory è recentemente entrata in voga per le applicazioni database, ma anche se è importante per sfruttare la maggiore velocità della memoria, ancora una volta non ha affrontato il tema dell’elaborazione I/O e di tempi di risposta più rapidi.

Verso le infrastrutture parallele

Se la parallelizzazione potesse realizzarsi senza creare problemi a programmi e applicazioni esistenti, e se tutti i multi-core fossero all’opera a tempo pieno invece di rimanere in attesa delle richieste di I/O, il risultato sarebbe una rivoluzione per la produttività, fondendo analisi in tempo reale ed elaborazione delle transazioni.
Server standard x86, uniti a software specifici, possono oggi essere utilizzati per parallelizzare l’I/O ed eliminare i rallentamenti delle diverse applicazioni che si trovano di fronte il problema dei servizi di I/O.
Lavorando a livello sub-applicativo, le tecnologie di I/O parallelo non creano problemi ai normali carichi di lavoro aziendali.
La piena potenza dei processori multi-core e la larghezza di banda della memoria disponibili nei server x86 sono invece in grado di abbassare la latenza e ridurre i tempi di risposta, dato che i processori elaborano in parallelo le richieste di I/O permettendo a un maggior numero di carichi di lavoro di essere gestito più velocemente.
Questo tipo di tecnologia è arrivato sul mercato nel 2016. Secondo Teixeira, quando le aziende cominceranno a comprendere i benefici delle infrastrutture parallele senza la complessità e i costi di tecnologie che non sfruttano completamente la potenza dei sistemi multi-core, l’interesse crescerà.
E questa sarà una delle tendenze principali del 2017.

martedì 3 gennaio 2017

01Net. Come si realizza il datacenter software defined

Nel datacenter software defined tutti gli elementi dell’infrastruttura (rete, capacità di calcolo, server e storage) sono virtualizzati ed erogati come servizio
La virtualizzazione a livello di server e storage è un componente critico dellla trasfromazione verso il datacenter software defined, dato che porta a una maggiore produttività attraverso l’automazione software e l’agilità, proteggendo gli utenti dalla sottostante complessità dell’hardware.
Oggi sono le applicazioni a guidare l’impresa: sono esigenti, specialmente negli ambienti virtualizzati, richiedono allo storage prestazioni elevate per tenere il passo con l’acquisizione dei dati e con l’imprevedibile domanda dei carichi di lavoro aziendali.
Secondo il ceo di DatacoreGeorge Teixeira, il problema è che in un mondo che richiede tempi di risposta quasi istantanei e accesso sempre più veloce ai dati aziendali critici, le necessità di applicazioni aziendali di primo livello come database SQL, Oracle e SAP sono rimaste senza risposta convincente. Nella maggior parte dei datacenter la causa principale di questi ritardi è l’infrastruttura di storage dei dati.

I ritardi dello storage e la rivoluzione virtuale

Perché? Il principale collo di bottiglia sono state le prestazioni dell’I/O. Nonostante il fatto che quasi tutti i server standard mettano già a disposizione in modo conveniente un’ampia gamma di funzionalità multiprocessore, la maggior parte di loro non è sfruttata, trovandosi spesso in modalità inattiva.
Questo accade perché gli attuali sistemi si basano ancora su ottimizzazioni a livello di dispositivo legate a specifiche tecnologie a disco e flash che non dispongono di un’intelligenza software capace di sfruttare pienamente i più potenti sistemi server con architetture multi-core.
La rivoluzione dei server virtuali è diventata la “killer app” che ha portato al pieno utilizzo delle CPU e a un certo livello di funzionalità multi-core, ma il lato negativo è che la virtualizzazione e il passaggio a un maggiore consolidamento dei server ha creato un "effetto frullatore" in cui sempre più carichi di lavoro I/O degli applicativi si sono concentrati fino al punto di dover essere eseguiti in modo pianificato dallo stesso sistema.
Tutte quelle VM e le loro applicazioni si sono quindi infilate in un collo di bottiglia costituito da una “cannuccia di I/O” serializzata. Mentre processori e memorie hanno visto incrementi nella loro velocità, questo imbuto dell’I/O continua a limitare le prestazioni, specialmente quando si parla di applicazioni aziendali critiche che gestiscono carichi di lavoro costituiti da database e transazioni online.

Quando il flash non basta

Molti hanno provato ad affrontare il problema prestazionale a livello di dispositivo aggiungendo storage a stato solido (flash) per rispondere alla richiesta delle applicazioni aziendali o collegando fisicamente questi dispositivi veloci alle macchine virtuali (VM) in sistemi iper-convergenti.
Tuttavia, il miglioramento delle prestazioni dei supporti di storage, dove si rimpiazzano i tradizionali dischi rotanti con flash che cercano di fare le stesse cose, affronta solamente un aspetto dello stack I/O.
Collegare direttamente la flash alle VM sembra anche in contraddizione con il concetto di virtualizzazione, in cui la tecnologia viene elevata a un livello software defined al di sopra dei collegamenti cablati e al livello di consapevolezza fisica, aggiungendo complessità e cosiddetti "vendor lock-in” tra i livelli dell’hypervisor e dei dispositivi.

La risposta è nel multi-core

processori multi-core sono invece all’altezza della sfida. L’elemento primario che si è perso è il software, che qui può trarre vantaggio dall’infrastruttura di elaborazione multi-core/parallela.
La tecnologia Parallel I/O consente di realizzare l’elaborazione dell’I/O in modo separato dalla capacità di calcolo e in parallelo, migliorando le prestazioni di I/O sfruttando la capacità della virtualizzazione di disaccoppiare i miglioramenti del software dalle innovazioni hardware.
Questo metodo utilizza il software per suddividere l’I/O parallelo tra tutti i core della CPU. La tecnologia Parallel I/O può pianificare in modo efficace l’I/O dei carichi di lavoro della virtualizzazione e delle applicazioni utilizzando le piattaforme server multi-core già disponibili.
Sfruttando la potenza dei multi-core è possibile superare il collo di bottiglia dell’I/O incrementando notevolmente la produttività, aumentando il consolidamento dei carichi di lavoro e riducendo l’inefficiente proliferare dei server.
Questo permetterà di ottenere risparmi più consistenti sui costi aumentando la produttività e portando il consolidamento a un nuovo livello, in modo che i sistemi possano fare molto di più con meno risorse.

La superstrada parallela

Parallel I/O, esemplifica Teixeira, è essenzialmente come una superstrada a più corsie con un sistema di sorpasso facilitato.
Evita il collo di bottiglia e i tempi di attesa creati dalla presenza di un singolo casello e apre gli altri core (tutte le corsie in questa analogia) per distribuire l’I/O in modo che i dati possano continuare a fluire avanti e indietro tra l’applicazione e il supporto di storage alla massima velocità.
L’effetto è che più dati fluiscono attraverso la medesima infrastruttura hardware nella stessa quantità di tempo, come avviene nei sistemi di storage proprietari.
La tradizionale infrastruttura a tre livelli costituita da server, rete e sistema di calcolo trae quindi beneficio dall’avere sistemi di storage che rispondono direttamente ed evadono le richieste di I/O più velocemente, potendo quindi supportare un numero significativamente maggiore di applicazioni e carichi di lavoro sulla stessa piattaforma.
L’efficienza di un’architettura parallela a bassa latenza è potenzialmente più critica nelle architetture iper-convergenti, che sono un’infrastruttura in cui tutto è condiviso. Se lo storage software è più efficiente nell’uso delle risorse di calcolo, questo significa che restituirà agli altri processi che girano sulla stessa piattaforma una maggiore quantità di potenza di calcolo disponibile.
Traendo il massimo vantaggio dalla potenza di calcolo offerta dai server multi-core, la tecnologia di I/O parallelo agisce come elemento abilitante di un vero datacenter software defined.
Questo si deve al fatto che evita qualsiasi collegamento fisico speciale che impedirebbe il raggiungimento dei benefici della virtualizzazione, mentre sblocca la sottostante potenza hardware per ottenere una notevole accelerazione delle prestazioni di I/O e storage. Risolve così il problema del collo di bottiglia dell’I/O e rende possibile la realizzazione dei datacenter software defined.