lunedì 14 gennaio 2013

01net.CIO: Sostiene Teixeira: flash e virtualizzazione muteranno i datacenter

Sostiene Teixeira: flash e virtualizzazione muteranno i datacenterSecondo il ceo di DataCore lo storage definito dal software cambierà definitivamente gli ambienti enterprise.
 
Forse questo sarà l'anno in cui lo storage definito dal software trasformerà definitivamente il datacenter. Secondo il ceo di DataCore Software, George Teixeira, infatti, lo spostamento verso un modello basato sulla virtualizzazione definito dal software invece che dall'hardware, a supporto delle applicazioni aziendali critiche, ha cambiato le fondamenta delle architetture a livello di elaborazione, di rete e di storage trasformandole da statiche a dinamiche. 
«Il software definisce le basi dell'agilità e delle interazioni con l'utente - sostiene Teixeira - oltre a permettere di realizzare un'infrastruttura virtuale di lunga durata capace di adattarsi ai cambiamenti. L'obiettivo finale è quello di incrementare la produttività dell'utente e di migliorare l'esperienza applicativa».

Applicazioni core più virtuali 
Gli sforzi per virtualizzare sempre di più il datacenter, per Teixeira, continueranno e vedremo una tendenza ancora più marcata a spostare le applicazioni di primo livello (Erp, database, sistemi di posta, Oltp) su piattaforme di virtualizzazione. 
Le ragioni principali sono la convenienza economica e una maggiore produttività. Gli ostacoli principali alla virtualizzazione delle applicazioni di primo livello sono però in gran parte legati allo storage. 
Lo spostamento dei carichi di lavoro che fanno un uso intensivo dello storage su macchine virtuali (Vm) può avere un enorme impatto su prestazioni e disponibilità. Lo storage deve essere di conseguenza sovradimensionato e reso disponibile in maggiore quantità. 
Inoltre, mano a mano che le aziende si consolidano sulle piattaforme virtuali si trovano a dover spendere di più per raggiungere elevati livelli di ridondanza, assicurando continuità operativa ed evitando fermi macchina, oltre a cercare di superare i colli di bottiglia che affliggono le prestazioni. 
I costi elevati e le complessità causati dal sovradimensionamento annullano buona parte dei benefici. 
Per questo, le aziende e dipartimenti It sono alla ricerca di un approccio più intelligente e più conveniente (per esempio software intelligente), rendendosi conto che la tradizionale tattica di utilizzare più hardware per risolvere il problema non è più praticabile. 

Ssd ovunque 
Un'altra grande tendenza, legata alla virtualizzazione delle applicazioni di primo livello, è il proliferare delle tecnologie Ssd basate su memoria flash. 
La ragione, per Teixeira, è semplice: i dischi fissi sono dispositivi con meccanismi rotanti che non sono veloci come quelli basati su tecnologia di memoria elettronica ad alta velocità. 
La memoria flash esiste da diversi anni, anche se fino a qualche tempo fa era troppo costosa per essere adottata in modo massiccio. 
Pur restando più cara della tecnologia utilizzata nei dischi fissi con supporto rotante, il suo utilizzo nei tablet e nei telefoni cellulari sta portando a un abbassamento dei prezzi. 
Tuttavia, la tecnologia flash è soggetta a deterioramento, e l'utilizzo di applicazioni che richiedono un numero elevato di cicli di scrittura può avere un impatto sulla sua durata nel tempo. 
Nonostante ciò, i dispositivi flash sono una parte inevitabile del nostro futuro e devono essere integrati nella nostra filosofia architetturale. 
La convenienza economica ci sta già spingendo verso un mondo che richiede livelli diversi di storage basato su memorie veloci o su meno costosi, ma più lenti, dischi fissi. Questo, a propria volta, incrementa la richiesta di software di auto-tiering in grado di operare su tutta l'azienda per ottimizzare le prestazioni e raggiungere il migliore compromesso sui costi, posizionando e spostando i dati sul livello più conveniente che sia in grado di offrire prestazioni accettabili. 

Automazione storage 
Per Teixeira siamo dunque di fronte a una costante domanda di spazio di archiviazione: la crescita sta continuando con un tasso superiore al 50% all'anno.
Ovviamente, la necessità non è solo quella di avere più dischi hardware per aumentare la capienza. Gli utenti richiedono invece uno storage automatico e autogestito, scalabile, dal rapido provisioning, con prestazioni veloci e in grado di garantire un livello elevatissimo di continuità operativa. 
Anche in questo caso è necessario un software intelligente per semplificare e automatizzare la gestione dello storage. 

Architetture definite dal software 
Tutte queste tendenze avranno un enorme impatto sul modo in cui valutiamo, compriamo e utilizziamo lo storage. 
Da ora in avanti per Teixeira l'It dovrà necessariamente considerare lo storage definito dal software come un elemento essenziale dei datacenter. 
Oggi gli utenti si trovano di fronte a nuove dinamiche e veloci cambiamenti, e quindi non possono rimanere intrappolati nelle rigide architetture cablate di ieri. 
Le infrastrutture poggiano su tre pilastri (elaborazione, rete e storage) e in ognuno di essi, in un mondo basato sul software e guidato dalle applicazioni, le decisioni sull'hardware passeranno in secondo piano. 
Per il ceo di DataCore il grande successo di Vmware e di Microsoft Hyper-V dimostra che la virtualizzazione dei server porta un enorme valore. 
Allo stesso modo, l'hypervisor storage e la virtualizzazione a livello di storage sono fondamentali per sbloccare le catene hardware che costituiscono un'àncora per i data center di nuova generazione. 
La stessa riflessione che ha cambiato il modo di guardare i server va fatta sul mondo dello storage, e il software intelligente è il catalizzatore che lo permette. In effetti, il ruolo primario di un hypervisor storage è quello di virtualizzare le risorse di storage per ottenere gli stessi benefici (agilità, efficienza e flessibilità) che la tecnologia dell'hypervisor server ha portato a processori e memoria. 
Quest'anno, dunque, il software comincerà trasformare il modo in cui pensiamo allo storage.

mercoledì 9 gennaio 2013

Le previsioni per il 2013 di George Teixeira, CEO di DataCore: l’anno in cui lo storage definito dal software cambierà il data center - Le tecnologie flash e la virtualizzazione delle applicazioni...

Le tecnologie flash e la virtualizzazione delle applicazioni di primo livello daranno una scossa al mondo aziendale

di George Teixeira, Presidente e CEO di DataCore Software

Lo scorso anno sono stati mossi i primi passi verso architetture definite dal software. Questo ha stimolato la nascita di alcune tendenze fondamentali che stanno ridefinendo con profondi cambiamenti il mondo dello storage aziendale, ponendo le basi affinché il 2013 diventi l’anno in cui lo storage definito dal software trasformerà il data center.

Lo spostamento verso un modello basato sulla virtualizzazione definito dal software invece che dall’hardware, a supporto delle applicazioni aziendali critiche, ha cambiato le fondamenta delle architetture a livello di elaborazione, di rete e di storage trasformandole da “statiche” a “dinamiche”. Il software definisce le basi dell’agilità e delle interazioni con l’utente, oltre a permettere di realizzare un’infrastruttura virtuale di lunga durata capace di
adattarsi ai cambiamenti. L’obiettivo finale è quello di incrementare la
produttività dell’utente e di migliorare l’esperienza applicativa.

Trend #1
Le app di primo livello saranno sempre più virtuali e le prestazioni critiche
Gli sforzi per virtualizzare sempre di più il data  center continueranno e vedremo una
tendenza ancora più marcata a spostare le applicazioni di primo livello (ERP, database,
sistemi di posta, OLTP e così via) su piattaforme di virtualizzazione. Le ragioni principali
sono la convenienza economica e una maggiore produttività.
Gli ostacoli principali alla virtualizzazione delle app di primo livello sono però in gran parte
legati allo storage.

Lo spostamento dei carichi di lavoro che fanno un uso intensivo dello storage su macchine
virtuali (VM) può avere un enorme impatto su prestazioni e disponibilità. Lo storage deve
essere di conseguenza sovradimensionato e reso disponibile in maggiore quantità. Inoltre,
mano a mano che le aziende si consolidano sulle piattaforme virtuali si trovano a dover
spendere di più per raggiungere elevati livelli di ridondanza, assicurando continuità operativa
ed evitando fermi macchina, oltre a cercare di superare i colli di bottiglia che affliggono le
prestazioni.

I costi elevati e le complessità causati dal sovradimensionamento annullano buona parte dei
benefici. Per questo, le aziende e dipartimenti IT  sono alla ricerca di un approccio più
intelligente e più conveniente (per esempio software intelligente), rendendosi conto che la
tradizionale tattica di “utilizzare più hardware per risolvere il problema” non è più praticabile.

Trend #2
Lo storage non è solo dischi fissi e le tecnologie flash SSD saranno usate ovunque
Un'altra grande tendenza legata alla virtualizzazione delle applicazioni di primo livello è il
proliferare delle tecnologie SSD basate su memoria flash. La ragione è semplice: i dischi fissi sono dispositivi con meccanismi rotanti che non sono veloci come quelli basati su
tecnologia di memoria elettronica ad alta velocità.

La memoria flash esiste da diversi anni, anche se fino a qualche tempo fa era troppo
costosa per essere adottata in modo massiccio. Pur  restando più cara della tecnologia
utilizzata nei dischi fissi con supporto rotante, il suo utilizzo nei tablet e nei telefoni cellulari
sta portando a un abbassamento dei prezzi. Tuttavia, la tecnologia flash è soggetta a
deterioramento, e l’utilizzo di applicazioni che richiedono un numero elevato di cicli di
scrittura può avere un impatto sulla sua durata nel tempo.

Nonostante ciò, i dispositivi flash sono una parte  inevitabile del nostro futuro e devono
essere integrati nella nostra filosofia architetturale. La convenienza economica ci sta già
spingendo verso un mondo che richiede livelli diversi di storage basato su memorie veloci o
su meno costosi, ma più lenti, dischi fissi. Questo, a sua volta, incrementa la richiesta di
software di auto-tiering in grado di operare su tutta l’azienda per ottimizzare le prestazioni e
raggiungere il migliore compromesso sui costi, posizionando e spostando i dati sul livello più
conveniente che sia in grado di offrire prestazioni accettabili.

Trend #3
Più storage richiederà più automazione
Siamo di fronte a una costante e insaziabile domanda di spazio di archiviazione: la crescita
sta continuando con un tasso superiore al 50% all’anno. Ovviamente, la necessità non è
solo quella di avere più dischi hardware per aumentare la capienza. Gli utenti richiedono
invece uno storage automatico e autogestito, scalabile, dal rapido provisioning, con
prestazioni veloci e in grado di garantire un livello elevatissimo di continuità operativa.
Anche in questo caso è necessario un “software intelligente” per semplificare e
automatizzare la gestione dello storage.

Trend #4
Le architetture storage definite dal software conteranno più dell’hardware 
Queste tendenze - unite all’esigenza degli utenti IT di avere hardware di storage
intercambiabile all'interno delle infrastrutture virtuali - avranno un enorme impatto sul modo
in cui valutiamo, compriamo e utilizziamo lo storage. Dal 2013 in avanti, l’IT dovrà
necessariamente considerare lo storage definito dal software come un elemento essenziale
dei data center.

Oggi gli utenti si trovano di fronte a nuove dinamiche e veloci cambiamenti, e quindi non
possono rimanere intrappolati nelle rigide architetture cablate di ieri. Le infrastrutture
poggiano su tre pilastri - elaborazione, rete e storage - e in ognuno di essi, in un mondo
basato sul software e guidato dalle applicazioni, le decisioni sull’hardware passeranno in
secondo piano.

Chiaramente, il grande successo di VMware e di Microsoft Hyper-V dimostra che la
virtualizzazione dei server porta un enorme valore. Allo stesso modo, l’hypervisor storage e
la virtualizzazione a livello di storage sono fondamentali per sbloccare le catene hardware
che costituiscono un’àncora per i data center di nuova generazione.

Trend #5
Lo storage definito dal software fa nascere l’esigenza di un hypervisor storage
La stessa riflessione che ha cambiato il nostro modo di guardare i server va fatta sul mondo
dello storage, e il software intelligente è il catalizzatore che lo permette. In effetti, il ruolo
primario di un hypervisor storage è quello di virtualizzare le risorse di storage per ottenere gli
stessi benefici - agilità, efficienza e flessibilità - che la tecnologia dell’hypervisor server ha
portato a processori e memoria. Quest’anno, il software prenderà il suo posto al tavolo e comincerà trasformare il modo in cui pensiamo allo storage.

Obiettivo finale
Una migliore esperienza applicativa grazie allo storage definito dal software
La virtualizzazione ha cambiato l’informatica e le  applicazioni da cui dipendono le nostre
aziende. Eppure, le aziende e lo storage cloud sono ancora dominati da una mentalità
legata all’hardware e alla fisicità. Dobbiamo cambiare il nostro modo di pensare e riflettere
su come lo storage abbia un impatto sull’esperienza applicativa, vedendolo come un
elemento definito dal software, con servizi di storage e funzionalità disponibili per tutta
l’azienda e non solo come legati a uno specifico hardware proprietario.

Per quale motivo dovreste comperare uno specifico hardware solo per ottenere una
funzionalità software? Questo modo di pensare è vecchio e, prima della virtualizzazione, era
la modalità con cui funzionava l’industria dei server. Oggi, grazie a VMware o ad Hyper-V,
noi pensiamo a come installare le VM invece di chiederci “funzionano su un sistema Dell,
HP, Intel o IBM?”.

Lo storage si appresta a vivere un’analoga trasformazione, e nell’anno che verrà sarà il
software intelligente a guidare il settore verso un mondo migliore definito dal software.
- - -
George Teixeira è CEO e Presidente di DataCore Software (http://www.datacore.com). La sua
piattaforma per un'infrastruttura software consente di superare l'enorme problema costituito dallo
stallo dei progetti di virtualizzazione eliminando  le barriere create dallo storage, che rendono la
virtualizzazione troppo complessa e troppo costosa da implementare.

giovedì 3 gennaio 2013

DataCore Powering the Cloud Report: soluzione per la virtualizzazione dello storage -

http://vinfrastructure.it/2012/12/powering-the-cloud-report-datacore/

Nel mio incontro con DataCore, durante il evento Powering the cloud, ho avuto modo di parlare con Alexander Best (Director Technical Business Development).

Prima di tutto abbiamo parlato della versione 9 di SANsymphony-V e di come si possa parlare di Software Defined Storage o virtualizzazione di storage completamente vendor independent. A questo evento il termine usato per descrive questa solutione è stato “The Storage Hypervisor for the Cloud”. Rimando nel post successivo la discussione e i dettagli sulle funzioni specifiche di integrazione con VMware.

Più interessante è stata la discussione sulla roadmap delle nuove funzionalità e cambiamenti relativi alle prossime versioni.

Il primo punto trattato è stato il nuovo Windows Server 2012, che al momento è non supportato da DataCore. Con il SP1 (aka 9.0.1 ) sarà aggiunto il supporto lato front-end (ossia come “client” di accesso ai servizi DataCore). Per il supporto come back-end e soprattutto come piattaforma per eseguire DataCore (ricordo che è una componente software che viene installata su un server Windows) ci vorrà un po’ di tempo in più (si parlava ragionevolmente dell’inizio del prossimo anno), anche perché la parte dei driver FC è completare riscritta da zero da parte di DataCore. Mi hanno confermato che anche il supporto all’ODX (l’equivalente delle VMware VAAI da parte di Microsoft) è in via di sviluppo. Non abbiamo invece trattato il nuovo SMB3 introdotto con Windows Server 2012, ma d’altra parte DataCore SANsymphony è uno storage orientato ai blocchi e quindi non c’è da aspettarsi nessun beneficio (al momento) da questo nuovo protocollo applicato a questo prodotto. Altre integrazioni con prodotti della famiglia System Center (Operation Manager, DPM, Virtual Machine Manager) sono in via di perfezionamento.

Interessante è stato anche il discorso relativo al numero di nodi sui quali si aspettano di far scalare la soluzione: al momento è appena due (nella soluzione di mirror ad alta disponibilità), ma si parlava di poter raggiungere il numero di 8 nodi con un misto di vDisk in mirror e volumi shared e funzioni di migrazione live da i due tipi. Va anche detto però che il tipo di licenza a spazio e a nodo al momento limiterebbe fortemente questo tipo di scalabilità.



Infine abbiamo parlato della preview della loro architettura di riferimento per i Virtual Desktop Server (VDS), che permette di realizzare strutture integrate di VDI e solutioni di tipo ‘datacenter in a box’. Sicuramente interessante per realtà di tipo PMI, ma anche per aziende di grandi dimensioni con necessità di scalabilità. Da notare che questo tipo di modello si potrebbe applicare non solo ad ambienti di VDI, ma anche a casi di farm di server di tipo Remoted Desktop Service o XenApp.