mercoledì 9 gennaio 2013

Le previsioni per il 2013 di George Teixeira, CEO di DataCore: l’anno in cui lo storage definito dal software cambierà il data center - Le tecnologie flash e la virtualizzazione delle applicazioni...

Le tecnologie flash e la virtualizzazione delle applicazioni di primo livello daranno una scossa al mondo aziendale

di George Teixeira, Presidente e CEO di DataCore Software

Lo scorso anno sono stati mossi i primi passi verso architetture definite dal software. Questo ha stimolato la nascita di alcune tendenze fondamentali che stanno ridefinendo con profondi cambiamenti il mondo dello storage aziendale, ponendo le basi affinché il 2013 diventi l’anno in cui lo storage definito dal software trasformerà il data center.

Lo spostamento verso un modello basato sulla virtualizzazione definito dal software invece che dall’hardware, a supporto delle applicazioni aziendali critiche, ha cambiato le fondamenta delle architetture a livello di elaborazione, di rete e di storage trasformandole da “statiche” a “dinamiche”. Il software definisce le basi dell’agilità e delle interazioni con l’utente, oltre a permettere di realizzare un’infrastruttura virtuale di lunga durata capace di
adattarsi ai cambiamenti. L’obiettivo finale è quello di incrementare la
produttività dell’utente e di migliorare l’esperienza applicativa.

Trend #1
Le app di primo livello saranno sempre più virtuali e le prestazioni critiche
Gli sforzi per virtualizzare sempre di più il data  center continueranno e vedremo una
tendenza ancora più marcata a spostare le applicazioni di primo livello (ERP, database,
sistemi di posta, OLTP e così via) su piattaforme di virtualizzazione. Le ragioni principali
sono la convenienza economica e una maggiore produttività.
Gli ostacoli principali alla virtualizzazione delle app di primo livello sono però in gran parte
legati allo storage.

Lo spostamento dei carichi di lavoro che fanno un uso intensivo dello storage su macchine
virtuali (VM) può avere un enorme impatto su prestazioni e disponibilità. Lo storage deve
essere di conseguenza sovradimensionato e reso disponibile in maggiore quantità. Inoltre,
mano a mano che le aziende si consolidano sulle piattaforme virtuali si trovano a dover
spendere di più per raggiungere elevati livelli di ridondanza, assicurando continuità operativa
ed evitando fermi macchina, oltre a cercare di superare i colli di bottiglia che affliggono le
prestazioni.

I costi elevati e le complessità causati dal sovradimensionamento annullano buona parte dei
benefici. Per questo, le aziende e dipartimenti IT  sono alla ricerca di un approccio più
intelligente e più conveniente (per esempio software intelligente), rendendosi conto che la
tradizionale tattica di “utilizzare più hardware per risolvere il problema” non è più praticabile.

Trend #2
Lo storage non è solo dischi fissi e le tecnologie flash SSD saranno usate ovunque
Un'altra grande tendenza legata alla virtualizzazione delle applicazioni di primo livello è il
proliferare delle tecnologie SSD basate su memoria flash. La ragione è semplice: i dischi fissi sono dispositivi con meccanismi rotanti che non sono veloci come quelli basati su
tecnologia di memoria elettronica ad alta velocità.

La memoria flash esiste da diversi anni, anche se fino a qualche tempo fa era troppo
costosa per essere adottata in modo massiccio. Pur  restando più cara della tecnologia
utilizzata nei dischi fissi con supporto rotante, il suo utilizzo nei tablet e nei telefoni cellulari
sta portando a un abbassamento dei prezzi. Tuttavia, la tecnologia flash è soggetta a
deterioramento, e l’utilizzo di applicazioni che richiedono un numero elevato di cicli di
scrittura può avere un impatto sulla sua durata nel tempo.

Nonostante ciò, i dispositivi flash sono una parte  inevitabile del nostro futuro e devono
essere integrati nella nostra filosofia architetturale. La convenienza economica ci sta già
spingendo verso un mondo che richiede livelli diversi di storage basato su memorie veloci o
su meno costosi, ma più lenti, dischi fissi. Questo, a sua volta, incrementa la richiesta di
software di auto-tiering in grado di operare su tutta l’azienda per ottimizzare le prestazioni e
raggiungere il migliore compromesso sui costi, posizionando e spostando i dati sul livello più
conveniente che sia in grado di offrire prestazioni accettabili.

Trend #3
Più storage richiederà più automazione
Siamo di fronte a una costante e insaziabile domanda di spazio di archiviazione: la crescita
sta continuando con un tasso superiore al 50% all’anno. Ovviamente, la necessità non è
solo quella di avere più dischi hardware per aumentare la capienza. Gli utenti richiedono
invece uno storage automatico e autogestito, scalabile, dal rapido provisioning, con
prestazioni veloci e in grado di garantire un livello elevatissimo di continuità operativa.
Anche in questo caso è necessario un “software intelligente” per semplificare e
automatizzare la gestione dello storage.

Trend #4
Le architetture storage definite dal software conteranno più dell’hardware 
Queste tendenze - unite all’esigenza degli utenti IT di avere hardware di storage
intercambiabile all'interno delle infrastrutture virtuali - avranno un enorme impatto sul modo
in cui valutiamo, compriamo e utilizziamo lo storage. Dal 2013 in avanti, l’IT dovrà
necessariamente considerare lo storage definito dal software come un elemento essenziale
dei data center.

Oggi gli utenti si trovano di fronte a nuove dinamiche e veloci cambiamenti, e quindi non
possono rimanere intrappolati nelle rigide architetture cablate di ieri. Le infrastrutture
poggiano su tre pilastri - elaborazione, rete e storage - e in ognuno di essi, in un mondo
basato sul software e guidato dalle applicazioni, le decisioni sull’hardware passeranno in
secondo piano.

Chiaramente, il grande successo di VMware e di Microsoft Hyper-V dimostra che la
virtualizzazione dei server porta un enorme valore. Allo stesso modo, l’hypervisor storage e
la virtualizzazione a livello di storage sono fondamentali per sbloccare le catene hardware
che costituiscono un’àncora per i data center di nuova generazione.

Trend #5
Lo storage definito dal software fa nascere l’esigenza di un hypervisor storage
La stessa riflessione che ha cambiato il nostro modo di guardare i server va fatta sul mondo
dello storage, e il software intelligente è il catalizzatore che lo permette. In effetti, il ruolo
primario di un hypervisor storage è quello di virtualizzare le risorse di storage per ottenere gli
stessi benefici - agilità, efficienza e flessibilità - che la tecnologia dell’hypervisor server ha
portato a processori e memoria. Quest’anno, il software prenderà il suo posto al tavolo e comincerà trasformare il modo in cui pensiamo allo storage.

Obiettivo finale
Una migliore esperienza applicativa grazie allo storage definito dal software
La virtualizzazione ha cambiato l’informatica e le  applicazioni da cui dipendono le nostre
aziende. Eppure, le aziende e lo storage cloud sono ancora dominati da una mentalità
legata all’hardware e alla fisicità. Dobbiamo cambiare il nostro modo di pensare e riflettere
su come lo storage abbia un impatto sull’esperienza applicativa, vedendolo come un
elemento definito dal software, con servizi di storage e funzionalità disponibili per tutta
l’azienda e non solo come legati a uno specifico hardware proprietario.

Per quale motivo dovreste comperare uno specifico hardware solo per ottenere una
funzionalità software? Questo modo di pensare è vecchio e, prima della virtualizzazione, era
la modalità con cui funzionava l’industria dei server. Oggi, grazie a VMware o ad Hyper-V,
noi pensiamo a come installare le VM invece di chiederci “funzionano su un sistema Dell,
HP, Intel o IBM?”.

Lo storage si appresta a vivere un’analoga trasformazione, e nell’anno che verrà sarà il
software intelligente a guidare il settore verso un mondo migliore definito dal software.
- - -
George Teixeira è CEO e Presidente di DataCore Software (http://www.datacore.com). La sua
piattaforma per un'infrastruttura software consente di superare l'enorme problema costituito dallo
stallo dei progetti di virtualizzazione eliminando  le barriere create dallo storage, che rendono la
virtualizzazione troppo complessa e troppo costosa da implementare.

Nessun commento: