George Teixeira, CEO di DataCore Software, fa il punto sul nuovo modo di interpretare il data center in chiave software
Per molto tempo i responsabili IT aziendali hanno sentito la frase "virtualizzate o rimarrete indietro", e dopo avere verificato la validità di questo messaggio non hanno potuto negare i benefici che derivano dalla sua applicazione, dando così il via alla corsa alla virtualizzazione. Oggi, osserva Teixeira, si assiste alla spinta per la creazione di data center definiti dal software.
Ovviamente, c’è una certa attesa per capire se questi ambienti più flessibili e innovativi saranno in grado di gestire adeguatamente i requisiti prestazionali e di disponibilità delle applicazioni aziendali critiche, specialmente quando si esamina l’elemento storage dell’equazione. In passato i decisori aziendali avevano buone ragioni per preoccuparsi, ma oggi hanno un ottimo motivo per festeggiare le nuove piattaforme di virtualizzazione dello storage, che hanno dimostrato di poter superare gli ostacoli legati all’I/O.
Tra gli altri benefici particolari tra quelli ampiamente riconosciuti ci sono:
Dall’indagine è emerso che il 42 per cento di chi ha risposto ha segnalato il decadimento delle prestazioni o l’impossibilità di soddisfare le esigenze prestazionali come ostacoli alla maggiore virtualizzazione dei carichi di lavoro. Eppure, efficaci piattaforme di virtualizzazione dello storage stanno superando con successo queste difficoltà. Lo fanno utilizzando tecniche di caching adattativo e di aumento delle prestazioni indipendenti dai dispositivi che permettono di assorbire carichi di lavoro estremamente variabili, consentendo così alle applicazioni di girare più velocemente in modalità virtualizzata.
L’indagine ha anche rivelato che il 44 per cento di chi ha risposto ritiene che i costi sproporzionati relativi allo storage siano un ostacolo alla virtualizzazione. Anche in questo caso, però, efficaci piattaforme per la virtualizzazione dello storage sono oggi in grado di offrire una soluzione, grazie a funzionalità come l’auto-tiering, che ottimizza l’uso delle risorse più costose gestendole insieme a dischi fissi di maggiore capacità e minore costo.
Una piattaforma software di questo tipo tiene sotto costante controllo il comportamento dell’I/O ed è in grado di scegliere automaticamente in tempo reale e in modo intelligente cosa utilizzare tra memorie cache dei server, storage flash e tradizionali risorse basate su disco. Questo garantisce che ogni carico di lavoro venga assegnato al dispositivo o al livello di storage più adatto in base alle priorità e all’urgenza.
Il risultato è che oggi un data center definito dal software è in grado di offrire alle applicazioni più importanti livelli di prestazioni mai raggiunti prima, con un’efficienza ottimale nella gestione dei costi e con il massimo ritorno sugli investimenti già effettuati nello storage.
Una volta virtualizzate le applicazioni di primo livello che fanno un uso intensivo dell’I/O, la piattaforma di virtualizzazione dello storage ne garantisce la disponibilità. Lo fa eliminando gli anelli deboli e gli elementi non funzionanti tramite separazione fisica invisibile a livello applicativo che riguarda diversi locali o siti remoti e che grazie a funzionalità di auto-recovery garantisce i più elevati livelli di continuità operativa.
La giusta piattaforma, evidenzia Teixeira, può virtualizzare in modo efficace qualunque tipologia di storage venga utilizzata, sia collegata direttamente sia connessa via SAN, per ottenere un ambiente di storage robusto e reattivo in grado di supportare ambienti IT virtuali altamente dinamici.
In conclusione, le piattaforme di virtualizzazione dello storage hanno portato al momento decisivo per il data center definito dal software. Le prestazioni, la velocità e l’elevata disponibilità necessarie ad applicazioni e database critici in ambiente virtualizzato oggi sono state raggiunte. Le barriere sono state rimosse ed esiste un percorso chiaro e supportato, ritiene DataCore, per ottenere un’ancora maggiore efficienza nella gestione dei costi.
Ovviamente, c’è una certa attesa per capire se questi ambienti più flessibili e innovativi saranno in grado di gestire adeguatamente i requisiti prestazionali e di disponibilità delle applicazioni aziendali critiche, specialmente quando si esamina l’elemento storage dell’equazione. In passato i decisori aziendali avevano buone ragioni per preoccuparsi, ma oggi hanno un ottimo motivo per festeggiare le nuove piattaforme di virtualizzazione dello storage, che hanno dimostrato di poter superare gli ostacoli legati all’I/O.
George Teixeira
Proprio come avvenuto con gli hypervisor per i server, che hanno messo a disposizione una piattaforma operativa virtuale, un simile approccio nello storage sta trasformando velocemente, osserva il manager, le metriche economiche della virtualizzazione nelle organizzazioni di qualunque dimensione offrendo la velocità, la scalabilità e la disponibilità continua necessarie per sfruttare appieno i benefici dei data center definiti dal software. Tra gli altri benefici particolari tra quelli ampiamente riconosciuti ci sono:
- L’eliminazione dei colli di bottiglia nell’I/O dello storage dei data center virtualizzati
- Lo sfruttamento efficace delle risorse di storage per ottenere prestazioni applicative sempre maggiori
- La garanzia di applicazioni veloci e sempre disponibili senza dover fare grandi investimenti in storage
Dall’indagine è emerso che il 42 per cento di chi ha risposto ha segnalato il decadimento delle prestazioni o l’impossibilità di soddisfare le esigenze prestazionali come ostacoli alla maggiore virtualizzazione dei carichi di lavoro. Eppure, efficaci piattaforme di virtualizzazione dello storage stanno superando con successo queste difficoltà. Lo fanno utilizzando tecniche di caching adattativo e di aumento delle prestazioni indipendenti dai dispositivi che permettono di assorbire carichi di lavoro estremamente variabili, consentendo così alle applicazioni di girare più velocemente in modalità virtualizzata.
L’indagine ha anche rivelato che il 44 per cento di chi ha risposto ritiene che i costi sproporzionati relativi allo storage siano un ostacolo alla virtualizzazione. Anche in questo caso, però, efficaci piattaforme per la virtualizzazione dello storage sono oggi in grado di offrire una soluzione, grazie a funzionalità come l’auto-tiering, che ottimizza l’uso delle risorse più costose gestendole insieme a dischi fissi di maggiore capacità e minore costo.
Una piattaforma software di questo tipo tiene sotto costante controllo il comportamento dell’I/O ed è in grado di scegliere automaticamente in tempo reale e in modo intelligente cosa utilizzare tra memorie cache dei server, storage flash e tradizionali risorse basate su disco. Questo garantisce che ogni carico di lavoro venga assegnato al dispositivo o al livello di storage più adatto in base alle priorità e all’urgenza.
Il risultato è che oggi un data center definito dal software è in grado di offrire alle applicazioni più importanti livelli di prestazioni mai raggiunti prima, con un’efficienza ottimale nella gestione dei costi e con il massimo ritorno sugli investimenti già effettuati nello storage.
Una volta virtualizzate le applicazioni di primo livello che fanno un uso intensivo dell’I/O, la piattaforma di virtualizzazione dello storage ne garantisce la disponibilità. Lo fa eliminando gli anelli deboli e gli elementi non funzionanti tramite separazione fisica invisibile a livello applicativo che riguarda diversi locali o siti remoti e che grazie a funzionalità di auto-recovery garantisce i più elevati livelli di continuità operativa.
La giusta piattaforma, evidenzia Teixeira, può virtualizzare in modo efficace qualunque tipologia di storage venga utilizzata, sia collegata direttamente sia connessa via SAN, per ottenere un ambiente di storage robusto e reattivo in grado di supportare ambienti IT virtuali altamente dinamici.
In conclusione, le piattaforme di virtualizzazione dello storage hanno portato al momento decisivo per il data center definito dal software. Le prestazioni, la velocità e l’elevata disponibilità necessarie ad applicazioni e database critici in ambiente virtualizzato oggi sono state raggiunte. Le barriere sono state rimosse ed esiste un percorso chiaro e supportato, ritiene DataCore, per ottenere un’ancora maggiore efficienza nella gestione dei costi.
Nessun commento:
Posta un commento