Il data center virtuale: cos’è? Quando conviene?

Il data center virtuale: cos’è? Quando conviene?

Tradizionalmente si considera l’accezione di data center intesa come uno spazio fisico composto da server e cablaggi; cosa significa virtualizzare il data center?

Come abbiamo visto, per abilitare servizi estesi come il cloud è necessario disporre di infrastrutture hardware solide e ridondate; per attivare e rendere operativo un virtual data center è necessaria qualche accortezza in più. Di fatto, un VDC si caratterizza per la capacità di allocare e gestire risorse e repository in modo dinamico. Virtualizzare l’intera struttura significa trasportare su un altro livello ogni tipo di apparato che, tradizionalmente, è invece di tipo fisico, con proprietà, caratteristiche e limiti ben definiti. 

Tale soluzione rende superfluo l’acquisto di nuovo hardware a livello di impresa, così come è in grado di ridurre quasi a zero le problematiche di gestione e manutenzione tipiche di una infrastruttura IT “fisica”.

Il dinamismo e la versatilità dei VDC consentono di impiegare simili architetture virtuali in totale sostituzione dei data center presenti in azienda (soprattutto per le realtà più piccole), grazie anche a vantaggiose formule pay-per-use.
Per gli ambienti più estesi, invece, l’adozione di un virtual data center diventa a tutti gli effetti un’estensione della potenzialità del DC aziendale, seguendo una logica che può essere definita ibrida.
Il virtual data center, sempre in virtù delle tecnologie di virtualizzazione, rappresenta un’alternativa flessibile ed elastica, capace di adattarsi alle esigenze di business di ciascuna organizzazione. Di fatto, l’incremento (o la diminuzione) delle capacità dell’infrastruttura virtuale possono essere gestiti in funzione del carico di lavoro reale in un dato momento, seguendo i workload attivi e assecondando eventuali picchi di esigenze di elaborazione a livello di applicazioni e processi (si pensi ai siti di eCommerce sottoposti a forte traffico nel periodo prenatalizio o durante il Black Friday).
Tutto ciò può essere amministrato facilmente, con il minimo impatto a livello di gestione, prestazioni o all’affidabilità dell’infrastruttura stessa.

Il data center virtuale: cos’è? Quando conviene?

Cosa virtualizzare?
Scegliere una infrastruttura VDC significa optare per un ambiente dove macchine e risorse sono virtuali, allocate secondo le specifiche necessità. Il virtual data center è in grado di fornire le risorse dell’infrastruttura IT necessarie a sostenere il business delle aziende. Una simile architettura offre RAM, storage e applicazioni direttamente all’utilizzatore finale e consente di creare e gestire in autonomia macchine virtuali, architetture e reti virtuali, anche complesse.

Ai molteplici vantaggi si aggiunge la possibilità, da parte delle imprese, di costruire il proprio VDC in modo totalmente autonomo, selezionando componenti e infrastrutture in funzione delle reali necessità. L’ambiente virtuale può dunque essere asservito a logiche di integrazione con sistemi on-premise, oppure essere abilitato per la gestione e lo sviluppo di altri ambienti, per la gestione di nuove linee di business o, per esempio, per dare spazio a sviluppatori e aree di test che devono necessariamente rimanere slegati dai processi standard di produzione.
In generale, si tratta di un servizio ideale per chi ha bisogno di performance elevate, di risorse garantite, e necessita di poterle ampliare senza troppe complicazioni.

Trasformare il data center aziendale in un'infrastruttura cloud flessibile è possibile virtualizzando i server in uso. Il processo consente di consolidare e irrobustire l’intero ecosistema, appoggiandosi a piattaforme evolute e di comprovata stabilità, come per esempio quelle offerte da VMware.
Non solo, adottando un'architettura Software-Defined Data Center completamente virtualizzata è possibile virtualizzare le risorse di rete, lo storage, oltre agli appliance di security. Ciò significa semplificare il provisioning delle risorse IT e delle applicazioni, ma anche automatizzare l’accesso alle risorse, con una conseguente ottimizzazione delle prestazioni, della capacità, per il raggiungimento della piena conformità.

Adottando un approccio Software-Defined è possibile estendere il concetto di virtualizzazione (per esempio tramite VMware vSphere) oltre il layer di elaborazione, includendo rete e storage. Per esempio, implementando VMware vSphere è possibile estendere la virtualizzazione ai servizi di storage e di rete, assicurando funzionalità automatizzate di provisioning e gestione basate su policy.

Così facendo, la configurazione e la gestione dei servizi di data center diventano più semplici, in un modo del tutto analogo a quanto avviene per le VM.
All’atto pratico, la virtualizzazione di un server consente un risparmio energetico e una vera ottimizzazione delle risorse (secondo VMware un server tradizionale sfrutta meno del 15% della propria capacità). Avviando un processo di virtualizzazione di macchine server, e dei rispettivi servizi, è possibile sfruttare al massimo CPU e memoria, componenti che vengono di fatto separati dall’hardware base, al fine di creare pool di risorse utilizzabili da tutti i processi che ne facciano richiesta. Così facendo, ogni applicazione virtualizzata e il relativo sistema operativo sono incapsulati in un container software isolato e separato; su ciascun server possono dunque essere eseguite contemporaneamente numerose macchine virtuali, per sfruttare quasi tutta la capacità hardware disponibile. In sintesi: grazie alla virtualizzazione, l'IT può raggiungere obiettivi decisamente superiori con costi notevolmente inferiori.


Tra gli aspetti fondamentali nel processo di virtualizzazione c’è la gestione degli spazi di archiviazione e dei repository condivisi. Quando si parla di storage virtuale, si intende l’astrazione logica dei sistemi, che vengono gestiti tramite software e orchestrati attraverso una sola console centralizzata. I vantaggi sono evidenti: condivisione delle risorse, velocità di gestione, aggregazione di dischi fisici per creare array logici ad alta capacità e così via.
Sfruttando differenti livelli di astrazione tra il layer hardware e quello software è possibile approcciare la tematica utilizzando tecnologie differenti, funzionali a diversi ambiti d’impiego.

È possibile parlare di virtualizzazione dello storage basata su host quando si adottano dischi virtuali con capacità di ridimensionamento dinamico. È il caso di VM multiple che adottano file ospitati sul sistema host. In questo caso, il sistema si occupa di rappresentare lo spazio disco come un hard disk reale, nonostante si tratti di uno spazio virtuale, pronto ad espandersi in funzione delle esigenze del sistema ospitato.

Il data center virtuale: cos’è? Quando conviene?

In ambienti più estesi e articolati può venire in aiuto la virtualizzazione dello storage basata su array; un concetto che fa largo impiego della tecnologia di tiering. Si tratta di memorizzare i dati su più livelli hardware distribuiti, in modo da allocare i dati a maggiore accesso su storage veloci (tipicamente flash). Per ottimizzare costi e performance si impiegano SSD e HDD su differenti livelli, per soddisfare le esigenze di archiviazione, in termini di capacità, e la necessità di raggiungere elevate IOPS.
L’intero processo di tiering è automatico e migliora le prestazioni generali di accesso ai dati; l’interazione dati-piattaforma è gestita a livello di array e non passa dal sistema operativo.
Diversamente, numerosi ambienti operativi di nuova generazione mettono a disposizione funzioni di virtualizzazione dello storage (per esempio Windows Storage Space).

La modalità più pervasiva e trasversale, rispetto al livello hardware, è rappresentata dalla virtualizzazione del file system. In questo caso di parla di Distributed File System (DFS), capace di fornire una gestione consolidata dei dati in uso.
In questo modo, file e documenti possono essere letti e modificati dagli operatori in modo totalmente trasparente, senza che essi risiedano su un file server specifico. Tali file possono essere infatti ospitati e condivisi su più server.
Appoggiandosi a forme di virtualizzazione dei file system è inoltre possibile abilitare la replica dello stesso file system, un dettaglio molto utile per agevolare l’accesso degli utenti da remoto e la condivisione dei documenti aziendali, il tutto senza dover necessariamente scaricare i file tramite un collegamento WAN.

In alcune situazioni può essere particolarmente vantaggioso affidarsi a processi di virtualizzazione dello storage Fibre Channel, per realizzare vere e proprie SAN. In questo caso, switch FC consentono di virtualizzare e reindirizzare le richieste di I/O dello storage fisico senza utilizzare lo storage presente sul server e senza che sia nota e diffusa la tipologia dello storage installato tra i device in rete.
Non solo, adottando una Fibre Channel virtuale (virtualizzazione dello storage basata su host) è possibile consentire a una macchina virtuale la connessione diretta a un array o a una SAN Fibre Channel, il tutto sfruttando lo stack di virtualizzazione sottostante.
In questo modo è possibile connettere direttamente un server ai dispositivi virtualizzati disponibili sul canale, oppure creare un cluster basato su volumi condivisi e hypervisor.


Tra i trend a maggiore impatto degli ultimi anni c’è sicuramente il processo di virtualizzazione delle funzioni di rete; un approccio che stravolge i paradigmi della comunicazione e impatta notevolmente sull’operatività di provider e network operator. Virtualizzare queste funzioni con tecnologie open source e cloud, come per esempio OpenStack, permette di offrire nuovi servizi scalabili più velocemente e di automatizzare la gestione di rete.

NFV separa le singole funzioni di rete da hardware specializzato affinché possano essere gestite come software su più convenienti server standard. Queste funzioni comprendono i sottosistemi IP multimediali che, per esempio, offrono servizi aggiuntivi per reti IP-based o servizi di lingua per reti LTE, o connettono servizi di presenza. La network function virtualization getta le basi per il software-defined networking (SDN) che segmenta la rete in strati separati per l’analisi e il controllo dei dati (control plane) e il trasporto degli stessi (data plane). Il primo può essere completamente virtualizzato. Anche se è possibile virtualizzare le funzioni di rete senza l’SDN, combinare le due cose ottimizza le prestazioni NFV e semplifica operatività e manutenzione.

Il data center virtuale: cos’è? Quando conviene?

Virtualized network function permettono agli operatori di creare nuovi servizi e applicazioni in modalità software più rapidamente. Questi servizi possono scalare come necessario e offrire la possibilità di aprire nuovi segmenti di mercato e cogliere nuove fonti di fatturato, offrendo al contempo agli utenti nuove esperienze e prodotti. Infine, anche i clienti business possono trarre vantaggio dalla virtualizzazione. Idealmente gli amministratori possono fornire un acceleratore WAN o un firewall in modalità self-service. La piattaforma NFV deve essere solida e sicura, deve garantire elevati tassi di data transfer e minima latenza nella trasmissione del segnale. Le funzioni e gli elementi di rete virtuali devono inoltre essere compatibili con l’hardware prodotto da diversi provider e con differenti hypervisor. Le piattaforme NFV devono essere in grado di automatizzare l’orchestrazione e il lifecycle management di numerose virtual network function al massimo.

Al fine di ottenere risultati ottimali in ambienti complessi come questi, molti operatori preferiscono piattaforme NFV aperte come per esempio Red Hat OpenStack Platform. OpenStack, framework open source, è diventato il principale ambiente cloud per NFV e una community molto attiva continua a sviluppare OpenStack e tecnologie NFV aperte, garantendo innovazione che aiuta i network operator.
In quest’ottica, molte aziende del settore ICT stanno lavorando alla creazione di NFV reference architecture coerenti e ad alte prestazione basati su OpenStack che soddisfino le esigenze degli operatori. Il mercato sta ad esempio realizzando soluzioni volte a incrementare le performance dei server standard attualmente impiegati in termini di network function quali deep packet inspection, media gateway, e session border controller per aumentare il throughput dei dati (nel data plane).

Per poter crescere anche in futuro, l’NFV dovrà essere basato su un ecosistema di tecnologie e partner che lavorano per ottimizzare l’interoperabilità con le piattaforme hardware e migliorare le prestazioni, oltre a offrire più funzioni per la virtualizzazione.


Come detto, un VDC consente una gestione in piena autonomia delle piattaforme abilitate, il tutto grazie a una rete dedicata, trasparente e isolata dalle altre architetture gestite dal provider. Ciò garantisce performance, riservatezza e massima sicurezza, oltre a una grande scalabilità, con possibilità di upgrade o downgrade in tempo reale e modalità di gestione e pagamento “a consumo”.

Per garantire un’esperienza d’uso altamente flessibile e su misura per ciascuna impresa, Aruba propone il servizio Cloud PRO. I Server Pro sono infatti personalizzabili e configurabili senza limiti stringenti e offrono elevate prestazioni in termini di velocità e capacità computazionali. Sicurezza e stabilità sono garantiti dallo storage SAN ridondato.
Una delle principali caratteristiche che contraddistingue i Server Pro è la possibilità di poter scegliere l'hypervisor sul quale creare il proprio Cloud Server. L'offerta di Aruba Cloud prevede la possibilità di scelta tra VMware e Hyper-V.

Il data center virtuale: cos’è? Quando conviene?

Nel dettaglio, i Server Pro con manager Hyper-V utilizzano schede di rete da 1 Gbit/s; Hyper-V è consigliato per installazioni Windows e per le distribuzioni Linux supportate (RedHat/CentOS).
Analogamente, i Server Pro con manager VMware utilizzano schede di rete da 1 Gbit/s e possono integrare il software di gestione vSphere per controllare i Cloud Server direttamente da desktop client.

I Server Pro possono essere collegati fra di loro tramite Virtual Switch, in una rete privata. Al tempo stesso possono essere collegati a servizi evoluti, come ad esempio i bilanciatori, e non hanno limiti di traffico di rete né verso la rete Internet né per le reti private. Tali infrastrutture si avvantaggiano di una serie di funzionalità accessorie, quali per esempio gli snapshot, extracontrol, import ed export di immagini disco.
Non solo, l’amplia scelta di template e sistemi operativi, e l'estrema flessibilità nella configurazione, rendono l'offerta Cloud PRO indicata per svariate esigenze. A questo si affianca la possibilità di usufruire di una tariffazione oraria e collegata ai consumi (pay-per-use) con costi differenziati a seconda che il Cloud Server sia acceso, spento o archiviato.

Sommario