Italia
Uno dei modi con cui le imprese possono ridurre costi e ottimizzare le risorse e nel contempo impostare una politica di eco-sostenibilità è quello di consolidare le loro server farm, sfruttando le tecnologie di virtualizzazione e riprogettando la componente rete dati e la componente di storage. L’esperienza che Italtel ha sviluppato negli ultimi anni in questo settore le permette di giocare un ruolo significativo nel mercato dei Global Solution Integrator.
1. Migliaia di mq di data center
Il Data Center, ovvero il luogo (fisico o virtuale) dove ogni azienda gestisce le proprie risorse di Information Technology, è il cuore pulsante di ogni organizzazione. Garantendo la memorizzazione, la gestione, la distribuzione di dati e informazioni pregiate relative al know-how e al business aziendale, il data center può essere considerato la sala di regia e il motore che sottende a tutte le applicazioni gestionali e di business intelligence, grazie alle quali l’azienda letteralmente ‘vive’.
La specificità del business di Italtel fa sì che oltre al ‘classico’ data center (che ospita le applicazioni gestionali e quelle di supporto alla comunicazione come file server, call manager VOIP, eMail, DNS/DHCP), siano presenti altre due specifiche tipologie di infrastrutture tecnologiche utilizzate rispettivamente per sviluppare i prodotti di Italtel (e dette ‘software farm’) e per supportare le attività di testing e di assurance delle installazioni effettuate presso i Clienti (test plant).
* Il data center gestionale / applicativo è distribuito nelle sedi di Milano, Roma e Palermo, ed è costituito da circa 120 server fisici e 130 server virtuali (in esecuzione su 9 server fisici) e una Storage Area Network (SAN) di circa 47 Terabyte. Il data center occupa circa 240 mq attrezzati ed costa circa 95k/anno di condizionamento / alimentazione elettrica / illuminazione.
* Software farm: sono ambienti tecnologici e applicativi dedicati a supportare lo sviluppo dei prodotti proprietari e lo sviluppo di soluzioni IT, costituite anche dall’integrazione di tali prodotti con componenti di terze parti o con componenti di architetture presenti dal cliente. Le software farm sono costituite da circa 110 server che occupano circa 100 mq nel CED di Milano e altrettanti nel CED di Palermo: questi usufruiscono di servizi centralizzati di storage e back-up e sono caratterizzati da server dedicati alle componenti più ‘vecchie’ dei prodotti proprietari (80 server fisici e 15 virtuali in esecuzione su 4 server fisici). Tra alimentazione elettrica e condizionamento / illuminazione Italtel spende per le software factory circa 190 k/anno.
* Test plant, ambienti tecnologici e applicativi di test e collaudo dei prodotti e delle soluzioni implementate presso i clienti. I test plant sono quindi sia degli ambienti di prova delle soluzioni IT di Italtel, sia dei ‘mirror site’ delle soluzioni implementate, utilizzati in questa veste per test di regressione e di bug-fixing. I test plant sono costituiti da circa 3.500 ‘oggetti tecnologici’ (server, telai, apparati di rete, storage …) e occupano circa 3.300 MQ a Milano e 1.500 MQ a Palermo. La spesa di alimentazione elettrica di circa 690 k /anno (oltre a circa 510 k/anno per condizionamento / illuminazione).
I dati numerici sono relativi alla metà del 2008, momento in cui Italtel si interrogò seriamente sulla possibilità di estendere e diffondere anche agli altri ambiti il modello ‘virtuoso’ (in termini di impatto ambientale e di economicità di gestione) applicato da ICT al data center gestionale. Infatti, se per quella data nelle software factory erano state parzialmente applicate da ICT metodologie di virtualizzazione e di consolidamento, i test plant continuavano ad essere costituiti da un parco macchine dedicato per linea di prodotto/cliente, con autonome capacità di storage. Inoltre nessun ragionamento era stato fatto all’epoca sull’architettura dei prodotti software proprietari in ottica di virtualizzazione.
La situazione eterogenea prima descritta (con il data center gestionale che rappresentava un esempio misurabile dei vantaggi ottenibili applicando le tecnologie di virtualizzazione) rappresentava dunque il punto di partenza.
Vediamo come è andata.
2. Consolidamento: la nostra esperienza
In linea con le nostre radici ingegneristiche e considerando la complessità gestionale e tecnologica dei data center e la loro criticità per il business dell’azienda, oltre alle non infinite capacità di investimento (come per altre aziende, anche noi abbiamo imparato a convivere con una costante situazione di crisi/emergenza), abbiamo strutturato il nostro approccio ai temi della virtualizzazione e del consolidamento in tre fasi:
a. Lo studio
Verso l’inizio del 2003 la direzione ICT avviò alcune sessioni di studio e sperimentazione per verificare la possibilità di impiego in ambito industriale delle neonate tecnologie di virtualizzazione applicate a sistemi operativi, storage ed applicazioni.
Costituimmo un laboratorio di sperimentazione, dove testammo e imparammo ad utilizzare ‘in vitro’ tecnologie Vmware (SX, GSX) e Citrix Metaframe, oltre che di Storage Area Network di EMC, e le applicammo a piattaforme e soluzioni Microsoft client e server. Costruimmo quindi macchine completamente virtuali, nelle quali il sistema operativo, insieme con l’applicazione, è del tutto indipendente dal server fisico. L’ambiente protetto consentì di lavorare senza criticità particolari e di dimostrare a noi stessi la qualità e l’efficacia delle soluzioni sperimentate. Inoltre acquisimmo la capacità di costruire business plan articolati per gestire gli snodi economico / finanziari di un progetto di virtualizzazione / consolidamento.
b. Il consolidamento del data center gestionale
Forti dell’esperienza maturata in laboratorio, verso la fine del 2003 lanciammo un progetto esecutivo pluriennale 2004-2008 (detto ICARO), basato su un business plan approvato dal top management, con l’obiettivo di ridisegnare l’intera infrastruttura ICT di Italtel. La nostra idea era quella di adottare soluzioni di virtualizzazione (di potenza di calcolo e di storage) non solo per un gruppo di server a supporto dell’ambiente di sviluppo o di applicazioni particolari, ma come soluzione infrastrutturale per l’intero data center gestionale.
Il progetto coinvolse progressivamente circa 400 server e 3 Storage Area Network, 2.200 client, tutti i servizi ICT comuni e la totalità del parco applicativo (dall’ERP SAP al sistema di Trouble Ticket, dalle piattaforme di BI ai sistemi Microsoft Exchange, Sharepoint, Project server, ai sistemi di antispam e di log collection). In sintesi sono stati virtualizzati più di 30 ambienti operativi ed applicazioni software di 16 diversi fornitori.
c. Il consolidamento dei test plant e delle software farm
Verso la metà del 2008 è stato lanciato un progetto di durata annuale con il duplice l’obiettivo di virtualizzare una componente numericamente significativa (circa 400 server) dell’infrastruttura di test plant e di consolidare le software farm. Il progetto ha indirizzato la revisione dell’architettura vera e propria dei prodotti software proprietari con l’obiettivo di renderli in grado di essere eseguiti su macchine virtuali.
Mentre la componente di progetto relativa ai test plant e alle software farm ha avuto un impatto essenzialmente interno (riduzione costi, maggior facilità di gestione), il progetto di revisione dei prodotti proprietari ha avuto anche un impatto diretto sul business, abilitando un nuovo modo di mostrare e vendere i prodotti proprietari aziendali. Per inciso, attualmente le soluzioni realizzate sono funzionanti su piattaforme VmWare.
I risultati più significativi raggiunti dal progetto di consolidamento dei test plant sono:
* Messa in esercizio senza discontinuità di servizio
* Riduzione dei server fisici da 240 a 30
* Riduzione delle Storage Area Network da 10 a 1
* Risparmi energetici per circa 120 K per anno
* Aumentata disponibilità dei servizi
* Risparmi in acquisti di hardware e software per 200 K (dato relativo al confronto tra budget e consuntivo del 2009).
* Il consolidamento delle software factory è passato attraverso la virtualizzazione di server VAX/VMS (per virtualizzare i quali abbiamo utilizzato il prodotto CharonXP). Alcuni dei risultati ottenuti dal progetto:
* Diffusione di un nuovo e più efficiente modo di lavorare in azienda: oggi più di 400 sviluppatori conoscono ed utilizzano piattaforme virtuali (Vmware e Xen);
* Tempi ridotti nel ciclo di sviluppo del software, grazie alla facilità di installazione e di ripristino di un ambiente di sviluppo e test;
* Maggiore efficienza operativa e riduzione dei costi di sviluppo e test;
* Indipendenza dalle piattaforme hardware.
I progetti per i clienti
La solida esperienza maturata da team interfunzionali sui progetti interni prima citati ha garantito la capacità di proporre soluzioni interessanti ai clienti.
Vincoli di riservatezza non ci permettono di entrare troppo nel dettaglio: posso però dire che due dei principali operatori italiani utilizzano un’architettura virtuale progettata e realizzata da Italtel per gestire servizi rivolti ai propri clienti business.
I nostri progetti hanno assicurato ai due service provider di ridurre il numero di server fisici in esercizio e nel contempo di migliorare l’affidabilità, le prestazioni e la sicurezza dei sistemi.
3. Cosa abbiamo imparato
L’esperienza maturata sia nei progetti interni che nello sviluppo di soluzioni per i clienti, ci ha consentito di individuare i seguenti fattori chiave di successo:
* Nella fase di progetto:
* Scelta di un global system integrator capace di curare tutte le aree tematiche interessate all’intervento (rete, storage, applicazioni, processi, etc.);
* Design accurato della componente networking (es. VLAN dedicate per il supporto della voce, delle funzionalità di Vmotion, per l’ottimizzazione della cablatura);
* Design accurato della componente storage (scelta della tipologia di dischi, della dimensione / taglio dei dischi, etc.);
* Semplificazione dell’architettura target (es. rottura dei cluster);
* Attenzione agli aspetti di sicurezza: segregazione dei ruoli di gestione; configurazione attenta della componente di automazione (hypevisor).
* Nella fase di deployment:
* Il compattamento dei server non virtualizzati sui rack rimanenti.
* Nell’esercizio:
* Tuning post installazione delle risorse hardware e software dei singoli server (host o virtualizzati).
Grazie alla riaggregazione su un ridotto numero di server della potenza di calcolo prima dispersa su più server, la virtualizzazione abilita sia l’aumento della percentuale di utilizzo dei server sia la contestuale riduzione dei consumi elettrici. In accordo con i dati di letteratura il tipico grado di utilizzo dei server non virtualizzati è di circa il 15%: dopo la virtualizzazione abbiamo riscontrato un grado di utilizzo dei server superiore al 65%, fatto che comporta una riduzione pari a circa quattro volte degli spazi fisici necessari, dell’hardware, dei costi di alimentazione e condizionamento dei device e dei locali tecnologici.
In sintesi quindi i vantaggi che abbiamo misurato possono essere così riassunti:
* Riduzione complessiva di consumo energetico intorno al 20%;
* Riduzione degli investimenti per acquisto di nuovo hardware, grazie alla possibilità di sfruttare meglio ciò che abbiamo in casa (-80%: confronto tra dati di consuntivo tra conto economico 2009 e 2008);
* Riduzione dei costi di gestione in esercizio (-70% di FTE: confronto tra dati di consuntivo tra conto economico ICT del 2009 e 2006);
* Riduzione delle spese operative (OPEX) per manutenzione (-50%, 2009 vs 2006);
* Maggior rapidità di provisioning dei server (da settimane a ore);
* Miglioramento del tempo di disponibilità dei sistemi.
Un’ultima componente, forse la più critica, è rappresentata dalle risorse umane. Poiché la virtualizzazione rappresenta un punto di discontinuità significativo rispetto ai modelli operazionali in essere, è difficile trovare amministratori di sistema già esperti. Noi abbiamo scelto di formare alcuni degli esistenti amministratori sulle nuove tecnologie. Ciò ha ovviamente richiesto del tempo, ma si è rivelata la scelta corretta, o almeno la scelta corretta per Italtel, per almeno due motivi: a) la gradualità dell’introduzione delle soluzioni di virtualizzazione ben si è sposata con il necessario percorso di formazione degli amministratori di sistema, che hanno potuto tra l’altro sfruttare la prima fase sopra prima descritta come ‘training on the job’; b) la disponibilità di risorse certificate ci ha consentito di costruire una proposizione commerciale in ambito ‘data center’, come di seguito illustrato.
Dove andremo
Le esperienze qui brevemente illustrate ci hanno permesso di integrare il nostro portafoglio di offerta con competenze specifiche nell’ambito del consolidamento dei data center.
Le competenze progettuali sono state integrate con un insieme di partnership tecnologiche: abbiamo concluso accordi commerciali di rivendita con importanti brand quali EMC2 e Dell, e abbiamo aggiunto specifiche certificazioni Cisco sul tema ‘data center’ (i.e. Nexus e UCS) alle altre già in nostro possesso.
Siamo quindi attrezzati per poter competere almeno alla pari con altri ‘system integrator‘ sul tema data center, potendo contare su una riconosciuta esperienza di disegno e gestione di architetture di rete complesse. Le prime risposte dal mercato ci incoraggiano a proseguire con impegno ed entusiasmo su questa strada.
Consulta il profilo Who is who di Silvano Pozzi