I Data Center sono sempre più sistemi integrati e complessi; per questo l’approccio “green” non basta più; è tempo di passare dalla mera sostenibilità ambientale alla sostenibilità integrale

I dati Gartner proposti a maggio evidenziano la contrazione del mercato dei server registrata nel 2009, una contrazione di fatturato pari al 16,5% e un ridimensionamento dei volumi complessivi pari a 16,8 punti percentuali. Nonostante questo scenario, gli analisti ritengono che a partire da quest’anno il segmento torni a crescere, pur lentamente, con un recupero di fatturato pari a 2,4 punti percentuali. Se la crescita dunque dovesse essere in linea con le previsioni attuali, presto le aziende più grandi e strutturate si troveranno, ancora una volta, ad affrontare la razionalizzazione e l’ottimizzazione dei propri data center, completando progetti di virtualizzazione o applicando nuove soluzioni strutturali e distributive.

 

Il kiasma delle tecnologie
Sono anni che il tema della tecnologia Green è al centro delle scelte aziendali, tanto di chi utilizza l’IT quanto di chi la fornisce e la distribuisce. Il caso dei data center, però, è di particolare interesse perché rappresenta la sintesi di molteplici aspetti tecnici; il data center, infatti, è il kiasma delle tecnologie, il punto d’incontro in cui si incrociano le esigenze di raffrescamento, di fornitura, di spazio. Da un punto di vista ambientale ed economico il data center pone gli stessi problemi di un edificio soggetto a diagnosi energetica. C’è un involucro da studiare e ottimizzare, c’è un volume organizzato e ci sono “componenti di arredo” fortemente energivori che necessitano di razionalizzazione. L’obiettivo finale è proprio quello di contenere il consumo energetico (con conseguente riduzione della Co2 emessa). Tuttavia, se dovessimo sposare un approccio “green” davvero integrato, avremmo bisogno di valutare altri aspetti, in primis la scelta dei materiali, che dovrebbero essere a basso impatto ambientale, materiali cioè a filiera corta, facilmente smaltibili e altrettanto facilmente riutilizzabili. Se questo fosse l’approccio, ritengo che la definizione di Green Data Center avrebbe bisogno di una rivisitazione sostanziale; non più e non solo “green” ma innanzitutto sostenibile; ecco, Data Center sostenibili, è così che mi piacerebbe sentir parlare dei Data Center perché il Data Center è prima di tutto un sistema complesso e integrato di tecnologie costruttive e tecnologie informatiche. Non si tratta di una sterile disquisizione semantica; si tratta piuttosto di un’evoluzione del concetto di “verde”, peraltro ormai un po’ datato, almeno nel resto del mondo occidentale che di questi temi applicati all’IT discute dalla fine degli anni Novanta, ben prima che si trasformasse in una sorta di moda “globale”.

 

Razionalizzare ciò che esiste e valutare l’impatto del nuovo
Gli studi di Gartner hanno messo in luce che, sebbene i server consumino solo il 15% dell’energia dei data center, essi generano un effetto a cascata sulla cui comprensione è necessario ragionare. Più server ci sono più calore (ovvio!) è generato; cresce così, di pari passo, la richiesta di climatizzazione e, appunto a cascata, la richiesta di energia elettrica, di spazio, di tecnologie di controllo. Per questo Gartner raccomanda di non sottostimare mai l’impatto di nuovi server. L’invito, in particolare, è a misurare con attenzione l’impatto, in modo che siano chiari gli ordini di grandezza (in crescita) necessari per dimensionare impianti di raffrescamento, forniture energetiche, soluzioni alternative per l’ottimizzazione degli spazi disponibili. Nelle aziende più grandi tutto questo si deve tradurre nella collaborazione tra équipe di facility management, gruppi Infrastructure & Operations, team di architetti e di sviluppo delle applicazioni. Gartner suggerisce inoltre di dotarsi di tool di monitoraggio che permettano di controllare il consumo energetico, prevedere i picchi, ottimizzare la distribuzione e i consumi. Per le imprese che prima della crisi hanno avviato progetti di consolidamento e virtualizzazione è questo il tempo di portare a compimento quanto avviato; uno sforzo che potrebbe portare a liberare spazi preziosi e ridurre i consumi previsti. Ci sono poi scelte e accorgimenti più semplici da attuare (che ben si adattano alle esigenze di aziende di piccole e medie dimensioni) che prevedono la razionalizzazione dell’esistente. Cominciamo dai pavimenti dei data center, in genere galleggianti, visto che l’intercapedine è utilizzata proprio per il passaggio dei cavi. La stessa intercapedine si trasforma in un volume che, raffreddato, contribuisce alla climatizzazione uniforme del locale, purchè si abbia l’accortezza di non lasciare aperte torrette o pozzetti utilizzati di solito per il passaggio dei cavi. Anche le posizioni lasciate libere nei rack devono essere chiuse; in genere si utilizzano pannelli in plastica; la soluzione riduce il consumo, evitando che si raffreddino volumi, per quanto piccoli, che non hanno alcuna esigenza del genere. Altrettanto critica è la distribuzione interna dei rack; nelle disposizioni classiche gli armadi rack sono distribuiti come i banchi in una classe di scuola. Si tratta di una soluzione poco efficiente che fa sì che l’aria ormai calda in uscita da un rack si mischi con quella fresca della efila che segue o precede, riducendo l’effetto raffrescamento del flusso d’aria e costringendo ad abbassare la temperatura complessiva dell’impianto, senza per questo risolvere il problema dei punti di concentrazione del calore. L’esperienza degli ultimi dieci anni, invece, ha dimostrato che organizzare i rack in modo da avere corridoi caldi e corridoi freddi migliora la distribuzione complessiva della temperatura, riducendo il consumo complessivo.

 

Un occhio attento a ciò che sta fuori dal Data Center
Il data center è l’espressione concreta, tangibile delle esigenze aziendali. E’ la materializzazione delle necessità informative, il luogo fisico in cui realizzare il “Real Time”, tuttora tra le priorità d’impresa. Quanto più le aziende sono estese tanto più è necessario disporre di filiali integrate, le cui piattaforme di acquisizione e condivisione permettono l’uso, altrettanto integrato, di dati e applicazioni. Il complesso apparato normativo e legislativo, sempre più articolato ed eterogeneo, obbliga inoltre a scelte tecnologiche che facilitino il controllo della compliance, attraverso la comunicazione delle diverse piattaforme. In un’azienda estesa tutto ciò si traduce nel riassetto funzionale di quanto sta al di fuori del data center, attraverso il progressivo re-indirizzo, là dove possibile, di funzioni che possono tornare a essere di competenza proprio del data center, lasciando alle unità esterne solo le infrastrutture IT strettamente necessarie. La disponibilità di strumenti del networking sempre più affidabili contribuisce a realizzare quel processo di progressiva centralizzazione nei data center osservato negli ultimi cinque anni; quando non si tratta di vera e propria centralizzazione si osserva spesso il ricollocamento funzionale delle reti stesse. Perché tutto ciò possa funzionare è necessario far ricorso alle tecnologie chiave del netwoking, nella maggior parte dei casi Ethernet ad alta velocità, strumenti per il governo del flusso delle applicazioni come gli Adc), switching Ip Wan e routing via Mpls, Vpls e Vpn. Questa architettura offre la trasparenza necessaria là dove richiesta, permette la flessibilità indispensabile per rispondere a molteplici scenari di disaster-recovery o di business continuity e, al tempo stesso, contribuisce a raggiungere l’obiettivo della sostenibilità, proprio grazie alla razionalizzazione dell’esistente. L’infrastruttura Real Time che fa del networking l’elemento portante richiede architetture IT innovative che superino l’impostazione di un tempo a silos di dati (impostazione peraltro ancora molto diffusa); il networking stesso, in buona parte delle imprese, è tuttora considerato un dominio a sé governato da un network manager. Non basta disporre di data center avveniristici; senza un network adeguato l’eccellenza rischia di rimanere confinata tra le mura del centro, incapace di raggiungere l’intera azienda. Proprio per non correre questo pericolo, nel 2008 Gartner ricordò agli imprenditori di avviare con rapidità il processo di “cross pollination”, in grado di costruire e diffondere gruppi di esperti in storage, networking e applicazioni, destinati a lavorare insieme. A queste figure, aggiungo io, oggi sarebbe opportuno affiancare l’energy manager, al quale rivolgersi per tutte le valutazioni di impatto sulla sostenibilità delle scelte tecnologiche programmate, dentro e fuori i data center.