Un percorso obbligato, inevitabile e necessario:
green IT, risparmio energetico, efficienza e riduzioni dei consumi. Un'evidenza ai più che non ha ancora raggiunto una coscienza tale da "fare sistema". La consapevolezza c'è, le singole soluzioni anche, mancano strategia evolute e condivise e un approccio gobale, orientato a politiche alternative lungimiranti sul fronte tecnologico e attente dal punto di vista economico.
Questi alcuni temi al centro del convegno
"Le sfide del green data center per Expò 2015 - dalla virtualizzazione al capacity planning," organizzato di recente dal
Politecnico di Milano.
L'appuntamento dell'Expò 2015, con l'enorme quantità di dati che si porta dietro,
pone la sfida di gestire questo patrimonio informativo prestando attenzione al risparmio energetico, non solo a livello di infrastrutture hardware, data center in primis, ma anche di software. E
l'industria Informatica in questo contesto può dare un importante contributo.
Come ha spiegato
Eugenio Capra, Ricercatore PostDoc, Politecnico di Milano e Project Manager della Fondazione del Politecnico di Milano: "
Affrontare il Green It è molto importante per diverse ragioni: "
L'industria informatica ha un impatto ambientale significativo.
E' responsabile di oltre il 2-3 % delle emissioni totali di CO2, al pari dell'industria aeronautica.
L'It, inoltre, costa in termini di consumo energetico: costa più alimentare e raffreddare un server che acquistarlo. La spesa mondiale annua per raffreddare e alimentare un server equivale al 60% della spesa per acquistare nuove macchine. Si pensi che in Italia l'energia rappresenta quasi il 20% delle spese di gestione di un data center.
E inoltre il fabbisogno energetico è un limite alla scalabilità dell'IT: in alcuni situazioni la densità di energia assorbita dai data center ha superato i 20 Kw/m2. I gestori della rete elettrica potrebbero trovarsi nella situazione di non riuscire a convogliare così tanta energia in un punto e modificare le infrastrutture di rete in aree urbane non è un'operazione facile".
Per questo
diventa sempre più prioritario e urgente affrontare il tema del green It sotto diversi aspetti. Uno sicuramente è quello di puntare allo sviluppo di infrastrutture tecnologiche in ottica green.
[tit:Apc applica principi termodinamici al datacenter]
E qui entra in gioco Apc. Alcune riflessioni sull'importanza di realizzare data center che utilizzano
in modo efficiente l'energia arrivano proprio da
Fabio Bruschi, alla guida di Apc by Schneider in Italia, azienda che, con un organico di 12 mila persone in 190 paesi (80 in Italia), si focalizza sullo sviluppo e sulla realizzazione di data center ad alta efficienza.
La società, per aiutare le aziende a capire come muoversi in modo corretto in termini di efficientamento energetico, ha fondato con altri vendor (Amd, Dell, Hp, Intel, Microsoft, Rackable Systems, Spraycool, Sun e Vware, nel tempo se ne sono aggiunte altre)
The Green Grid, associazione di professionisti It che cercano di aumentare in maniera significativa l'efficienza energetica dei Data Center attraverso una serie di proposte.
Cosa succede in un data center da un punto di vista energetico? Come ha spiegato Bruschi "Il 50% dell'energia che entra in un data center si disperde in sistemi di distribuzione e trasmissione dell'energia (dispositivi elettrici: quadri, cavi,...); questo 50% passa negli alimentatori dove si disperde un altro 40% di energia;
ma la grossa trasformazione dell'energia in calore si ha nei sistemi di elaborazione. E raffreddare un data center ha un costo molto elevato".
Il 45-60% dell'energia di un data center è utilizzata per i sistemi di condizionamento (cooling). Per le aziende la bolletta elettrica rappresenta già il 20% della spesa totale IT, percentuale che potrebbe arrivare al 50% in breve tempo (Gartner).
"Per fare un esempio, ha proseguito Bruschi, un data center medio da 1 Mega Watt con una Power Usage Efficenty di 3,5 (valore tipico di un data center tradizionale non sviluppato con tecnologie innovative) spreca in un anno 400 kWatt che equivale a dire: 280 mila euro in bolletta energetica, 2.000 tonnellate di Co2 prodotte (che dal punto di vista ambientale non è certo un valore di cui pregiarsi), 400 auto nel traffico quotidiano".
[tit:La formula di Apc]
Da una ricerca condotta nel mese di maggio da Datacenter Reaserch Group, riferita a aziende con complessivi 25.000 rack su 100mila metri quadrati, con investimenti per il data center di 900 milioni di euro nel 2009-2010,
emerge la tendenza a investire sui data center non tanto in termini di capacità elaborative (questa la maggior priorità fino a 12 mesi fa) ma
soprattutto in termini di: virtualizzazione, miglioramento dei sistemi di raffredamento, incremento dell'efficienza energetica, riduzione dei costi operativi. Tutti processi strettamente correleati gli uni con gli altri.
"La virtualizzazione, ha spiegato Bruschi, deve essere considerata un punto di partenza più che di arrivo, che offre interessanti opportunità per ottenere risparmi in termini di energia e condizionamento. Ma attenzione, la semplice riduzione di server non si riflette completamente in risparmio energetico; si eliminano i costi fissi ma non quelli di alimentazione e raffrescamento. L'energia totale si riduce solo per la riduzione dei server, la bolletta elettrica è minore ma l'impatto dei costi fissi sul totale è maggiore. Occorre, quindi, agire su più livelli".
Sull'esperienza derivante dal progetto The Green Grid,
Apc ha definito quattro principi termodinamici prioritari, le cosiddette 4 C, per progettare un data center in ottica di risparmio energetico:
- Capacità di dimensionare in modo corretto le risorse all'interno del data center.
E' fondamentale disporre di sistemi modulari in grado di crescere con le esigenze della sala. La virtualizzazione concentra la capacità elaborativa in alcuni punti del data center e in quei punti è necessario avere massima energia e massimo condizionamento. I sistemi elettrici in generale hanno la caratteristica di essere maggiormente efficienti all'aumentare del loro utilizzo; quindi è necessario che i sistemi siano ben dimensionati e utilizzati al massimo della velocità nella maggior quantità di tempo possibile.
- Condizionare vicino alle fonti di calore
. E' più facile ed efficiente raffredare aria molto calda piuttosto che aria fredda. Quindi è importante prendere l'aria alla temperatura più alta possibile. Come si fa? Distribuendo file rack, retro con retro; all'interno delle file di rack si posizionano i condizionatori che prendono l'aria calda dalla corrente di caldo, la condizionano e la 'sparano' nel rack. Per raffreddare una sala virtualizzata per Apc
il modo più idoneo non è quello di ricorrere a sistemi di raffredamento perimetrale ma servirsi di
un raffrescamento basato su tecnologie "In Row" (in fila) per gli hot-spot, inserendo sistemi di condizionamento all'interno delle file di rack.
- Contenimento dell'aria calda.
Il sistema di contenimento dell'aria calda è indispensabile, soprattuto per l'utilizzo estensivo dei blade center.
- Disporre di software di
Capacity management (per gestire il tutto).
Con la virtualizzazione i server sono utilizzati in modo diverso a seconda del momento in cui stanno lavorando. Come si gestisce quindi un data center dinamico per evitare sprechi? Con un software in grado di allocare in modo dinamico le risorse elettriche e di raffrescamento all'interno del DC a seconda delle esigenze di calcolo e consenta di fare simulazioni what if all'evolversi della struttura. Risulta quindi importante distribuire le risorse di alimentazione e condizionamento in tempo reale dove serve rispondendo alle esigenze dettate dai software di virtualizzazione in un processo di adattamento dinamico. E anche progettare in modo automatizzato il layout, per il posizionamento ottimale dei dispositivi, effettuare analisi dei flussi d'aria , posizionando i muovi dispositivi senza creare punti caldi attraverso simulazioni; capire la capacità riguardo a spazio, potenza, raffreddamento per una progettazione ideale; effettuare simulazioni, analisi di scenari di crescita o di modifica dell'architettura per verificarne gli effetti sui flussi di calore e sui carichi.
[tit:Il ruolo dell'Università]
"
Il problema, ha spiegato
Eugenio Capra - in linea con le riflessioni formulate da Bruschi -
va affrontato e inquadrato a vari livelli: riguarda sia l'infrastruttura hardware ma anche la componente software, e coinvolge attori diversi (i vendor dei data center, quelli di tecnologia, gli utenti).Per ottimizzare il consumo di energia si può fare leva su diversi aspetti. Nel caso
dell'infrastruttura (il layout fisico) si può agire su
sistemi di condizionamento a potenza variabile e sullo sviluppo di componenti infrastrutturali ad alta efficienza energetica. In alcuni casi si sta pensando anche di utilizzare la corrente continua. Per i
server, dove vi sono diversi componenti ausiliari che assorbono l'energia (dischi, v
entole, i convertitori di corrente, storage), si può
intervenire costruendo componenti green, per esempio ventole a velocità variabile e in generale architetture green. A livello di
processore (che molto spesso non funziona al massimo delle prestazioni) si può ragionare in termini di realizzazione di processori green, oppure si può
intervenire in termini di virtualizzazione e bilanciamento dei carichi di lavoro. Si sta pensando di ricorre anche al
calcolo parallelo, che però risulta efficiente solo se il software che gira su quelle macchine è pensato per quella modalità".
"Al pari dell'hardware (ma forse ancora di più), ha sottolineato Capra, risulta molto importante considerare l'impatto energetico del software (e non solo le performance di questo) e i parametri di efficienza in quest'ambito.
Argomenti questi toccati dal progetto Energ-It, che vede coinvolti dal punto di vista accademico il Politecnico con la Fondazione Politecnico di Milano, le aziende beta80, Enter e Neptuny, e Idc e Mox sul fronte consulenziale.
Il progetto, i cui risultati sono attesi per il 2010, punta a: definire e sviluppare una metodologia di progettazione sia logica che fisica di un data center orientata ai costi (per bilanciare i carichi di lavoro) che tenga conto anche dell'efficienza energetica; definire una metodologia per la gestione operativa del data center in tempo quasi reale per ottimizzare i consumi energetici; realizzare un cruscotto per supportare la progettazione e la gestione del data center integrando gli strumenti già esistenti; definire le competenze e i profili professionali necessari al green data center, mettendo a punto programmi formativi e di trasferimento tecnologico.
[tit:Neptuny: un capacity planning olistico]
Come visto anche l'attività di Capacity planning è un tassello importante nel processo di ottimizzazione di un data center dal punto di vista energetico.
Neptuny è una realtà giovane, nata nel 2000, in seno al Politecnico di Milano, che fornisce soluzioni di Performance Optimization e Capacity Planning per grandi data center, reti e per servizi e applicazioni business critical.
Con un organico di 75 persone indirizza il tema del Capacity Planning anche in ottica di cloud computing. Un capacity planning, concepito non come attività occasionale, ma da fare tutti i giorni, democratizzandolo e portandolo sulle singole scrivanie. Un approccio olistico, che passa dal concetto di riutilizzo dei sistemi già in uso, e che prevede un ecosistema unico che prende in considerazione le differenti applicazioni, dal server alla presa elettrica.