Machine learning, big data e cloud sembrano mettere a dura prova i data center (dc) richiedendo agli operator un considerevole innalzamento della densità di potenza (power density), ovvero l’energia elettrica impiegata.
Per far fronte al crescente numero di workload ma allo stesso tempo sfruttare fino all’ultimo metro quadro disponibile, si sta puntando su rack tra i 5 ed i 13 kilowatt (con punte di 25-40kw nei dc degli hyperscale provider) ma anche su nuovi sistemi di refrigerazione che possano gestire in modo più adeguato il calore generato dai macchinari.
L’editorialista Grant Gross del portale Data Center Knowledge ha analizzato recentemente il fenomeno evidenziando “cause e conseguenze” legate al trend della power density. Vediamo di riassumerne le parti principali:
- Kilowatt più che raddoppiati rispetto al decennio 2000-2010. Come accennato in apertura, si è passati da una power density dei rack tra i 3kv ed i 5kw ad una compresa tra i 5kw ed i 13kw. Se si parla di colocation provider, i valori salgono da 150 watt per piede quadro (1 metro quadro equivale a 10,7 piedi quadri) a 250/300 watt, con punte di 400 watt.
La maggior rilevanza degli hyperscale workload ha costretto i data center designer a cambiare strategia e ad abbandonare il precedente modello dei rack diffusi a bassa densità. Big data, IA, HPC (high performance computing) e machine learning richiedono maggiore power density.
- Efficienza ed abbassamento dei costi. Le imprese desiderano rendere ancora più efficienti i reparti IT ottimizzando i costi e tagliando le spese superflue.
Il cloud computing e la virtualizzazione sono ideali per raggiungere tali obiettivi perché permettono di abbassare il numero di server utilizzati, incrementando le percentuali di utilizzo ed abbassando le spese totali (2 server sfruttati all’80-90% sono meno costosi e più efficienti di 5 server al 20%). Le aziende più grandi vedono invece nell’alta densità un modo per gestire il capex ed abbassare i costi operativi.
- Evoluzione dell’hardware. I server moderni richiedono più energia perché necessitano di montare un maggior numero di periferiche e componenti, dalle card I/O fino alle schede video (GPU) ed ai chip programmabili (FPGA o field programmable gate arrays), senza dimenticare le memorie (RAM), gli hard disk e gli SSD. L’evoluzione dei server è stata influenzata dal crescente bisogno di spazio d’archiviazione a livello globale ma anche dal rallentamento dell’industria dei processori (lato potenza computazionale): AMD ma soprattutto Intel, è di fine aprile la notizia dell’ennesimo rinvio delle soluzioni a 10 nanometri, non riescono infatti a soddisfare l’enorme sete di risorse dell’industria moderna ed a tenere il passo della Legge di Moore. E’ per questo che le schede video (utilizzabili in parallelo) e gli FPGA si sono affiancati ai processori acquisendo sempre più importanza – perché in grado di aumentare sensibilmente la potenza di calcolo disponibile (anche di 20-50 volte nelle configurazioni multi GPU) ed eseguire in modo più efficiente impegnativi workload.
- Sistemi di refrigerazione e maggiore complessità. Un ambiente ad alta densità comporta cambiamenti anche nella progettazione delle infrastrutture, in particolare modo nella collocazione degli impianti di refrigerazione. Se nei “vecchi” (legacy) data center questi ultimi erano collocati sul perimetro dell’edificio ed erano principalmente ad aria, nelle infrastrutture all’avanguardia ci si sta orientando verso sistemi a liquido (due varianti delle quali parleremo a breve) in prossimità degli ambienti di lavoro.
Con l’incremento della densità e del calore generato, appoggiarsi ad una soluzione ad aria diventa infatti più complesso e costoso, osserva un esperto interpellato da Grant Gross, riferendosi anche al delicato lavoro di separazione e convogliamento dei flussi d’aria. Il liquido offre una capacità di dissipazione superiore rivelandosi quindi più efficiente.
Oltre ai “classici” impianti con radiatori, pompe e waterblock si sta sperimentando anche l’immersione diretta dei server in speciali fluidi dielettrici. Il liquido, osserva tuttavia un esperto, richiede non solo uno staff tecnico altamente specializzato ma anche un monitoraggio più attento dei componenti del sistema di refrigerazione (che sono molto più numerosi rispetto ad un impianto ad aria). Da ricordare inoltre imprevisti vari quali bolle d’aria, rottura di pompe etc. e perdite di liquido (con danni irreparabili all’l’hardware se non dielettrico).
Più in generale, sono gli stessi ambienti ad alta densità, indipendentemente dalle soluzioni scelte, a rivelarsi molto più impegnativi da gestire e salvaguardare – osserva l’editorialista. “Un rack ad alta densità, nel caso in cui si verifichi un guasto all’impianto di dissipazione, può surriscaldarsi in meno di un minuto mentre [con un rack da 4kw] i tecnici hanno molto più tempo per diagnosticare e risolvere [il problema]”.