I data center sono infrastrutture tecnologiche avanzate grazie alle quali privati ed aziende possono usufruire di servizi definibili come indispensabili o quasi al giorno d’oggi (Internet, cloud etc.). E’ inoltre risaputo che, per funzionare adeguatamente, necessitano di un elevato quantitativo di energia: dai componenti hardware fino ai sistemi di refrigerazione e sicurezza, tutto richiede l’impiego di elettricità.
Il Dipartimento di Stato dell’Energia USA ha presentato alcune settimane fa un report che, per la prima volta, cerca di analizzare i consumi energetici dei data center nell’ultimo decennio individuando trend, possibili evoluzioni della domanda ed eventuali soluzioni per il conseguimento di uno sviluppo sostenibile del settore. Trattandosi di uno dei mercati di riferimento a livello globale, è allora interessante illustrare quali siano state le principali scoperte del team di ricercatori, iniziando dalla particolare dinamica dei consumi.
Retrospettiva: il problema dei consumi nel 2000
All’inizio del nuovo millennio, il problema dei consumi energetici dei data center attirà l’attenzione dell’opinione pubblica. Con l’espansione rapida di Internet, si iniziò infatti a pensare quale fosse l’impatto delle infrastrutture sulla “bolletta” nazionale – alcuni pubblici ufficiali erano convinti che la situazione sarebbe divenuta presto insostenibile. Anche la “lobby del carbone” colse l’occasione per dire la sua confezionando degli studi di dubbia obiettività – l’interesse principale era infatti quello di mantenere operative ancora a lungo le centrali a carbone e quale motivazione migliore del supportare la crescita della Rete e dei data center?
Dovettero passare circa 8 anni affinchè si giungesse al primo tentativo di monitoraggio/studio dei consumi: il report presentato al Congresso nel 2008, pur riscontrando un elevato consumo da parte dei data center, ridimensionò notevolemente le preoccupazioni dell’opionione pubblica, affermando come il problema fosse stato inutilmente ingigantito rispetto alla realtà dei fatti: con 61 miliardi di kwh (KiloWattora) assorbiti nel 2006, pari all’1.5% del totale consumato negli USA, i data center rappresentavano in sintesi una maxi bolletta da 4.5 miliardi di dollari. In base ai trend riscontrati, i ricercatori affermarono inoltre che nell’arco di 5 anni i consumi sarebbero quasi raddoppiati toccando quota 100 miliardi di kwh.
Un andamento inaspettato
A distanza di otto anni le proiezioni si sono rivelate inesatte. Con grande sorpresa del team di ricerca , la linea rappresentante la domanda d’energia industriale si è rivelata “piatta”: “sta rallentando ed attualmente i tassi di crescita sono regolari. […] Vi è un maggior numero di attività in corso ma queste avvengono in data center più efficienti” ha affermato Arman Shehabi, uno dei responsabili alla guida del rapporto 2016. Di seguito la tabella con i consumi preventivati ed effettivi:
I data center USA hanno consumato nel 2014 (ultimo anno per il quale si avevano dati disponibili) circa 70 miliardi di kwh rappresentando il 2% del fabbisogno nazionale o l’assorbimento medio di 6.4 milioni di abitazioni. Il dato interessante riguarda tuttavia la crescita dei consumi complessivi negli ultimi 15 anni: +90% tra il 2000 ed il 2005; +24% tra il 2006 ed il 2009; +4% tra il 2010 ed il 2014.
La tabella mostra poi chiaramente quale sarebbe potuto essere nel 2020 l’assorbimento totale se i trend del 2010 non fossero mutati, ovvero 200 miliardi di kwh. Come suggerisce l’infografica, sono state le efficaci politiche di risparmio energetico ad abbattere “la curva” dei consumi (620 miliardi di kwh risparmiati tra il 2010 ed il 2020) ma non solo: i progessi effettuati in campo tecnico/ingegneristico nella realizzazione di hardware/componenti vari/costruzione infrastrutture hanno ugualmente giocato un importante ruolo.
Dai server sulla scrivania ai mega datacenter (hyperscale facilities)
Il paradigma dell’efficienza si è affermato rapidamente nel mercato dei data center. All’epoca del primo report (2008) il settore non era stato ancora raggiunto dal “boom”. Gli analisti osservano tuttavia che nell’arco di due anni si passò dall’avere un server su ogni scrivania a vere e proprie server farm. Al fine di soddisfare l’accelerazione della domanda, un numero crescente di server iniziò ad essere collocato prima in una stanza, poi in un magazzino fino a quando non si resero necessarie delle strutture dedicate. Certo, la dinamica è stato notevolmente semplificata ma sul finire del primo decennio del nuovo millennio fecero la loro comparsa anche le hyperscale facilities, delle infrastrutture di considerevoli dimensioni alle quali brand noti come Amazon, Google, Microsoft si appoggiarono per supportare il proprio business (mediante costruzione diretta o leasing).
Ed è qui che si incrociano le due principali cause della “linea piatta” dei consumi energetici: il soprendente miglioramento delle strategie di risparmio/efficienza energetico/a ed il conseguente calo di spedizioni dei server. Soluzioni tecnologiche all’avanguardia hanno infatti consentito nell’ultimo lustro di aumentare non solo la potenza dei server ma anche l’efficienza, permettendo di ospitare ad esempio più VM su un’unica macchina ad una frazione del costo in bolletta di un corrispettivo sistema delle “precedenti generazioni”.
Il mercato dei server ha naturalmente accusato il colpo rallentando la propria corsa: da un +15% di acquisti dei server ed un raddoppiamento dei deploy (tra il 2000 ed il 2005) ad un +5% del quinquennio successivo (causa crisi economica del 2008 ed affermazione della virtualizzazione), fino al +3% del periodo più vicino ai giorni nostri – valore destinato a rimanere stabile fino al 2020.
Quali sfide attendono il settore
La prima sfida riguarda le infrastrutture di medie e piccole dimensioni. A livello globale ci sono ancora milioni di server sui quali è possibile intervenire per ottimizzare performance e costi, hanno aggiunto gli analisti. Si dovrà quindi procedere o alla loro efficientazione o dismissione – in questo caso sarà aggiunta nei data center super tecnologici una capacità equivalente a quella eliminata.
La seconda riguarda genericamente il futuro del settore. Il livello raggiunto attualmente dai costruttori di data center è ragguardevole ma potrà l’efficienza contrastare la crescente domanda di infrastrutture del mercato? La risposta è ovviamente negativa. I ricercatori sottolineano che vi sono stretti margini di miglioramento (lato infrastruttura e lato server): in pratica, pur raggiungendo un’ipotetico 100% di efficienza, non si riuscirebbe a tenere sotto controllo l’avanzata dei consumi. Si tratta di un tema sul quale riflettere ed al quale rivolgere presto l’attenzione, in modo da capire se sia possibile sostenere la domanda anche in un ipotetico futuro di “efficientazione al 100%”.