Data center Google: alla scoperta di un’infrastruttura enterprise

Ritorniamo a parlare di infrastrutture utilizzate da hyperscale provider, imprese che per supportare il proprio business necessitano di un’articolata rete di data center che si estende fino alle principali aree geografiche del globo.

In un precedente approfondimento abbiamo rivelato alcuni dettagli riguardanti l’infrastruttura sviluppata da Facebook per soddisfare le esigenze giornaliere di circa 1 miliardo di utenti. Il lavoro di Google non è certamente più facile: oltre a gestire il motore di ricerca più famoso ed utilizzato del Web, è anche l’azienda dietro all’ecosistema Android (alla quale fanno riferimento milioni di device che accedono a servizi come PlayStore, PlayMusic e via dicendo) ed AdWords, senza dimenticare Google Cloud Platform.

Per rendere ancora meglio l’idea, in relazione al solo motore di ricerca Mountain View deve occuparsi di circa 40 milioni di ricerche al secondo, 3.5 miliardi di ricerche al giorno e circa 1.2 bilioni di ricerche all’anno. Secondo alcune dati relativi a novembre 2015, Google è utilizzato da circa 1.5 miliardi di utenti mentre un altro miliardo utilizza il servizio di posta elettronica Gmail.

La volontà di competere con Microsoft e soprattutto AWS nel competitivo settore dei servizi cloud IaaS enterprise è uno dei motivi principali dietro alla costruzione di nuovi data center ai quali, negli ultimi 3 anni, sono stati destinati circa 30 miliardi di dollari.

Panoramica a livello globale

L’elenco ufficiale dei data center Google è in continuo aggiornamento. L’azienda non vi include tuttavia l’esatta ubicazione dei caching site dai quali attinge capacità aggiuntiva per supportare le varie attività – i siti sono naturalmente concessi “in affitto” da vari colocation provider. Nel corso del Google Cloud Next 2017 , svoltosi dall’8 ed il 10 Marzo a San Francisco, la compagnia ha mostrato un’infografica che permette di inquadrare meglio l’ampiezza dell’infrastruttura Google:

Google Cloud Platform infrastruttura a livello globale

Come è possibile notare, l’infrastruttura Google tocca le principali aree del globo nonostante Russia e Cina, per motivi abbastanza prevedibili, restino ancora fuori dal suo raggio d’azione. Tra i vari annunci di Cloud Next 2017 anche quelli relativi alla costruzione di nuovi data center negli Stati Uniti (Western US, Central US, Eastern US), Europa (Western Europe) ed Asia (Eastern Asia) ed all’arrivo di nuove cloud region (indicate dai pallini blu): Londra, Francoforte, Paesi Bassi (location ignota), Finlandia (idem), Mumbai, Singapore, Sidney, San Paolo, California e Nord Virginia (location non ancora note). E per quanto riguarda il numero di server utilizzati? Anche in questo caso non abbiamo dati attendibili – recentemente Gartner ha stimato un numero di server prossimo a 2.5 milioni (Luglio 2016).

L’ingente investimento che la compagnia sta effettuando nell’opera di ampliamento è indispensabile per restare competitiva sul mercato (abbassando i tempi di latenza per i proprio clienti) e rispettare le varie normative vigenti in materia di trattamento dei dati sensibili – in Europa sarà ad esempio operativa dal 2018 la GDPR o General Data Protection Regulation.

Data center: dimensioni e costi

Quanto è grande un data center Google? Difficile dirlo: come al solito i dettagli ufficiali scarseggiano – anche se portali come Data Center Knowledge (DCK) sono riusciti a reperire alcuni dati interessanti da “fonti indirette”. In un paper pubblicato nel 2014 dalla 802.3bs Task Force si parla di dimensioni medie comprese tra i 15000 m² ed i 18500 (circa due campi/due campi e mezzo di calcio) anche se la compagnia è solita distribuire le macchine in più edifici piuttosto che concentrarle tutte in un’unica location. Se l’estensione può sembrare “modesta” rispetto alle strutture Facebook (anche 45000 m²), DCW ricorda che alcuni complessi (come quello di Pryor Creek, Oklahoma) raggiungono i 91000 m².

Per quanto riguarda il budget richiesto per la costruzione dei data center, l’ammontare varia in base alla capacità di cui Google intende disporre: in media 12000 costano circa 600.000$, come dimostrano le informazioni disponibili sui siti di The Dalles (Oregon) e Pryor Creek (Olkahoma). Il primo (175 dipendenti) è stato ampliato nel 2016 con un terzo edificio per un totole di 32700 m² e 1.2 miliardi di investimento – destinati a toccare quota 1.8 miliardi nel corso del 2017. Il secondo, inaugurato nel 2011, è partito ugualmente da una budget di 600.000$ ed una dimensione “standard” di 12000 m² ma sono tutt’ora in corso dei lavori per aggiungere superficie utile – la spesa totale passerà da 600.000$ a 2 miliardi di dollari.

Hardware, software ed efficienza energetica

Google ha iniziato fin dal “lontano” 2004 a progettare ed utilizzare soluzioni custom o più semplicemente “fatte in casa”. L’azienda si rivolge a fornitori che offrono i prezzi più vantaggiosi per le casse di Mountain View per poi assemblare e personalizzare in house gli strumenti per gestire le proprie attività. Dai rack design resi pubblici per via della partecipazione all’Open Compute Project, sappiamo ad esempio che la compagnia si affida ad una soluzione in grado di migliorare almeno del 30% l’efficienza energetica grazie a vari accorgimenti (es: corrente in ingresso a 48V e diretta alla scheda madre che procede agli aggiustamenti di voltaggio necessari a servire gli altri componenti hardware). Jupiter è invece il nome degli switch di rete, sempre realizzati in house, in uso da almeno quattro anni.

Un discorso simile vale anche per il software. In generale è possibile affermare che Google si affida a varianti “rinforzate” (quindi modificate allo scopo di renderne arduo l’hacking) di Linux. La lista stilata da DCW è lunga, riportiamo di seguito alcuni nomi: Google Web Server (web server custom basato su Linux), Colossus (il file system utilizzato al livello dei cluster), Caffeine (un sistema di indicizzazione permanente lanciato nel 2010), Borg (cluster manager), Google F1 (database relazionale distribuito impiegato al posto di MySQL).

Un’infrastruttura così estesa richiede una quantità non trascurabile di energia elettrica. Nel 2015, in base ai dati resi pubblici, Alphabet (la holding fondata nel 2015 per riorganizzare le attività di Google) ha consumato circa 5.7 terawattora (quanto la città di San Francisco). E’ facilmente ipotizzabile che buona parte di questa sia stata impiegata dai numerosi data center della compagnia, la quale adotta avanzati accorgimenti per migliorare l’efficienza energetica delle infrastrutture e ridurre le spese.

Con una Power Usage Effectiveness (PUE) media di 1.12, la compagnia afferma che le proprie strutture consumano circa la metà di quelle “standard”. A supportare lo staff incaricato anche avanzati sistemi di monitoraggio (PUE calcolata ogni 30 secondi) ed analisi dei dati di consumo. Il machine learning aiuta gli ingegneri a perfezionare e migliorare l’efficienza energetica offrendo utili modelli predittivi (precisione del 99.6%). Secondo quanto affermato da Google, l’IA creata da DeepMind (gli stessi che hanno sconfitto un esperto umano di Go) ha consentito nel 2016 di ridurre l’energia consumata dagli apparati di regrigerazione del 40% – PUE è stata ridotta del 15%.

Fonte: 1