Due volte all’anno, a Giugno e Novembre, viene rilasciata la lista aggiornata della Top500, la classifica dei sistemi ad alte prestazioni più potenti in uso presso enti governativi, istituti di ricerca etc. Le posizioni sono determinate dal punteggio ottenuto con il benchmark Linpack, un test che prevede la risoluzione di complessi calcoli (equazioni lineari) ideato da Jack Dongarra, uno dei principali collaboratori della Top500 fin dall’esordio del 1993.
Prima di passare in rassegna le altre principali conclusioni tratte dai curatori del rapporto, è il caso di menzionare il sorprendente risultato di Linux: a Novembre 2016 l’OS open source risulta presente su 498 dei 500 sistemi in lista o sul 99.6% del totale. Dodici mesi fa era presente in 494 sistemi mentre nel 2010 in 460.
La 48ima edizione della top500 ha visto inoltre un sostanziale pareggio ai piani alti della classifica: USA e Cina ottengano infatti a pari merito il primato di Paesi con il più elevato numero di supercomputer, ovvero 171 a testa.
Solo sei mesi fa l’occidente aveva dovuto cedere il passo all’oriente – e si trattava della prima volta in assoluto dal 1993. Segue la Germania con 32 sistemi, il Giappone con 27, la Francia con 20 ed il Regno Unito con 17: 12 mesi prima gli USA erano invece a quota 200, la Cina a 108, la Germania a 33 ed il Giappone a 37.
Panoramica della top10
Quel che resta invariata è invece la top4 guidata da “due coppie” cinesi e statuinitensi, ovvero:
- #1 – Sunway TaihuLight presso il National Supercomputing Center di Wuxi. Il sistema raggiunge i 93 TFlop/s con Linpack (125 TFlop/s picco teorico) e dispone di 10,649,600 core e 1,310,720 GB di RAM. E’ il numero uno dalla Top500 di Giugno 2016.
- #2 – Tianhe-2 (MilkyWay-2) presso il National Super Computer Center di Canton. Il sistema raggiunge i 33,8 TFlop/s con Linpack (54,9 TFlop/s picco teorico) e dispone di 3,120,000 core e 1,024,000 GB di RAM. E’ stato il sistema più performante dal Giugno 2013 al Giungo 2016.
- #3 – Titan presso il DOE/SC/Oak Ridge National Laboratory. Il sistema ragiunge i 17,6 TFlop/s con Linpack (27,1 TFlop/s picco teorico) e dispone di 560,000 core e 710,164 GB di RAM. E’ rimasto in prima posizione dal Novembre del 2012 al Giugno del 2013.
- #4 – Sequoia presso il DOE/NNSA/LLNL. Il sistema ragiunge i 17,1 TFlop/s con Linpack (20,1 TFlop/s picco teorico) e dispone di 1,572,864 core e 1,572,864 GB di RAM. E’ rimasto in prima posizione dal Giugno 2012 al Novembre del 2012.
Si registrano invece due “new entry” alle posizioni 5 e 6 dove arrivano rispettivamente i sistemi Cori (14 TFlop/s) e Oakforest-PACS (13,5 TFlop/s). Entrambi i supercomputer si affidano al chip Xeon Phi 7250 a 68 core in grado di raggiungere i 3 TFlop/s di picco – soluzione che adotta l’interfaccia PCI Express 3.0, non si tratta di un classico processore su socket.
Piz Daint (9,7 TFlop/s) presso il Swiss National Supercomputing Centre è l’unico a non perdere terreno con l’arrivo dei due supercomputer appena citati. Come sottolinea anche il report la posizione numero 8 resta invariata grazie all’implementazione nel sistema delle ultime GPU general purpose Nvidia, le Tesla P100 basate su architettura Pascal in grado di fornire un boost prestazionale di 3,5 Teraflop.
Anche se al 12imo posto e quindi fuori dalla top10, è bene ricordare la presenza del supercomputer Marconi a Bologna con 241,920 core, 430,080 GB di RAM e un risultato di 6,7 TFlop/s (8,1 TFlop/s picco teorico).
Evoluzione tecnologica
Soluzioni come quelle Intel e Nvidia iniziano a rafforzare la propria presenza nel mondo dei supercomputer grazie ai non trascurabili incrementi di capacità di calcolo ottenibili ed affiancabili ai processori (da qui il termine coprocessori) per l’esecuzione di workload vari (machine learning, deep learning, analisi dati etc).
86 dei 500 supercomputer si affidano a coprocessori: 60 hanno optato per schede video Nvidia, 21 per l’hardware Intel e 1 per le schede video AMD FirePro (dirette concorrenti delle Tesla); 3 affiancano le GPU Nvidia alle CPU Phi; 10 supercomputer adottano invece Xeon Phi come unità di calcolo principali. E restando sempre in tema di tecnologie impiegate nella top500, 96 sistemi (104 dodici mesi prima) si appoggiano a soluzioni manycore, caratterizzate da un elevato numero di core indipendenti ed ideali per il calcolo parallelo.
La rapida evoluzione delle tecnologie (affinamento processi produttivi etc.) è il principale motivo dell’incremento prestazionale globale della top500. Come osservano infatti i curatori della lista, i valori di riferimento minimi e massimi sono aumentanti considerevolmente rispetto a 12 mesi fa: il sistema meno potente è passato da 206 Teraflop a 349,3 Teraflop mentre la potenza dell’intera lista è cresciuta del 60% (da 403 a 672 Petaflop).