Acasă Gândire înainte Supercomputing 15: schimbări mai mari la orizont

Supercomputing 15: schimbări mai mari la orizont

Video: What Makes a Supercomputer? (Octombrie 2024)

Video: What Makes a Supercomputer? (Octombrie 2024)
Anonim

În timp ce mă uit la anunțurile și procedurile conferinței Supercomputing 15 (SC15) de la luna trecută de la Austin, se pare că, în timp ce calculele de înaltă performanță pot fi într-un pic plictisitoare, este o piață pregătită pentru unele schimbări majore în anul. veni.

Dacă te uiți la liderii din lista top500, lista de două ori pe an a celor mai rapide calculatoare din lume, liderul pentru a șasea oară consecutivă este Tianhe-2, un supercomputer construit de Universitatea Națională de Tehnologie de Apărare din China. Conform listei top500, această mașină oferă 33, 86 petaflop / s (cvadrilaje de calcule pe secundă) de performanță susținută pe etalonul Linpack și 54, 9 petaflop / s de performanță teoretică maximă. Aceasta se bazează pe procesoarele Intel Xeon și Xeon Phi.

Pe locul doi continuă să meargă către Titan, un sistem Cray XK7 bazat pe procesoare AMD Opteron și GPU Nvidia K20x instalate la DOE’s Oak Ridge National Laboratory, la 17, 59 petaflop / s de performanță susținută pe etalonul Linpack.

Două mașini noi au spart primul 10. Calculatorul Trinity de la Laboratorul Național Lawrence Livermore (LLNL) este al șaselea cu 8, 1 petaflop / s, în timp ce sistemul Hazel-Hen de la Höchstleistungsrechenzentrum Stuttgart (HLRS) a ajuns în optimi cu 5, 6 petaflop / s. Ambele sunt mașini Cray XC, bazate pe procesoare Intel Xeon cu interconectarea Aries.

Modificări mai mari apar mai departe de listă, în special cu o creștere mare a numărului de sisteme chineze, care a crescut la 109, comparativ cu doar 37 din lista precedentă. În parte, acest lucru pare a fi din mai multe sisteme chineze care rulează reperele și prezintă rezultate pentru listă. Drept urmare, numărul sistemelor americane a scăzut de la 231 la 200, ceea ce este cel mai mic număr de la începerea listei în 1993; iar numărul sistemelor europene a scăzut de la 141 la 108.

O mare tendință este creșterea numărului de sisteme care utilizează acceleratoare sau coprocesoare, care a ajuns la 104 sisteme pe lista actuală, în creștere de la 90 în iulie. Majoritatea acestor sisteme folosesc GPU Nvidia Tesla, urmate de coprocesoarele Xeon Phi de la Intel, câteva dintre ele folosind o combinație. Nvidia a subliniat că se află în 70 dintre aceste sisteme, inclusiv 23 dintre cele 24 de sisteme noi de pe listă.

În cadrul expoziției, Nvidia a evidențiat creșterea acceleratoarelor, în special numărul de aplicații disponibile acum optimizate pentru arhitectura CUDA a firmei. Compania spune că 90% dintre primele 10 aplicații de calcul de înaltă performanță și 70% din primele 50 sunt acum accelerate. O utilizare interesantă este pentru sisteme care rulează simulări meteorologice, o aplicație majoră pentru calcule performante, deoarece prognozele meteo sunt produse de tot felul de guverne. Cray a arătat mai devreme utilizarea acestor acceleratoare la Oficiul Elvețian de Meteorologie (MeteoSwiss) și a vorbit despre modul în care lucrează cu cercetătorii din Elveția la rescrierea multor aplicații. Nvidia acum indică utilizarea acceleratoarelor de către Administrația Națională Oceanică și Atmosferică (NOAA) pentru unele dintre prognoza meteo.

Printre alte aplicații, Cray a oferit aplicații pentru petrol și gaze, cum ar fi utilizarea geofizicii 3D pentru a simula un rezervor, precum și servicii financiare, precum evaluarea riscurilor. Astfel de aplicații constituie rareori cele mai rapide sisteme din lume, dar sunt un indiciu că calculul de înaltă performanță are un rol mai larg în mai multe aplicații corporative. Cray a vorbit despre o evoluție constantă către rularea de modele mai mari și mai detaliate în toate disciplinele științifice și inginerești, precum și combinarea sarcinilor tradiționale de muncă cu analitice.

De asemenea, am fost interesat de un anunț al Fundației Linux privind un nou efort numit OpenHPC, menit să creeze standarde mai deschise în lumea HPC. Este o idee interesantă și una care pare să aibă mulți jucători mari care se înscriu.

Există o serie de sisteme noi în lucrări. IBM construiește o nouă mașină numită Summit la Laboratoarele Naționale Oak Ridge (ORNL) și o alta numită Sierra la Laboratorul Național Lawrence Livermore (LLNL), ambele bazate pe procesoarele de arhitectură IBM Power, GPU-urile Nvidia Tesla și interconectările Mellanox. Summit-ul este de așteptat să furnizeze 150 până la 300 de petaflop / s de vârf, iar Sierra peste 100 de petaflop / s.

În plus, Intel și Cray construiesc o nouă mașină numită Aurora, bazată pe viitoarele procesoare Intel Xeon Phi Knights Hill pentru The Argonne Leadership Computing Facility (parte a Argonne National Labs), care vizează 150 de petaflops în 2018. Toate acestea fac parte dintr-un program al Departamentului Energiei, cunoscut sub numele de Colaborarea Oak Ridge, din laboratoarele naționale din Argonne și Lawrence Livermore (CORAL), care vizează accelerarea dezvoltării de calcul performant, și în special proiectul FastForward 2.

Cu toate acestea, mai avem un drum lung de parcurs către „calculul exascal”.

Între timp, au existat mai multe anunțuri ale procesatorilor care ar putea transmite bine pentru viitor. Nvidia a împins, în special, utilizarea supercomputerelor pentru aplicații web de scară largă, în special învățarea automată. Acesta a anunțat câteva produse de finală ceva mai scăzute: placa Tesla M40 cu 3072 de nuclee CUDA, despre care a spus că este capabilă să efectueze până la 7 teraflop / uri de o singură precizie, vizate în principal de formarea „învățare profundă” și M4, o placă de putere mai mică, cu 1024 nuclee și 2, 2 teraflop / s de o singură precizie, care poate fi folosită pentru infernul de învățare profundă, precum și lucruri precum procesarea de imagini și video. În plus, compania a anunțat o nouă „suită de scară largă” cu aplicații destinate celor mai mari site-uri de calcul. Ambele produse hardware noi se bazează pe tehnologia proceselor de 28 nm și arhitectura Maxwell a companiei.

Compania a anunțat două arhitecturi de urmărire, cunoscute sub numele de Pascal, care urmează anul viitor, și Volta, care îl vor urma. Intel s-a concentrat asupra modului în care HPC afectează știința, iar eu am fost intrigat de descrierea modului în care își folosește propriul supercomputer - în prezent ocupând locul 99 pe lista de top 500 - pentru a ajuta la proiectarea propriilor procesoare. În special, compania a spus că folosește un milion de ore de procesor doar pentru proiectarea fotomaskelor pentru procesoarele de generație următoare.

O mare parte a activității Intel s-a concentrat pe Knights Landing, următoarea versiune a cipului său Xeon Phi, care poate fi folosit ca accelerator, dar și pornit; și țesătura sa Omni-Path. Deși Intel spune acum că disponibilitatea generală va fi în prima jumătate a anului 2016, câțiva clienți au acces timpuriu la Knights Landing. În prezent, Cray testează un mare sistem Knights Landing pentru pregătirea livrării unui nou supercomputer numit Cori pentru Centrul Național de Calcul Științific al Calculelor Energetice (NERSC) și al Laboratorului Național Los Alamos și al Laboratoarelor Naționale Sandia, anul viitor. Bull, o unitate a integratorului de sisteme franceze Atos, a primit, de asemenea, versiuni timpurii ale Knights Landing pentru a se pregăti pentru sistemul Tera 1000 pe care îl construiește pentru Comisia franceză pentru energii alternative și energie atomică. Facilitatea de calcul Argion Leadership lucrează la un sistem numit Theta, care urmează să fie livrat anul viitor, iar Laboratoarele Naționale Sandia lucrează cu Penguin Computing pentru a actualiza mai multe sisteme care folosesc generațiile anterioare de co-procesoare Xeon Phi.

Intel a spus anterior că vor exista trei versiuni diferite ale Knights Landing: un procesor gazdă de bază (capabil să se auto-pornească), un procesor gazdă cu o țesătură integrată Omni-Path și o placă de accelerare PCIe. Cipul în sine va fi format din 36 de plăci, fiecare cu două nuclee de procesor (în total 72 de nuclee), patru unități de procesare vectorială (două pe nucleu), 1 MB de memorie cache L2 partajată și un agent de memorie în cache pentru menținerea coerenței; iar Intel a spus că ar trebui să ofere aproximativ trei ori performanța scalară a procesorului Knights Corner, cu 3 teraflop / s de precizie dublă și 6 teraflop / s de performanță de vârf unică. De asemenea, folosește un nou sistem de memorie numit MCDRAM, memoria de pe pachet cu lățimea de bandă de peste 3x disponibilă în comparație cu ieșirea la DDR4 care pare a fi o variantă în arhitectura Hybrid Memory Cube despre care Intel și Micron au vorbit despre asta. În cadrul spectacolului, Cray avea un prototip de sistem care avea un Cavaler Landing de bootabil, iar o serie de alți furnizori arătau sisteme concepute pentru Knights Landing. Această versiune a lui Xeon Phi este planificată pentru a fi urmată de o versiune numită Knights Hill, care urmează să fie construită pe următorul proces de 10 nm.

În plus, Fujitsu a vorbit ceva mai mult despre proiectul său Flagship 2020, bazat pe un cip nou cunoscut sub numele de FX100 cu 32 de nuclee. Este de așteptat ca performanțele în patru puncte flotante să fie cu patru ori mai mari față de actualul FX10, precum și ca Knights Landing, FX100 de la Fujitsu va folosi și o versiune a arhitecturii Hybrid Memory Cube. În plus, NEC are un proiect numit Aurora (fără legătură cu proiectul CORAL), bazat pe urmărirea sa pe cipul SX-ACE, dar cu o lățime de bandă mai mare a memoriei. Aceasta este vizată pentru 2017.

Supercomputing 15: schimbări mai mari la orizont