Acasă Gândire înainte Arhitecturile alternative vor regula supercomputarea?

Arhitecturile alternative vor regula supercomputarea?

Video: Brightest Bulbs: Decarbonization of the grid electricity (Noiembrie 2024)

Video: Brightest Bulbs: Decarbonization of the grid electricity (Noiembrie 2024)
Anonim

În ultimii ani, am văzut câteva abordări noi și interesante în ceea ce privește calculele de înaltă performanță, în special o îndepărtare de procesoarele tradiționale mari și spre grupuri de procesoare x86 cu acceleratoare sau coprocesoare pentru a accelera tipurile particulare de calcul. Ieșind din emisiunea Supercomputing de săptămâna trecută, am văzut că Intel împinge să integreze coprocesorul Xeon Phi cu procesorul său tradițional de server Xeon pentru a facilita programarea; Nvidia introduce o nouă versiune a acceleratorului său Tesla GPU; și Micron sprijinind un tip de procesor foarte diferit pentru calcule și mai specializate. Și toate acestea se întâmplau într-o perioadă în care acceleratoarele și coprocesoarele ajung să domine lista Top 500 a celor mai rapide computere din lume, determinând unii experți să sugereze că reperele existente dau o pondere prea mare acestor procesoare.

Nvidia și-a oferit succesul cu plăcile sale de accelerare Tesla, grupuri mari de GPU-uri conectate la procesoarele principale de la Intel sau AMD. Asemenea cipuri sunt utilizate într-o mare varietate de sisteme, inclusiv sistemul Titan de la Oak Ridge National Laboratory și noul sistem Piz Daint la Swiss National Supercomputing Computing Center. Mai interesant, compania spune că plăcile Tesla se află în toate cele 10 sisteme de top din cea mai recentă listă Green 500 a celor mai eficiente consumatoare de energie din lume. Toate aceste sisteme folosesc, de asemenea, Intel Xeons, cu excepția Titanului bazat pe AMD Opteron, care este cel de-al doilea sistem cel mai rapid din lume în Top 500, dar se situează mult mai jos pe lista Green 500.

În plus, Nvidia a anunțat un parteneriat cu IBM pentru a oferi acceleratoarele sale Tesla în sisteme bazate pe arhitectura IBM Power. IBM și-a prezentat de multă vreme performanța în serie, iar sistemul său BlueGene / Q bazat pe procesoarele Power rulează sistemul Sequoia la Lawrence Livermore National Laboratory și sistemul Mira la Argonne National Laboratory, printre altele. Dacă IBM și Nvidia lucrează împreună ar trebui să conducă la unele sisteme interesante în viitor.

În cadrul emisiunii, compania și-a anunțat Tesla K40, următoarea generație a plăcii sale de accelerație GPU. Compania a spus că va oferi 1, 4 teraflopuri cu performanță dublă de precizie, 12 GB memorie (288 GBps lățime de bandă) și o funcție GPU Boost, care îi permite să ruleze cu o viteză mai rapidă a ceasului în unele situații. Acesta este un upgrade din seria Tesla K20 existentă, folosind același design de bază al GPU produs pe tehnologia 28nm.

Alte inițiative includ modalități de a facilita programarea GPU, inclusiv CUDA 6, care acceptă acum memoria unificată, permițând dezvoltatorilor să abordeze memoria ca un singur grup, chiar dacă memoria CPU și GPU rămân separate. Compania sprijină, de asemenea, OpenACC, o colecție standard de directive de compilare care spune sistemului care părți ale programului (scrise în C / C ++ și Fortran) pot fi descărcate de la procesor către un accelerator pentru a crește performanța.

Abordarea Intel, pe care o numește arhitectura MIC (Many Integrated Core), este foarte diferită. Acesta combină mai multe nuclee x86 mici într-un singur cip numit Xeon Phi. În ultimii câțiva ani, Intel a vândut faptul că este vorba de toate versiunile x86, ceea ce facilitează programarea, deși este clar că dezvoltatorii trebuie să țintească direct arhitectura. Versiunea actuală a Xeon Phi, numită Knights Corner, este concepută pentru a fi utilizată ca un accelerator împreună cu mai multe cipuri tradiționale de server Xeon E și este utilizată de o varietate de sisteme de top, inclusiv Tianhe-2 din China (în prezent cel mai rapid sistem în lume) și sistemul Stampede la Advanced Computing Center de la Universitatea Texas.

În cadrul spectacolului, Intel a anunțat o nouă versiune cu codul numit Knights Landing, care va funcționa, de asemenea, ca un procesor autonom care se poate încadra într-o arhitectură rack standard și va rula sistemul de operare direct, fără a necesita un procesor gazdă (cum ar fi Xeon E). Acest lucru ar putea fi destul de important pentru lărgirea apelului Xeon Phi, în special pe piața stațiilor de lucru. Din nou, acest lucru este conceput pentru a face mai ușor pentru dezvoltatorii de software să-l vadă ca un singur procesor. Knights Landing va fi disponibil atât ca procesor autonom, cât și ca o placă PCI Express care se încadrează în sistemele existente ca o actualizare de la Knights Corner.

Există și alte modificări semnificative la Knights Landing, inclusiv adăugarea DRAM „aproape de memorie”, efectiv DRAM care este oferit pe pachet cu CPU și, astfel, poate oferi o lățime de bandă mult mai mare decât memoria DDR tradițională, care este limitată de viteza de autobuzul. (De asemenea, acesta devine tot mai rapid, dar nu la fel de mult.) Nu este prima mișcare în această direcție; IBM a promovat ani de zile DRAM încorporat în arhitectura sa Power, iar Intel însuși pune DRAM încorporat pentru grafică în versiunile Iris Pro din familia sa Haswell Core. Totuși, presupun că vom vedea mult mai multe eforturi în această direcție în anii următori.

Între timp, una dintre cele mai interesante abordări noi vine de la Micron, care a anunțat un nou accelerator numit Automata Processor conceput mai ales pentru a rezolva probleme complexe de date nestructurate.

Micron a descris acest lucru ca oferind o țesătură cuprinsă între zeci de mii și milioane de elemente de procesare conectate pentru a rezolva sarcini specifice. Compania, unul dintre cei mai mari producători de memorie DRAM și NAND, spune că aceasta va folosi procesarea bazată pe memorie pentru a rezolva provocări complexe de calcul în domenii precum securitatea rețelei, bioinformatica, procesarea imaginilor și analitica. Micron va distribui inițial Procesorul Automata pe o placă PCI-Express pentru a-i face pe dezvoltatorii care lucrează cu acesta, dar compania intenționează să vândă procesoarele pe module de memorie standard, cunoscute sub numele de DIMM, sau ca cipuri individuale pentru sisteme încorporate. În unele moduri, acest lucru sună similar cu matricile de poartă programabile pe câmp (FPGA), care sunt reglate pentru a rezolva aplicații particulare care implică potrivirea modelului.

Compania a spus că lucrează cu Georgia Tech, Universitatea din Missouri și Universitatea din Virginia pentru a dezvolta noi aplicații pentru Automata. Deși compania nu a anunțat o dată pentru produsele finale, un kit de dezvoltare software va fi lansat anul viitor, împreună cu instrumente de simulare.

Automata sună ca o lucrare în derulare și este probabil prea devreme pentru a ști cât de largi sunt aplicațiile, dar este o abordare interesantă.

În general, vedem evoluția calculelor de înaltă performanță. Nu cu prea mulți ani în urmă, cele mai rapide computere erau în mare parte doar un număr mare de procesoare de servere standard. Într-adevăr, sistemele IBM Blue Gene și cele bazate pe Sparc (cum ar fi computerul K de la RIKEN Advanced Institute for Computational Science din Japonia, care folosește procesoarele Fujitsu Sparc) reprezintă încă o mare parte a pieței, inclusiv cinci dintre cele 10 cele mai rapide sisteme din lume. Dar, în ultimii ani, impulsul a evoluat spre coprocesor, sistemele care folosesc Tesla și mai recent acceleratoarele Xeon Phi alcătuind mai multe sisteme mai noi. Odată cu îmbunătățirile acestor sisteme, noi parteneriate, software mai bun și câteva abordări noi, piața supercomputării poate fi foarte diferită în viitor.

Arhitecturile alternative vor regula supercomputarea?