Pojdi na vsebino

Superračunalnik

Iz Wikipedije, proste enciklopedije
Superračunalnik Blue Gene/P v Argonnskem nacionalnem laboratoriju teče na več kot 250.000 procesorjih in uporablja običajno zračno hlajenje računalniškega središča. Procesorji so povezani v 72 predalov/kabinetov z visokohitrostno optično mrežo.[1]
Cray-2, najhitrejši računalnik v letih od 1985 do 1989
Računalnik CDC 6600 velja za prvi superračunalnik. Bil je najhitrejši med letoma 1964 in 1969
Ohranjeni superračunalnik Cray-1 v Deutsches Museum
Predal prototipa trenutno najzmogljivejšega superračunalnika K v RIPEN z zmogljivostjo 8.162 PFLOPS po testu s programsko knjižnico LINPACK

Súperračunálnik je najhitrejša, najmočnejša vrsta računalnika, sposobna svoje osnovne ukaze izvršiti v pikosekundah (10-12 s), namesto v nanosekundah (10-9 s) kot večina drugih računalnikov.

Za doseganje teh izrednih hitrosti superračunalniki hkrati uporabljajo več procesorjev, poslužujejo pa se tudi različnih drugih tehnik, na primer ohlajanja procesorjev na zelo nizke temperature, kar omogoča hitro delovanje vezij brez težav s pregrevanjem. Superračunalniki se na primer uporabljajo pri napovedovanju vremena, dinamiki tekočin, aerodinamiki, termodinamiki (prenos toplote), umetni inteligenci, simulacijah v biologiji, kvantni kromodinamiki, ... Znani proizvajalci superračunalnikov so: CDC, Cray Research, Fujitsu, Hitachi, IBM, Intel, NEC, Thinking Machines.

Zgodovina

[uredi | uredi kodo]

Zgodovina superračunalnikov seže v 1960-ta leta, ko je Seymour Cray z inovativnimi zasnovami in paralelizmom izdelal niz računalnikov v družbi Control Data Corporation (CDC). Ti računalniki so dosegali izredno računsko moč.[2] Računalnik CDC 6600, izdelan leta 1964, v splošnem velja za prvi superračunalnik.[3][4] CDC je bil trikrat hitrejši od svojega predhodnika IBM 7030 Stretch. Z zmogljivostjo približno 1 MFLOPS je bil med letoma 1964 in 1969 najhitrejši, ko ga je prehitel CDC 7600.

Cray je leta 1972 zapustil CDC in ustanovil svoje podjetje.[5] Štiri leta kasneje je leta 1976 ponudil 80 MHz Cray-1, ki je postal eden najuspešnejših superačunalnikov.[6][7] Cray-2, narejen leta 1985, je bil 8 procesorski kapljevinsko hlajeni računalnik, hladilno tekočino Fluorinert pa je med njegovim delovanjem črpala črpalka. Deloval je z zmogljivostjo 1,9 GFLOPS in bil najhitrejši do leta 1990.[8]

V 1980-ih so imeli superračunalniki le nekaj procesorjev, v 1990-ih pa so se začeli pojavljati stroji z več tisoč procesorji, tako v ZDA kot na Japonskem, in so postavili nove rekorde računske zmogljivosti. Fujitsujev superračunalnik Numerical Wind Tunnel je uporabljal 166 vektorskih procesorjev in je imel leta 1994 največjo zmogljivost 1,7 GFLOPS na procesor.[9][10] Hitachi SR2201 je leta 1996 dosegel rekord 600 GFLOPS in imel 2048 procesorjev povezanih prek hitre trirazsežne mreže.[11][12][13] Intel Paragon je imel 1000 do 4000 procesorjev Intel i860 v različnih konfiguracijah in je bil leta 1993 najhitrejši. Paragon je imel zgradbo MIMD, v kateri so bili procesorji povezani s hitro dvorazsežno mrežo, kar je omogočalo, da se procesi izvajajo v odvojenih točkah in komunicirajo prek sistema MPI.[14]

Strojna oprema in arhitekture

[uredi | uredi kodo]

Pristopi k superračunalniškim arhitekturam so se dramatično spremenili odkar so bili v 60-ih letih vplejani prvi sistemi. Zgodnje superračunaliniške arhitekture, ki so bile vpeljane s strani Seymour-ja Cray-a so temeljile na kompaktnih inovativnih pristopih ter lokalnemu paralelizmu za doseganje višjih zmogljivosti. Čez čas je potreba po povečanih računskih zmogljivostih pripreljala do dobe masivno paralelnih sistemov.

Medtem ko so superračunalniki v 70-ih uporabljali le nekaj procesorjev, so se v 90-ih začeli pojavljati sistemi z več tisoč procesorji. Proti koncu 20-ega stoletja pa so bili že ustaljeni masivno paralelni sistemi z več deset tisoč nespecializiranih (ang: off-the-shelf) procesorjev. Superračunalniki 21-ega stoletja lahko uporabljajo že več kot 100.000 procesorjev (nekateri tudi koprocesorje), ki so povezani z izjemno hitrimi povezavami.

Skozi desetletja, upravljanje z gosto toplotnega toka ostaja ključno vprašanje za večino centraliriziranih superračunalnikov. Veliko ustvarjene toplote, ki jo proizvede sistem ima lahko tudi druge vplive npr. krajšanje življenjske dobe sistemskih komponent. Bilo je že veliko različnih pristopov k reševanju tega problema od črpanja Fluorinerta skozi sistem do hibridnih hladilnih sistemov kot so »kapljevina-zrak« ali zračno hlajenje z klima]tskimi napravami.

Poraba energije in upravljanje s toploto

[uredi | uredi kodo]

Tipičen superračunalnik porabi velike količine električne energije, katere je večina spremenjene v toploto, ki jo je potrebno hladiti. Zgled, Tianhe-1A porabi 4,04 Megawatta električne energije. Cena napajanja in hlajenja sistema je zato zelo visoka, npr. 4 MW pri 0,7 €/kWh je 280 €/h kar znaša približno 2,5 milijona evrov na leto.

IBM HS20 blade

Upravljanje toplote je velik problem v kompleksnih elektronskih napravah, in vpliva na zmogljive računalniške sisteme na različne načine. Velika količina toplote ki jo ustvarja CPE in vprašanje odvajanja te toplote v superračunalništvu, presega te v tradicionalnih računalniških hladilnih tehnologijah. Nagrade, ki jih prejemajo superračunalniki za zeleno računalništvo odražajo to vprašanje.

Sestavljanje na tisoče procesorjev skupaj neizogibno ustvarja znatne količine toplote s katero je potrebno nekaj narediti. Cray 2 je bil vodno hlajen in uporabljal tako imenovan »hladilni slap« s Fluorinertom, ki je pod tlakom tekel skozi module. Vendar pristop potapljanja v hladilno tekočino ni bil praktičen za sisteme, ki so sestavljeni iz več omar in (ang: off-the-shelf) procesorjev. Zato so za System x v sodelovanjz s podjetjem Liebert razvili posebn hladilni sistem, ki je kombinacija klimatske naprave in vodnega hlajenja.

Energetska učinkovitost računalniških sistemov se običajno meri v FLOPS/Watt. Leta 2008 je IBMjev Roadrunner deloval pri 376 MFLOPS/Watt. Novembra 2010 je Blue Gene/Q dosegel 1684 MFLOPS/Watt. Junija 2011 sta najvišje dve mesti na lestivici »Green 500« zasedla Blue Gene računalnika v New Yorku z 2097 MFLOPS/W, tretje mesto je pa zasedel DEGIMA cluster v Nagasakiju z 1375 MFLOPS/W.

Programska oprema in upravljanje

[uredi | uredi kodo]

Operacijski sistemi

[uredi | uredi kodo]

Od konca 20-ega stoletja so superračunalniški operacijski sistemi doživeli precej sprememb. Medtem ko so bili prvi operacijski sistemi namensko narejeni z namenom doseganja čim boljših zmogljivosti so se trendi premaknili v prid generičnim operacijskim sistemom kot je na primer Linux.

Programska orodja in message passing

[uredi | uredi kodo]

Superračunalniške paralelne arhitekture pogosto zahtevajo uporabo posebnih programerskih prijemov, da se lahko izkoristi vsa računska moč, ki je na voljo. Porgramska orodja za paralelno procesiranje torej uporabljajo standardizirana razvojna okolja kot na primer MPI in PVM, VTL ter druge odprtokodne rešitve kot je na primer Beowulf.

Najpogosteje se uporabljajo okolja kot so PVM in MPI za redko povezane sestave in Open MPI za gosto povezane sestave z deljenim pomnilnikom. Veliko truda je potrebnega za optimiziranje algoritmov na med seboj povezanih strojih, namen tega je da se minimizra število neuporabljenih CPE-jev. GPGPUji imajo stotine jeder na eni plošči. Za upravljanje s takimi arhitekturami se uporabljajo programski jeziki kot so CUDA in OpenCL.

Porazdeljeno superračunalništvo

[uredi | uredi kodo]

Oportunistični pristopi

[uredi | uredi kodo]
Zgled arhitekture sistema mrežnega računalništva, ki povezuje več osebnih računalnikov prek interneta

Oportunistično superračunalništvo je oblika mrežnega računalništva (ang. grid computing), kjer »super virtualni računalnik« povezuje veliko prostovoljno povezanih računaniških naprav, ki morajo računati kompleksne računske probleme. Mrežno računalništvo (ang. grid comupting) je bilo uporabljeno za reševanje številnih problemov, ki zahtevajo paralelno reševanje z močjo superračunalnika. Vendar pa osnovna omrežja (ang. basic grid) in računalništvo v oblaku, ki se zanašajo na prostovoljno ali globalno računalništvo ne zmorejo tradicionalnih superračunalniških nalog, kot so simulacije dinamike tekočin.

Najhitrejši sistem Mrežnega računalništva je računalniški projekt Folding@home. Marca 2012 je imel F@h 8,1 petaflopov x86 procesorske moči, od tega 5,8 petaflopa so prispevale stranke iz različnih grafičnih procesorjev, 1,7 petaflopa iz playstation 3 konzol, in ostalo iz različnih sistemov CPE.

BOINC platforma gosti številne porazdeljene računalniške projekte. Od maja 2011, je BOINC zabeležil več kot 5,5petaflopov procesorske moči s pomočjo več kot 480.000 aktivnih računalnikov v omrežju. Najbolj aktiven projekt (merjen po računski moči) je MilkyWay@home, ki uporablja 700 teraflopov preko več kot 33000 aktivnih računalnikov.

Od maja 2011, GIMPS (Great Internet Mersenne Prime Search ali veliko internetno iskanje Mersennovega števila), ki računa Mersennovo število trenutno dosega približno 60 teraflopov preko več kot 25.000 registriranih računalnikov. Internet PrimeNet Server podpira pristop mrežnega računanja Mersennovega števila, enega prvih in najbolj uspešnih mrežnih računalniških projektov, od leta 1997.

Kvazi-oportunistični pristopi

[uredi | uredi kodo]

Kvazi oportunistično superračunalništvo je oblika porazdeljenega računalništva, kjer »super virtualni računalnik« sestavljen iz velikega števila geografsko razpršenih računalnikov povezanih v omrežje, opravlja računske naloge, ki zahtevajo ogromno procesorske moči. Namen kvazi-oportunističnega visoko zmogljivega računalništva je zagotavljati višjo kakovost storitve kot oportunistično omrežje z boljšim nadzorom nad dodeljevanjem nalog razpršenim virom in uporabo podatkov o razpožljivosti in zanesljivosti posameznih sistemov znotraj superračunalniškega omrežja.

Merjenje zmogljivosti

[uredi | uredi kodo]

V splošnem se zmogljivost sestavov uporablja merska enota 'FLOPS' (FLoating Point Operations Per Second) kar pomeni merilo v številu izvrženih računskih operacij s plavajočo vejico v sekundi in ne 'MIPS' ki merijo ukaze na sekundo in se uporabljajo kot enota za zmogljivost splošno namenskih računalnikov. Dejansko številka ne pokaže dejanske zmogljivosti računalnika, je pa Linpack postal standard kot zadovoljivo merilo za približek računske zmogljivosti sestava.

Top 500

[uredi | uredi kodo]
Graf prikazuje delež superračunalnikov po državah, Top500 November 2013

Od leta 1993 se vodi tudi seznam najhitrejših superračunalnikov na svetu na podlagi merila Linpack. Upravljavci seznama ne zagotavljajo da je seznam nepristranski ali dokončen. Je pa seznam Top500 slošno uporabljen, kot ažuren seznam 'najhitrejših' supperačunalnikov ob danem času. Seznam se posodablja dvakrat letno in sicer v juniju in novembru na konferencah ISC v Evropi in SC v ZDA.

leto superračunalnik najvišja hitrost
(Rmax)
lega
2008 IBM Roadrunner 1.026 PFLOPS Los Alamos, ZDA
1.105 PFLOPS
2009 Cray Jaguar 1.759 PFLOPS Oak Ridge, ZDA
2010 Tianhe-IA 2.566 PFLOPS Tianjin, Kitajska
2011 Fujitsu K computer 10.51 PFLOPS Kobe, Japonska
2012 IBM Sequoia 17.17 PFLOPS Livermore, ZDA
2012 Cray Titan 17.59 PFLOPS Oak Ridge, ZDA
2013 NUDT Tianhe-2 33.86 PFLOPS Guangzhou, Kitajska
2017 Sunway TaihuLight 93.00 PFLOPS Wuxi, Kitajska

Uporaba superračunalnikov

[uredi | uredi kodo]

Najpogostejši uporabniki superračunalnikov so znanstvene in akademske ustanove, uporablja pa se tudi v poslovne namene. Nekaj velikih multinacionalnih bank in korporacija uporablja manjše superračunalnike. Uporaba vključuje, posebne učinke v filmih, zbiranje in obdelavo vremenskih podatkov, obdelavo geoloških podatkov, podatkov o genetskih zapisih, aerodinamiko, simulacije ter v vojaške namene. Uporabniki so filmska industrija, vremenske organizacije, vesoljske agencije, vladne organizacije, znanstveni laboratoriji, raziskovalne skupine, vojaški in obrambni sistemi ter velike korporacije.

Faze uporabe superračunalnika je mogoče povzeti v naslednji tabeli:

desetletje uporaba in sodelujoči računalniki
1970 vremenske napovedi, aerodinamične raziskave (Cray-1)
1980 verjetnosnta analiza, modeliranje zaščite pred sevanjem,(CDC Cyber)
1990 razbijanje kode s poskušanjem (EFF DES cracker)
2000 3d simulacije jedrskih poskusov, zaradi sporazuma pogodbe o neširjenju jedrskega orožja (ASCI Q)
2010 simulacija molekularne dinamike (Tianhe-1A)

Superračunalniki v Sloveniji

[uredi | uredi kodo]

Prvi superračunalnik v Sloveniji, CONVEX C220, je bil postavljen leta 1990 na Inštitutu Jožef Štefan. Imel je dve jedri, vsak z maksimalno učinkovitostjo 50 MFLOPs.

Superračunalnik Arctur 2 - prvi hiperkonvergiran superračunalnik v Sloveniji
Arctur-1 HPC
superračunalnik najvišja hitrost
(Rmax)
zavod/podjetje
Vega 6,9 PFLOPS Atos[15][16]
Arctur-2 340 TFLOPS Arctur[17]
SGI ICE-X ~20 TFLOPS ARSO
HPCFS-U 7,9 16,3 TFLOPS Fakulteta za strojništvo v Ljubljani
Rudolf 13 TFLOPS Fakulteta za informacijske študije v Novem mestu
BladeCenter HS21 36,752 GFLOPS Kolektor Turboinštitut[18]
HPC CORE@UM 5 TFLOPS Fakulteta za strojništvo, Univerza v Mariboru

Inštitut Jožef Štefan ima največ HPC naprav v Sloveniji, ki pa niso povezane v enoten HPC sistem, razpršene so po ločenih raziskovalnih oddelkih (Teoretična fizika F-1 , eksperimetnalna fizika osnovnih delcev F-9 in Odsek za reaktorsko tehniko R-4[19]). Trenutno največji superračunalnik v zasebni lasti je Arctur 2, ki je lociran na sedežu družbe Arctur v Novi Gorici in se uporablja za različne simulacije za potrebe industrije. Proizvajalec Arctur-2 je kitajska korporacija SUGON, največji proizvajalec superračunalnikov v Aziji.[navedi vir]

Slovenski superračunalnik Vega je bil uradno predstavljen 20. aprila 2021 in je del evropskega skupnega podjetja za visoko zmogljivo računalništvo (EuroHPC JU). Nahaja se na Inštitutu Inštituta za informacijske znanosti Maribor (IZUM) v Mariboru. To je prvi od osmih načrtovanih superračunalnikov (EuroHPC JU). Sistem je dopolnilo lokalno podjetje Atos. Superračunalnik Vega je skupaj financiral EuroHPC JU s sredstvi EU in Inštituta za informacijske znanosti Maribor (IZUM). Vrednost skupne naložbe znaša 17,2 milijona evrov. Vega ima stabilno zmogljivost 6,9 PFLOPS in največjo zmogljivost 10,1 PFLOPS.[15][16]

Raziskovalni in razvojni trendi

[uredi | uredi kodo]

Glede na trenutno hitrost napredka, strokovnjaki ocenjujejo, da bodo superračunalniki dosegli 1 exaflop (1018x1030 FLOPS) do leta 2018. Kitajska je naznanila načrte da bodo imeli superračunalnik ki bo dosegal hitrosti 1 exaflopa do leta 2018. Uporabljal naj bi intel MIC mnogojedrno procesorsko arhitekturo, ki je intelov odgovor na sisteme z grafičnimi procesorji, SGI namerava doseči 500-kratno povečanje učinkovitosti do leta 2018, da bi dosegli en exaflop. Vzorci MIC čipov z 32 jedri, ki združujejo vektorske procesne enote s standardnim CPEjem so že dostopne. Indijska vlada ima tudi ambicije postaviti superračunalnik z močjo enega eksaflopa do leta 2017.

Erik P. DeBenedictis iz Sandia National Laboratories je podal teorijo, da potrebujemo superračunalnik z močjo enega zetaflopa (1018x1036 FLOPS) za natančen vremenski model, kateri bi bil natančen za obdobje dveh tednov. Takšen sistem bi lahko zgradili okrog leta 2030.

Sklici

[uredi | uredi kodo]
  1. »IBM Blue gene announcement« (v angleščini). 03.ibm.com. 26. junij 2007. Pridobljeno 9. junija 2012.
  2. Chen idr. (2009), str. 70-72.
  3. Impagliazzo; Lee (2004), str. 172.
  4. Sisson; Zacher (2006), str. 1489.
  5. Hannan (2008), str. 84-84.
  6. Hill; Jouppi; Sohi (1999), str. 41-48.
  7. Reilly (2003), str. 65.
  8. Tokhi; Hossain; Shaheh (2003), str. 201-202.
  9. »TOP500 Annual Report 1994« (v angleščini). Pridobljeno 4. septembra 2011.
  10. Hirose; Fukuda (1997).
  11. Fujii idr. (1997), str. 233-241.
  12. Iwasaki (1998), str. 246-254.
  13. van der Steen (1997).
  14. Reed (2003), str. 182.
  15. 15,0 15,1 »Discover EuroHPC«. European High Performance Computing Joint Undertaking. Pridobljeno 1. maja 2021.
  16. 16,0 16,1 »Supercomputer Vega launched in Slovenia«. Slovenia Times (v ameriški angleščini). 21. april 2021. Arhivirano iz prvotnega spletišča dne 1. maja 2021. Pridobljeno 1. maja 2021.
  17. »IT rešitve in storitve superračunalnik«. Arhivirano iz prvotnega spletišča dne 26. julija 2014.
  18. »Kolektor Turboinštitut«. Arhivirano iz prvotnega spletišča dne 23. septembra 2015. Pridobljeno 20. septembra 2015.
  19. IJS, Sandi Cimerman, R-4,. »Gruče«. r4.ijs.si. Pridobljeno 8. oktobra 2016.{{navedi splet}}: Vzdrževanje CS1: dodatno ločilo (povezava)