Gyurkity Péter

Új szuper­számítógépen dolgozik Japán

A szigetország kormánya olyan új szuperszámítógép kifejlesztését határozta el, amely teljesítményével messze megelőzi a jelenleg leggyorsabb rendszereket, és visszaszerzi Japán első helyét a szuperszámítógépek ranglistáján.

A Japán Oktatási, Kultúr- és Sportminisztérium mai bejelentéséről a Reuters hírügynökség számolt be, amely cikkében kiemeli, hogy az új csúcsgép másodpercenként több mint egybilliárd (milliószor milliárd) lebegőpontos műveletet hajt végre, azaz átlépi az 1000 teraflopsos határt, maga mögött hagyva az IBM jelenlegi csúcstartóját, a Blue Gene/L szuperszámítógépet is. A Blue Gene/L ugyanis eredetileg 70,72 billiós, azaz 70,72 teraflopsos teljesítménnyel vette át a vezetést, amelyet márciusban még tovább növelt, egészen 135,5 teraflopsra.

A teljesítményben - és minden bizonnyal a költségeket illetően is - kimagasló számítógép a jelenlegi tervek szerint legkorábban 2011-re készülhet el. Kétségkívül van mit bepótolniuk a szigetország fejlesztőinek, hiszen Japán jelenleg leggyorsabb szuperszámítógépe az NEC Earth Simulator, amelynek 36 teraflopsos - egyébként még mindig igen jelentős - teljesítménye igencsak elmarad az első, valamint a második helyezett amerikai vetélytársától. A második helyre ugyanis időközben a NASA Columbia rendszere lépett elő, amely 51,87 teraflopson teljesít, és nyilvánvaló, hogy a rivális amerikai kezdeményezések még tovább szeretnék növelni előnyüket.


A minisztérium részéről nyilatkozó tisztviselő elmondta, hogy a tervezett szuperszámítógép segítségével a gyógyászatban és egyéb területeken fontos szimulációkat végeznek majd, és többek között lehetővé válik a gyakorta használt gyógyszerek emberi szervezetben végigjárt útvonalának, illetve azok lebomlásának modellezése is. A rendszer emellett meteorológiai előrejelzéseket és egyéb szimulációkat is végezne. A szuperszámítógép kifejlesztésének feladatát két nagyvállalat, az NEC, a Hitachi, valamint két oktatási intézmény, a Tokiói, illetve a Kyushu Egyetem kapta, amelyek közösen dolgoznak a projekten.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Andrei #16
    Tudnád esetleg bővebben indokolni a kijelentéseidet? (És tudnál esetleg kevésbé bántóan fogalmazni?)

    Kerlek, menjunk sorban.

    "Mit nevezel "nagyteljesitmenyu szamitasok"-nak?"

    High performance computing (HPC). Olyan alkalmazasok, ahol a szamitasi teljesitmeny maximalizalasa elsodleges szempont. FEA, aramlastan, numerikus matek (elsosorban numerikus linearis algebra, diffegyenletek, optimalizacio), asztronomia.... A multimedia hatareset, nemely reszei idetartoznak.

    "Itt mi a "más jellegű"?"

    Pl. olyan szamitasok, ahol a 64bites lebegopontos szamitasokra van szukseg. A HPC alkalmazasok 90+%-a ilyen es a Cell teljesitmenye tizedere (in terms of FLOPS) esik vissza double precision hasznalata eseten.

    Megaztan ott van a 256MByte-os cimzesi korlat. A HPC alkalmazasok altalaban gigabyte hegyekkel dolgoznak, es sok esetben a programszegmens is nagyobb, mint 256 mega.

    "Miért ne lehetne általános vektor-procikat más matematikai műveletekre is használni, mint multimédia?" ill. " A Cell vektor-procijai miért nem "igazi" vektor-procik?"

    Nem a multimedias igenyek szultek a vektorprocesszorokat (a PC-k vektorkiterjeszteseit mar igen!). Nem tudom, hogy a Cell elsodleges mag tartalmaz-e vektor egysegeket, de mintha az remlene, hogy csak a tarsprocikban van ilyen, es azokat explicite egy API-n keresztul kell majd hasznalni (valahogy ugy mint a DirectX-es GPU programozas). Tehat a mag csak annyira vektorproci, mint egy Mac, mas kerdes, hogy a vektor tarsprocesszor sokkal "kozelebb" van a maghoz, mint a GPU a CPU-hoz egy PC eseten.

    Elmagyarazom miert szoktak szeretni az igazi vektorprocesszoros gepeket. Ha en ilyet szolok Fortran90 nyelven (tudom elavult, de a szuperszamitogepesek meg mindig csipazzak):

    double precision a(100000),b(100000),c(100000)
    a=b+c

    akkor ezt mar a forditoprogram olyan gepi kodra forditja, hogy az elmeleti maximalis teljesitmeny kozeleben dolgozik a CPU. Nem kell szoszmotolni, hogy most akkor melyik tarsprocinak adjuk ki, nem kell speci API hivasokkal operalni ..... Meg lehet, hogy olyan forditoprogramjuk lesz, ami kepes a fenti trivialitast kiszurni, de az is lehet, hogy mar egeszen picit bonyolultabb konstrukciokat expliciten kell API-n keresztul leprogramozni. Esugye HPC alkalmazast portolgatni nagyon genyo (es draga) dolog, mert baromi nehez validalni a reszeket.

    Egyebkent nagyon latszik a Cell-en, hogy HPC-s gyokerei vannak, de az is latszik rajta, hogy az elkeszult termek mar nem igazan jo ebbe a szegmensbe. Szinten az IBM altal gyartott PPC440 (BlueGene/L) valo ide, azzal meg multimediazni nem hatekony.

    Csak referenciakeppen: a PPC440 (BlueGene) elso prototipusanak elkeszulte utan egy honappal mar a theoretical peak 90%-at ertek el HPL benchmarkban. Egy honap mulva nem fog meg 20 GFlops-ot sem teljesiteni a Cell mag.

    Meg egy apro terminologiai dolog. Emlegettel parhuzamosithato szamitasokat (marminthogy abban jok a vektorprocik). Ez igy kicsit csusztatas:
    - Az olyan alkalmazasokban, ahol maga az algoritmus sok parhuzamositasi lehetoseget tartalmaz (pl. rendezesek), ott nem igazan hatekonyak a vektorprocik. Illetve nem gyorsabbak, mint hagyomanyos tarsaik. Cserebe viszont dragak. A parhuzamosithatosagot hagyomanyosan erre a szintre ertjuk.

    - Van egy alacsonyabb szintu parhuzamossag ez az un. loop-carried parallellism. Ebben nagyon jok a vektorprocik es nem tul jok a a hagyomanyosak, mert nagyon koltseges algoritmikusan parhuzamositani.



  • BlackRose #15
    Nem is ezt mondtam, de azért egy PFLOPS gép akár Cell-ből is jócskán zabálna egy jelenlegi 700 MHz-s CPU-bol összehozott BLueGene/L-hez képest, mert ezek a CPU-k 1-2W fogyasztanak a Cell meg azért ettől jóval többet. Különben a Cell modifikált verziója lesz az IBM szuperszámítógépek alapja, ebben biztos vagyok.
  • dez #14
    (A Cellnek a flops/W mutatója sem rossz, épp ellenkezőleg.)
  • BlackRose #13
    Azt hiszem az IBM a Cell-t éppen a szuperszámítógépek miatt csinálta (a Toshiba és a SONY az média processort keresett, de az IBM az inkább más területeken érdekelt). Különben is a Japán szuperszámítógép sokkal valószínűbb, hogy a NEC, Fujitsu vagy esetleg Hitachi kivitelezésében kerül ki, a SONY és a Toshiba ezeken a területeken nincs jelen. Tehát az IBM a BlueGene projectben feltételezem, hogy a Q esetében a Cell prociból is meríteni fog valamit, vagyis nem hiszem, hogy Cell lesz benne, de az a CPU ami belekerül az a Cell-ből is merít valamit. Ne felejtsük el, hogy a jelenlegi BlueGene csupán 700 MHz-s CPU-kal van megépítve, tehát itt nagyon nagy előrehaladás lehetséges, persze energiafogyasztás szempontjából nagy kiadásokkal, de a szuperszámítógépeket alkalmazásokra szokták szerkeszteni és ha meglesz az ok, vagyis az USA energiaminisztériumának szüksége lesz egy borzasztó gyors gépre akkor megépítik mégha nem is lesz energiatakarékos. A Japánok tudnak szuperszámítógépet építeni ez nem kérdéses, de nehezen tudnak olyan dolgot találni ahová érdemes lenne egy ilyen erőss gépet építeni, persze idővel lesz olayn is, hogy az ilyen gépek a cégeknél fognak szimulációkat végezni, de ma egy cég nem tud ezzel mit kezdeni, és nem is fizetne érte ha nem tudja kihasználni, az USA elénye itt a hadászati gépezet aminek mindég sokkal nagyobb az étvágya. Az USA lemaradását az Earth Simulátorhoz képest pedig azzal lehet magyarázni, hogy egy olyan periodusban voltunk amikor az USA csökkentette hadászati kiadásait és mind az egyetlen győztes a hidegháborúban kezdte úgy érezni, hogy nincs szükség a nagy lépésekre, persze ez 2001 szeptember 11. után gyökeressen megváltozott, és szinte biztos vagyok benne, hogy a BlueGene/Q a saját 3 PFLOPS-ával hamarossan valóság lesz, perzse jó lenne ha a Japánok követnék ezt a versenyt, mert akkor az emberiség nem csak hadi dolgokra koncentrálná ezt az óriási számítóerőt és persze a fejlődés is gyorsabb lenne. AZ én kérdésem hol van itt az EU, mert a jelenlegi szuperszámítógép ereje 10x az USA mögött van, ez idővel akár nagy gazdasági hátrány is lehet...
  • dez #12
    Tudnád esetleg bővebben indokolni a kijelentéseidet? (És tudnál esetleg kevésbé bántóan fogalmazni?)

    "A Cell NEM hasznalhato nagyteljesitmenyu szamitasokra."

    Mit nevezel "nagyteljesitmenyu szamitasok"-nak? A jól párhuzamosítható számítási műveletek (amikben egy vektror-proci jó) talán nem azok? Vagy ami erősen ALU-igényes? Utóbbi inkább a "kevés számítás - sok feltételvizsgálat" kategóriája, de tényleg ilyenek lennének a tudományos számítások? Mert érzésem szerint inkább az ellenkezője, de lehet, hogy tévedek.

    "A Cell erosen multimedias feladatokra van hegyezve mas jellegu alkalmazasokban nagysagrendekkel romolhat a teljesitmenye"

    Itt mi a "más jellegű"? Miért ne lehetne általános vektor-procikat más matematikai műveletekre is használni, mint multimédia? (Világosíts fel minket sötéteket.)

    "A japanok egy kicsit mas szemlelettel epitettek gepet, mint az amik. Pl. a japanok igazi vektorprocesszorokat alkalmaztak"

    A Cell vektor-procijai miért nem "igazi" vektor-procik?

    "Es a tetejebe programozasi szempontbol az ES maig a legjobb (ehhez a legkonnyebb hatekony alkalmazasokat irni)."

    Állítólag a Cellel is hasonló a helyzet, kimondottan szempont volt ez a fejlesztésénél (+ a hozzá adott SDK [nem csak game-SDK] elkészítésénél).

    Linkek:
    The CELL project at IBM Research
    Idézet innen:
    "The CELL Architecture

    The CELL Architecture grew from a challenge posed by Sony and Toshiba to provide power-efficient and cost-effective high-performance processing for a wide range of applications, including the most demanding consumer appliance: game consoles. CELL - also known as the Broadband Processor Architecture (BPA) - is an innovative solution whose design was based on the analysis of a broad range of workloads in areas such as cryptography, graphics transform and lighting, physics, fast-Fourier transforms (FFT), matrix operations, and scientific workloads."

    Cell

    Idézet:
    "The first-generation Cell processor is a multicore chip comprised of a 64-bit Power processor core and eight synergistic processor cores, capable of massive floating point processing, optimized for compute-intensive workloads and broadband rich media applications. A high-speed memory controller and high-bandwith bus interface are also integrated on-chip. Cell's breakthrough multi-core architecture and ultra high-speed communications capabilities deliver vastly improved, real-time response, in many cases 10 times the performance of the latest PC processors. Cell is OS neutral and supports multiple operating systems simultaneously. Applications will range from a next generation of game systems with dramatically enhanced realism, to systems that form the hub for digital media and streaming content in the home, to systems used to develop and distribute digital content, to systems to accelerate visualization and supercomputing applications."

  • Andrei #11
    Jo lenne eloszlatni egy felreertest, mielott meg tul sok ember kezdene hinni a hulyesegben. A Cell NEM hasznalhato nagyteljesitmenyu szamitasokra. Illetve hasznalhato, de nem jobb a teljesitmenye ezen a teruleten, mint a Power5-nek, es a Power5-hoz kepest szamtalan limitacioja van (foleg a memoriakezeles kornyeken). A Cell erosen multimedias feladatokra van hegyezve mas jellegu alkalmazasokban nagysagrendekkel romolhat a teljesitmenye (ezt az IBM ertheto okokbol nem veri nagydobra).

    A BlueGene/Q reszleteit illetoen nem kezdenek talalgatni, mert annak jo resze az IBM-nel is csak kocepcio.

    Bar az IBM nagyon eros rivalis, az NEC Earth Simulator elegge kinos pont a jenki supercomputing torteneteben. Erdemes a Top500 allapotat megnezni, akkor amikor 2002-ben elkeszult a gep.

    A japanok egy kicsit mas szemlelettel epitettek gepet, mint az amik. Pl. a japanok igazi vektorprocesszorokat alkalmaztak (talan SX-6 volt a neve), ami mellbevagoan jo teljesitmenyt adott (mind peak, mind sustained/peak viszonylatban) a HPL-ben es a gyakorlati eletben egyarant. Es a tetejebe programozasi szempontbol az ES maig a legjobb (ehhez a legkonnyebb hatekony alkalmazasokat irni).

    Summa summarum: a japanok eltero felfogasban epitenek szamitogepet, mint az amik, ugyhogy csak a peak alapjan itelkezni kicsit felszines lenne (bar az ES peakben anno a tiz leggyorsabb amerikai gepet egyben lenyomta).
  • dez #10
    A Cell megálmodója (persze nem tranzisztor-szinten, hanem koncepcióban, és néhány fontos megoldásban) a Sony elnöke, ha nem tévedek, és az előbbiek szabadalma is a Sony-é, vagy ezé az úriemberé. Bár a konkrét chipes megvalósítás főleg az IBM mérnökeire hárult, és a Power vonalból is sokmindent áthoztak. Mellesleg ne felejtsük el, hogy a Sony csinált már többek között olyat, hogy EmotionEngine (grafikára is kihegyezett proci a PS2-ben), stb.
  • BlackRose #9
    a BlueGene/Q amint a képen is irja 3 PFLOPS lesz, vagyis 3x annyi mint ez a gépecske, és az IBM már 2008-0ö re tervezi beállítani a szörnyeteget... de azt hiszem itt nem áll meg, szerintem 2011-re akár 10 PFLOPS is lehet...
  • HUmanEmber41st #8
    Van (álltalában) 200 fps, aminél többet egyszerűen nem tud a motor megjeleníteni..
    Bár ezen lehet, h az UT kicsit szaggatna....:) :) :)
    mert számolni tud, de mi lesz a vidkarival??? :) :)
    vagy valami mátrixnyomtatóra adja ki a végeredményt hexában ???? :) :) :) :)
  • blackeagle #7
    Tényleg hányat ? :)