Gyurkity Péter

nVidia: grafikus chipeket a szuperszámítógépekbe!

A cég főmérnöke szerint néhány éven belül a legerősebb szuperszámítógépek jó része már grafikus chipekre támaszkodik majd, amiben az nVidia segíthet az ágazatban érdekelt cégeknek. A cél a teljesítmény növelése lenne.

Erről beszélt David Kirk egy sajtótájékoztatón. Kiemelte, hogy a grafikus processzorok felépítése miatt idővel alkalmasak lesznek ma még szinte elérhetetlen teljesítmény nyújtására is, ezáltal pedig a szuperszámítógépek szegmensében is értelmet nyerne felhasználásuk. Az nVidia a jelek szerint úgy véli, hogy ebben mindössze az idő jelenti az egyetlen akadályozó tényezőt, így az általános célú felhasználás területén is jókora szeletet haraphatnak majd ki meglévő termékeik tökéletesítésével.

Ez utóbbi területén már most is jelen van a cég, illetve annak riválisa, az ATI/AMD. Előbbi elkészítette a Tesla-sorozatot, utóbbi pedig a FireStream családdal hódítana, ám eddig nem sok babér termett a két versenyzőnek. A cél ezért az, hogy bebizonyítsák: a már most is több száz stream processzort tartalmazó grafikus chipek igenis eljuthatnak egy olyan szintre, ahol már a szuperszámítógépekben használt speciális processzorokkal, valamint az AMD Opteron és Intel Xeon fejlesztésekkel is felvehetik a versenyt. Ehhez azt kellene elérniük, hogy az általános célú grafikus chipek (general purpose GPU, vagyis GPGPU) kisebb darabszámnál is megfelelő teljesítményt nyújtsanak.


Kirk nagyjából 2012-re várja azt, hogy valóban versenyképesek lesznek a szuperszámítógépes szegmensben. Addigra szerinte az öt leggyorsabb szuperszámítógépből már három támaszkodik majd grafikus chipekre, ez pedig megnyitná az utat a szélesebb körű felhasználás felé. "Ez jelentené a terület demokratizálódását, az utánpótlás pedig biztosítva lenne, hiszen már most is hetente több millió párhuzamos egységet szállítunk le" - jegyezte meg a főmérnök.

Napjaink leggyorsabb fejlesztései olykor több százezer többmagos processzort tartalmaznak, az általuk nyújtott brutális erőt pedig nem lesz könnyű lehagyni. Az is világos, hogy az IBM, a Sun, és társaik nem fognak ölbe tett kézzel várni az nVidia megoldására és nyilván ők is továbbfejlesztik majd saját chipjeiket. Nagyon kemény fába vágja tehát fejszéjét a cég, amennyiben komolyan gondolja az itt elhangzottakat.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • dez #11
    A 65nm-es Cellből csinált magának az IBM egy olyan változatot, ami DP-ben 100+ GFLOPS.
  • shabba #10
    Pedig van: AMD FireStream™ 9170: Industry's First GPU with Double-Precision Floating Point

    A gond csak az vele hogy, sehol nem írják(weboldalon,preziben) hogy DP-ben, mire is képes, erről sejtelmesen hallgatnak. Mindnütt csak az szerepel hogy:
    "Up to 500 GFLOPs single precision performance"
    "Double Precision Floating Point"
    vagy
    "320 stream cores drive up to 500 GFLOPS single-precision performance"
    "Double-precision floating point for scientific and engineering codes"

    De azt sehol nem írják DP-ben mennyi is a peak Gfloaps.

    Kicsit olyan ez mint WiMAX-nál a jellemzők között hogy maximum 70 Mbps, meg maximum 50km hatótál. Csak épp a kettő kizárja egymás vagy közelre gyors, vagy távolra is elér de akkor már lassú.

    A Cell esetén igen komolyan csökken a DP teljesítmény, ott is 250 Gfloaps SP-ben, DP-ben már csak a tizede. Kérdés ezek a GPU-k hogy viselkednek DP mellett.
  • Vers #9
    ezek a highend gépek 64 biten számolnak, melyik gpu nyomul igy, én egyröl se tudok
    könnyü sok kis magot belapaszirozni csak nem jo semmire, azon kivül amire kitalálták
  • dez #8
    Az Nvidia vélhetően a csúcs peak FLOPS-ra fog törekedni... A gyakorlatban persze nem lehet majd kihasználni, de a marketing anyagokban jól fog mutatni. Bár ez kevés a szuperszámítógépekben való alkalmazásra, máshová még elsüthetik. (A szuperszámítógépektől lefelé fokozatosan egyre inkompetensebb vezetők kezében van a döntés...)
  • dez #7
    Pár extra pipeline-t? Az kevés lesz. Egy CPU mag általános kód futtatására lett kitalálva, ezért sokkal nagyobb (több tranyó), mint a GPU-k számoló egységei. Egy CPU magban 1db FPU van (ami képes 4db 32 bites [SP], vagy 2db 64 bites FP [DP] műveletet végezni SIMD-ben, sima scalar kódban meg 1-2-t), így egy négymagos egyszerre max. 16db 32 bites FP műveletet tud. (De ez nagyon elméleti, a gyakorlatban csak egy részét tudja ennek.)

    A GPU-k számoló tömbje kb. olyan, mintha egy CPU magból kiszednénk az FPU-t, és magában megsokszoroznánk.

    Egy G80 egyszerre 128db 32 bites FP műveletet tud, egy R600 meg akár 320-at... Igaz, kb. fele órajelen, mint a G80, aminek szintén kb. a fele az órajele egy gyors CPU-hoz képest. De még így is kb. 4x gyorsabbak ezek GPU-k a peak FLOPS-ban (a többit nem számolva), mint egy gyors 4-magos CPU. Ráadásul ebből jóval többet is tudnak kihozni a gyakorlatban, hacsak nincs valami akadályozó tényező, lásd alább. És a GPU-knak sokkal nagyobb a memória-sávszéle.

    A GPU-k legnagyobb gyengesége jelenleg az ugró utasítások végrehajtása (főleg a G80-nak, de az R600 is messze van ebben egy CPU-tól). Ezen kellene javítaniuk, bár akkor a felépítésük is bonyolódna, és máris nem férne el annyi számoló egység.

    Az Intel Larrabee-je egy érdekes hibrid lesz: egyszerűsített CPU magok, de abból jópár darab (16-32, ilyesmi). Peak FLOPS-ban nem lesz annyi, mint egy akkori GPU, de általános jellegű számítási feladatokra mégis jobb lesz. (Ilyesmi a Cell is, csak annak még kisebbek a számoló magjai, így még több lehet belőlük, és kb. 2 év múlva, amikor megjelenik a Larrabee, sokmagos Cell is lesz.)
  • Su0my #6
    Hát, legalább lesz gép, amin fut a hű-de-jaj-de-jó Crysis..

    Shabba: igen, ebben van igazság, de 1.: mi van, ha szövetkeznek a VIA-val? 2.: mi van, ha már 4 éve a legnagyobb csendben fejlesztik ez irányú megoldásaikat? 3.: mivan, ha 2012-ig kifejlesztenek egy nemrég indult project keretében egy hasonló megoldást?

    ráadásul csak halkan jegyzem meg, hogy ami miatt veszik az nV kártyákat (értsd: játékipar), az meg is marad. Ugyanis egy jó részét az nV pénze mozgatja..

    szóval jelen állás szerint úgy érzem, szebb jövő vár ránk, ugyanis egy viszonylag kiegyensúlyozott 3szereplős piac várható.. Sőt ez most fog elkezdődni, az nV el van csúszva a 8xxx és 9xxx sorozataival, ATI talán magára talált a 3xxx-ekkel, jön a 4xxx, amiben ahogy hallani lehet, sok a potenciál, intel-nek jön a szép nevű Larabee-ja (hú, nagyon kíváncsi vagyok rá)..

    Tényleg kíváncsi vagyok, nV-nek hoszabb távon mi lesz a válasza a GPGPU-ra [már, ha a másik két cégnek bejön, ugye... :) ]
  • shabba #5
    Attól tartok Nvidianak ezen a piacon 2012-re nem sok babér fog teremni és szerintem azokon a piacokon is egyre kevesebb ahol most még piacelsők. A konkurens cégek úgyis a saját GPGPU megoldásaira fognak építkezni, az AMD a Fusionra, az Intel a Larrabeera, az IBM a Cellre. Mivel az Nvidiának nincs saját CPU-ja elég nehéz lesz fölvennie a versenyt vagy olyan párt találnia, akivel közösen fel tudná használni saját megoldását.
  • peterx #4
    Már nagyon felkéne találni a kvantumszámítógépeket :D
  • JTBM #3
    Elvileg az intel és AMD procikat is lehetne módosítani, hogy jobban megfeleljenek a supercomputer-ek igényeinek, de szvsz. nem éri meg pénzügyileg, ezért abból építik meg a supercomputereket, ami már megvan.
  • JTBM #2
    Szvsz. egyszerűbb egy CPU-ba beletenni pár extra pipeline-t, mint a GPU-t módosítani CPU-ra.

    A legtöbb esélye ezen a piacon azoknak a cégeknek van, amelyek eleve szerver procikat gyártanak, mint pl. az IBM.

    Az intel és az AMD inkább az árral tudnak versenybe szállni.