11
  • dez
    #11
    A 65nm-es Cellből csinált magának az IBM egy olyan változatot, ami DP-ben 100+ GFLOPS.
  • shabba
    #10
    Pedig van: AMD FireStream™ 9170: Industry's First GPU with Double-Precision Floating Point

    A gond csak az vele hogy, sehol nem írják(weboldalon,preziben) hogy DP-ben, mire is képes, erről sejtelmesen hallgatnak. Mindnütt csak az szerepel hogy:
    "Up to 500 GFLOPs single precision performance"
    "Double Precision Floating Point"
    vagy
    "320 stream cores drive up to 500 GFLOPS single-precision performance"
    "Double-precision floating point for scientific and engineering codes"

    De azt sehol nem írják DP-ben mennyi is a peak Gfloaps.

    Kicsit olyan ez mint WiMAX-nál a jellemzők között hogy maximum 70 Mbps, meg maximum 50km hatótál. Csak épp a kettő kizárja egymás vagy közelre gyors, vagy távolra is elér de akkor már lassú.

    A Cell esetén igen komolyan csökken a DP teljesítmény, ott is 250 Gfloaps SP-ben, DP-ben már csak a tizede. Kérdés ezek a GPU-k hogy viselkednek DP mellett.
  • Vers
    #9
    ezek a highend gépek 64 biten számolnak, melyik gpu nyomul igy, én egyröl se tudok
    könnyü sok kis magot belapaszirozni csak nem jo semmire, azon kivül amire kitalálták
  • dez
    #8
    Az Nvidia vélhetően a csúcs peak FLOPS-ra fog törekedni... A gyakorlatban persze nem lehet majd kihasználni, de a marketing anyagokban jól fog mutatni. Bár ez kevés a szuperszámítógépekben való alkalmazásra, máshová még elsüthetik. (A szuperszámítógépektől lefelé fokozatosan egyre inkompetensebb vezetők kezében van a döntés...)
  • dez
    #7
    Pár extra pipeline-t? Az kevés lesz. Egy CPU mag általános kód futtatására lett kitalálva, ezért sokkal nagyobb (több tranyó), mint a GPU-k számoló egységei. Egy CPU magban 1db FPU van (ami képes 4db 32 bites [SP], vagy 2db 64 bites FP [DP] műveletet végezni SIMD-ben, sima scalar kódban meg 1-2-t), így egy négymagos egyszerre max. 16db 32 bites FP műveletet tud. (De ez nagyon elméleti, a gyakorlatban csak egy részét tudja ennek.)

    A GPU-k számoló tömbje kb. olyan, mintha egy CPU magból kiszednénk az FPU-t, és magában megsokszoroznánk.

    Egy G80 egyszerre 128db 32 bites FP műveletet tud, egy R600 meg akár 320-at... Igaz, kb. fele órajelen, mint a G80, aminek szintén kb. a fele az órajele egy gyors CPU-hoz képest. De még így is kb. 4x gyorsabbak ezek GPU-k a peak FLOPS-ban (a többit nem számolva), mint egy gyors 4-magos CPU. Ráadásul ebből jóval többet is tudnak kihozni a gyakorlatban, hacsak nincs valami akadályozó tényező, lásd alább. És a GPU-knak sokkal nagyobb a memória-sávszéle.

    A GPU-k legnagyobb gyengesége jelenleg az ugró utasítások végrehajtása (főleg a G80-nak, de az R600 is messze van ebben egy CPU-tól). Ezen kellene javítaniuk, bár akkor a felépítésük is bonyolódna, és máris nem férne el annyi számoló egység.

    Az Intel Larrabee-je egy érdekes hibrid lesz: egyszerűsített CPU magok, de abból jópár darab (16-32, ilyesmi). Peak FLOPS-ban nem lesz annyi, mint egy akkori GPU, de általános jellegű számítási feladatokra mégis jobb lesz. (Ilyesmi a Cell is, csak annak még kisebbek a számoló magjai, így még több lehet belőlük, és kb. 2 év múlva, amikor megjelenik a Larrabee, sokmagos Cell is lesz.)
  • Su0my
    #6
    Hát, legalább lesz gép, amin fut a hű-de-jaj-de-jó Crysis..

    Shabba: igen, ebben van igazság, de 1.: mi van, ha szövetkeznek a VIA-val? 2.: mi van, ha már 4 éve a legnagyobb csendben fejlesztik ez irányú megoldásaikat? 3.: mivan, ha 2012-ig kifejlesztenek egy nemrég indult project keretében egy hasonló megoldást?

    ráadásul csak halkan jegyzem meg, hogy ami miatt veszik az nV kártyákat (értsd: játékipar), az meg is marad. Ugyanis egy jó részét az nV pénze mozgatja..

    szóval jelen állás szerint úgy érzem, szebb jövő vár ránk, ugyanis egy viszonylag kiegyensúlyozott 3szereplős piac várható.. Sőt ez most fog elkezdődni, az nV el van csúszva a 8xxx és 9xxx sorozataival, ATI talán magára talált a 3xxx-ekkel, jön a 4xxx, amiben ahogy hallani lehet, sok a potenciál, intel-nek jön a szép nevű Larabee-ja (hú, nagyon kíváncsi vagyok rá)..

    Tényleg kíváncsi vagyok, nV-nek hoszabb távon mi lesz a válasza a GPGPU-ra [már, ha a másik két cégnek bejön, ugye... :) ]
  • shabba
    #5
    Attól tartok Nvidianak ezen a piacon 2012-re nem sok babér fog teremni és szerintem azokon a piacokon is egyre kevesebb ahol most még piacelsők. A konkurens cégek úgyis a saját GPGPU megoldásaira fognak építkezni, az AMD a Fusionra, az Intel a Larrabeera, az IBM a Cellre. Mivel az Nvidiának nincs saját CPU-ja elég nehéz lesz fölvennie a versenyt vagy olyan párt találnia, akivel közösen fel tudná használni saját megoldását.
  • peterx
    #4
    Már nagyon felkéne találni a kvantumszámítógépeket :D
  • JTBM
    #3
    Elvileg az intel és AMD procikat is lehetne módosítani, hogy jobban megfeleljenek a supercomputer-ek igényeinek, de szvsz. nem éri meg pénzügyileg, ezért abból építik meg a supercomputereket, ami már megvan.
  • JTBM
    #2
    Szvsz. egyszerűbb egy CPU-ba beletenni pár extra pipeline-t, mint a GPU-t módosítani CPU-ra.

    A legtöbb esélye ezen a piacon azoknak a cégeknek van, amelyek eleve szerver procikat gyártanak, mint pl. az IBM.

    Az intel és az AMD inkább az árral tudnak versenybe szállni.
  • T0nk
    #1
    Ez csak a GPU gyártóknak lenne jó. Természetesen átmeneti megoldásként rendben van, amíg nem tudják kiáltalánosítani, hogy mely feladatok azok amikkel fel kell vértezni egy általános processzort, hogy hozni tudja ezt a teljesítményt. Mondjuk vannak rá elég jó próbálkozások, lásd Cell.