260
Avagy a PhysX PPU vs. Havok Engine
  • Borg
    #1
    Na, kiváncsi leszek mit hoznak ki ezekből 1 év alatt :) Főleg úgy, hogy a Havok Engine "nem élvezi" ennek a támogatását...



    A Game Developer Conference alkalmából az Ageia nemcsak PhysX szoftverfejlesztő-csomagja legújabb változatával állt elő, hanem az eddig csupán a híroldalakon látható PhysX fizikai processzort (Physics Processing Unit, PPU) is bejelentette.

    A bővítőkártya elsőként az Egyesült Államokban rendelhető a Dell, az Alienware és a Falcon Northwest játékosoknak szánt konfigurációival együtt, e gyártók közül az Alienware már jelezte, hogy áprilistól Európában is értékesít PhysX kártyával Area-51 és Aurora 7500 rendszereket. Az Asus és a BFG által gyártott fizikai gyorsítók önállóan májusban kerülnek forgalomba, nettó áruk várhatóan 300 dollár körül alakul.

    A PCI csatolófelületű kártyán 128 MB 128 bites GDDR3 memória található a PPU társaságában, a hardver külön tápellátást is igényel. A PhysX PPU a fizikai modellel kapcsolatos számítások hardveres gyorsítására szakosodott; használatának feltétele a PhysX fizikai motorjának alkalmazása a játékban, így például a konkurens Havok eljárásait használó programok nem tudják kiaknázni a PPU képességeit. Az Ageia bejelentése szerint hatvannál több fejlesztő mintegy száz játéka fogja támogatni ebben az évben a PhysX fizikai processzort.
    - PH
  • [Jakuza]
    #2
    Ez mar eleg regi Borg, legalabbis mar regen fejleszteni kezdtek.
    Jo sokk cikk is megjelent mar vele kapcsoltaban, viszont, mar jo egy eve igertek a piacra keruleset.
    Azota sincs semmi nagy hir.
    Ebben a forumban kezdtuk anno a kivesezeset.
    Olvasd el ha erdekel komolyabban a tema.
  • [NST]Cifu
    #3
    Szvsz azért van vele kapcsolatban nagy hír...
  • [Jakuza]
    #4
    Marmint arra ertettem, hogy idaig a 2005os kiottlott kiadas datuma ota.
  • HiPPoNaX
    #5
    fizikai modellel kapcsolatos számítások hardveres gyorsítására szakosodott
    ebbol arra kovetkeztetek, hogy nem a megjelenitest szamolja (mint a grafikus kartya) hanem az adott software fizikajat, tehat nem +1 videokartyaval er fel
  • HiPPoNaX
    #6
    nah toroltek az elottem levo hsz-t, en meg nem vagyok vip uh nem tudom megtenni, sorry az igy ertelmetlenne valt postert :]
  • Barney Tech
    #7
    én nem olyan mintha + videókártya
    ettől még nem lesznek gyorsabbak a gamák?
  • Sadist
    #8
    Gyorsabb lesz, mert a procinak több ideje marad más feladatokra, nem kell a fizikai részt is számolnia. Persze nem fog az FPS 100-ról 180-ra felugrani, azért a videokártya felelős. Csak míg pl. a Karma motor egyszerre csak 10 test esését tudta számolni, egy ilyen lehet, hogy akár egyszerre több százat, vagy akár ezret is képes. Pl. játékban kirobbantasz egy téglafalat, akkor minden egyes tégladarab valós fizikával fog szerte repülni úgy, hogy nem fog a proci meggebedni.
  • Sadist
    #9
    Kíváncsi vagyok mi lesz a következő, amit hardveresíteni fognak. Játékban már csak az AI maradt. Képzelem, ahogy a sok csóringer ideges lesz, mert az occsó AI kari miatt a botok hülyék lesznek mint a föld
  • Borg
    #10
    Pont erről szól a dolog, hogy most dobják piacra őket.
  • Barney Tech
    #11
    kb mennyi lesz egy ilyen?
  • Sadist
    #12
    "nettó áruk várhatóan 300 dollár körül alakul."

    Láss is, ne csak nézz.
  • Zsoltika 007
    #13
    300 dolcsi?? Akkor már a havok motor! Az lagalább a gpu-ra támaszkodik. 2 részre szakad ez a szegmens is jön majd a havok vs ageia vita. Remélem verseny is lehet belőle, bár ha a vga gyártók ezt a megoldást a gpu-val oldják meg akkor szerintem hamar eldől a dolog.
  • [NST]Cifu
    #14
    A probléma csak az, hogy a GPU-nak lenne más dolga is, nevezetesen a videómegjelenítést. Szép, hogy képes átvenni a fizikai számításokat a CPU-tól, de mi értelme ennek, ha az az ára, hogy a videókártyának kevesebb framet tud kinyomni magából...
  • [Jakuza]
    #15
    Es a PPU mit szamol ?
  • Zsoltika 007
    #16
    Ez így van. De ha hozzávágnak +1 cpu-t meg egy kis +memcsit a fizikának dedikálva akkor gyorsan le van rendezve a dolog. Az egyértelmű hogy ez nem a jelen vga kártyáival fog ütni. De a köv generációval (vagy a rá következővel) már megoldható.
    Meg hát ha az ait/nvidia azt mondja hogy holnaptól ez szabvány akkor az az is lesz :D
  • [NST]Cifu
    #17
    Kicsit lemaradtál :)
    A Havok motor támogatni fogja azt, hogy a GPU számolja a fizikai motor dolgait, és ehhez a PS3.0-át támogató videókarik már képesek lesznek az nVidia szerint (tehát Gf6600+). A lehetőség tehát az, hogy PhysX PPU + PhysX fizikai motor vagy Havok motor + GPU által számolt fizika. A Havok egyelőre nem támogatja a PhysX-et, a két rendszer egymás konkurense.
  • [NST]Cifu
    #18
    Pont erről beszélek.

    Havok: videókari vagy a CPU számolhatja a fizikát. Nincs plusz proci.
    PhysX: PPU számolja dedikáltana fizikát.

    Ha a Havok esetén is egy plusz chipet hoznak be, akkor elvész az az előny, amiről eddig beszéltünk...
  • [Jakuza]
    #19
    Jol van kicsit koran van meg.
    Azt hittem a PhysX-re ertetted ezt a GPUs dolgot.
    Azert nem ertettem az egeszet.
    Mar latom , hogy a Havocra gondoltal. Mert maskent ertelmetlen lenne amit leirtal. :P
  • [NST]Cifu
    #20
    Havok ;)
  • Borg
    #21
    Végülis jelen pillanatban még bármelyik lehet sikeresebb a másiknál.

    Havok: A videokártyák tudása az átlag felbontáson és grafikán ma még kihasználatlan, még egy 6800gt-nél is (6600gt-nél már nem biztos). Tehát van kapacitás arra, hogy mellette fizikát is számoljon valamennyit. Márpedig ezt a valamennyit gyorsan fogja tudni, mert agp/pciex + a videokártyán lévő ram is sokkal gyorsabb.

    PhysX: A dedikált kártya számol mindent, közepes sebességű rammal, a relatíve lassú PCI csatolón át. Viszont mivel a GPU és a CPU is teljesen felszabadul, kb ugyanott lehet majd a teljesítményben. Viszont hátránya, hogy plusz driver, és plusz támogatás kell hozzá, a kompatibilitási problémák megoldásáról nem is beszélve.

    Szal mindent összevetve még lehet, hogy a Havok jobb, de legalábbis egyik sem holtvágány.
  • Zsoltika 007
    #22
    Néhány PH!-s link a témában:
    A havok elképzelése
    Az ati is kacsintgat
    Az asus megoldása
  • [Jakuza]
    #23
    Nos eppen ezert kellene a PhysX-es chipet feltenni egy VGA kartyara, nem kulonallo kartyakent kezelni.
  • Zsoltika 007
    #24
    Engem az ára zavar leginkább. Ér ez annyit? A 3d kártyák anno megérték mert tényleg mutattak valamit. De ez?
  • Borg
    #25
    Hát, együtt már nem biztos, hogy a pci-ex is elég lenne nekik. Egy kártyán.

    De helyette lehetne pci-x slotba tenni, vagy valami dedikált csatornára az alaplapon. A legjobb megoldás biztosan ez lenne.
  • Borg
    #26
    Ez egy újdonság, majd megy lejjebb az ára. Minél többen foglalkoznak vele, annál olcsóbb lesz majd.
    Anno mikor bejött a 3dfx voodoo1, az sem volt olcsó éppen :) Aztán mégis mekkora áttörést jelentett néhány hónapon belül...
  • Zsoltika 007
    #27
    Pontosan erre gondoltam én is. Hogy abban hihetetlen lehetőségek voltak. Én azt anno 24 ért vetettem :). Kiváncsi vagyok ebből mennyit tudnak kihozni.
  • Zetorg
    #28
    a havok megoldása szvsz csak sli esetén lesz ütőképes...
    a bemutató képen is GPU1+GPU2 van
  • [NST]Cifu
    #29
    Nem mondanám, hogy a Gf6800GT-nak olyan sok feles ereje lenne, egy CS:S 1024x768-ben minden maxon, 4xFSAA, 8xAniso, full HDR bizony már éppen a játszhatósághoz, 1680x1050 esetén pedig FSAA nélkül is leesik 20 környékére mozgalmasabb pillanatokban. Az új játékok, mint az Oblivion már annyira eszik a VGA-t, hogy nem lehet max. részletesség és nagy felbontás mellett 30+ FPS-t látni. Hogy akarnak akkor még fizikát is számoltatni vele?
  • [NST]Cifu
    #30
    Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nőne meg legalább a kártya ára. Ráadásul plusz fogyasztó, vagyis lassan már három molex csatit kell rádugni a videókarira, vagy külső áramforrást. :)

    Szóval én nem hiszem, hogy a videókarit fognák be erre a célra. A külön kártya megfelelő lenne - de akkor azért valami emberibb árat szabjanak neki, vagy komolyabb támogatást (jelenleg az Unreal engine az egyetlen valóban nagy név a palettán).
  • [NST]Cifu
    #31
    Hát azért én emlékszem arra, hogy a vadonatúj Voodoo-mmal, amit akkor 50 000 Ft-t fizettem, nem pár hónapig, hanem kb. egy évig komoly játéktámogatás nélkül ücsörgött a gépemben. A haveroknak mutogatthattam a gyári techdemokat, meg egy-két játékdemot....
  • [Jakuza]
    #32
    1. AGPs kartyakon eddig is volt molex csati senkit nem zavart.
    PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni.
    50 dollar 10k, nem fog zavarni senkit, ha egy kozepkategorias kartya 10k-val tobb lesz.
    Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40.
    Raadasul minnel tobb ilyen chipet gyartan nagy tetelben annal jobban csokken a chip eloallitasi ara. Akar lemehet egy-ket dollaros szintre.
    3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.
  • Borg
    #33
    De ez nem az átlag. Az átlagember nem használ AF+AA-t, főleg nem magasabb szinteken.
    Nekem a 6600GT-n 1280x1024-ben, 4xAF-el teljesen tökéletesen fut a CSS. Ennek sokkal inkább CPU kell, mintsem VGA. És pont azért kell neki a CPU, mert az AI+fizika számítás fingatja ki.
    Szal CSS-ben tipikusan nem azért alacsony az fps, mert a vga nem bírja.
  • [NST]Cifu
    #34
    PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni.

    Az én kártyámon két molex csati is van. ;)

    Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40.
    3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.


    És már így is nehezen igazodnak el az átlag userek, hogy melyik videokártyát érdemes megvenni, és melyiket nem.
    Az pedig a vásárlón múlik, hogy ki is fogja-e fizetni a különbözetett.
  • [NST]Cifu
    #35
    6600GT-n, minden high és full HDR? Azért szvsz ez már eléggé megeszi a videokarit.
    A 6800GT-t pedig te hoztad fel, ha pedig már ilyen szintű kártyát vesz az ember, el is várja, hogy max. részletesség és bekapcsolt FSAA mellett lehessen játszani vele.
  • Inquisitor
    #36
    "Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nőne meg legalább a kártya ára."
    Aham, meg plusz 3-4 nyákréteg (+40USD), meg spéci hűtés (20-50USD) ... és akkor lesz egy mindentudó kártya, ami mindent csak kevéssé tud. lehet választani, hogy a GPU vagy a PPU kapja a sávszélleséget :P
  • Inquisitor
    #37
    ATI Physics Acceleration Gets a Voice
    http://www.pcper.com/article.php?aid=226&type=expert&pid=1

    NVIDIA and Havok Bring SLI Physics to Life
    http://www.pcper.com/article.php?aid=222

    AGEIA PhysX Physics Processor Technology Preview
    http://www.pcper.com/article.php?aid=225

    Game Developers Conference 2006 - Physics and Gaming
    Zajlik az élet ...  :eek:
  • Inquisitor
    #38
    Három érdekes bemutato (Ghost Recon3, meg CellFactor az érdekesebb)
  • Inquisitor
    #39
    CellFactor video letölthető verzijóban (PhysiX Only game!)
  • Inquisitor
    #40
    Itt vannakdemovideo linkek Nvidia/Havok megoldásra (Fileshack!)