260
Avagy a PhysX PPU vs. Havok Engine
  • janos666 #60
    Hát várjuk. De most néztem a CellFactory videót ami tényleg baszott látványos, ha 35-40000 köré megy majd az ára ennek a szarnak és ügyesen sikerül megejteni egy VGA cserét még veszek is majd egyet, mert úgy tűnik megéri. (a játék is érdekesnek tűnt hogy fél órát baszogassan, de nem merem letölteni a hogy a kártya nélkül elindítva lelombozódjon a pillanatnyi illúzióm )

    Szerintem pont hogy a CPU amit a legjobb mindíg jobbra cserélgetni, hisz játékon kívül minden rendszerművelet (tömörítés, videókódolás ésatöbbi ; jut eszembe itt ül a kártáymon egy on-chip videó processzor de a seggem törölhetném vele mert pl. egy DivX kodek szarik rá DVD-rippelésnél hogy ez encodeolni is tud, csak a VIVO-t lehet vele kódoltatni, filet nem) használja. A fizika kapcsán is talán többet érne ha a jövőbeni 4 magos procik kapnának egy új utasításkészletet a játékok fizikai számításaihoz, mint grafikához SSE-t meg 3DNow!-ot.

    Amúgy az Nvidia féle hasonlóan látványos on-GPU grafikáról kiderült hogy játékokban szart nem ér, mert a GPU-k nem szeretnek visszafele dolgozni, vagyis amit számolnak tovább tart visszapaszírozni a CPU-ba mint ha az számolta voltna ki (ha meglöksz egy dobozt stb). Csak szép, komplex grafikák animálásához jó, de nem ilyen lövöldözős real-time játékokhoz.
    Az utólsó mondtatot meg nem értem. Már a mostani GPU-kon is megy az nvidia cucca, nem kell külön várni a Gef8-ra ami majd tudja ezt. (vagyis hogy fizikázik is nem csak grafikázik a GPU ugyanúgy csak egy aktuálisan gyors kártya kell) Viszont az új havokkal kidobott játék még várat magára és amiatt amit írtam az előbb valószinűleg egy darabig nem is lesz. (na tényleg itt jön a Gef8 ami visszafele is tud majd komunikálni )
  • Inquisitor
    #59
    Te most ezt viccnek szántad, de hdd el, ha minden fórumon kitalálják ezt páran (és biztosítlak, hogy mindegyiken eszébe jutott valakinek), akkor a HW gyártóknak is eszébe fog jutni.

    Sőt!
    Hogy elébe menjek a dolgoknak ... Ha letöltöd az ATI féle fizikai demonstrációt, akkor láthatod van benne AI demonstráció is! Szóval ha nem jön be az ATI-nak a fizikai gyorsítás (mert pl. a PhysX, az NVidia vagy más lhappolja), még mindíg ráfoghatja, hogy AI gyorsító. Másrészt a PhysX-et is lehet használni AI számításokra, ezt még az első, egy évvel ezelötti bejelentés körül pedzegették.)
  • Anotino
    #58
    Aztan vmi nagyokos kitalalja az AI gyorsitokartyat, a CPU-nak meg csak koordinalasi feladatai lesznek :)
  • [NST]Cifu
    #57
    Mint említettem, várjuk meg a teszteket. Hajdan a CPU csinált mindent. Már lekerült a vállásról a 3D grafikai megjelenítét és a 3D hangzás számításának terhe. Most lekerül a fizikai motor számításának terhe is. Elvileg ez azt is jelentheti, hogy felesleges lesz kétmagos (majd négymagos) procit venned, mert szinte már csak az AI és a játék "magja" maradt rá. Minden mást gyorsítókártyák végeznek helyette.

    Gondolj bele, így gyakorlatilag a procicserét elhalaszthatod, hiszen abból a pénzból, amit pluszba el kellene költeni a kétmagos procikra, elköltheted egy fizikai gyorsítókártyára is. Így tehát a géped tovább bírja.

    Eddig szól az elmélkedés. A kőkemény, vad igazság meg az, hogy szívni fogunk, mint a torkos borz, mert tuti, hogy az nVidia és az ATi nem fogja ennyiben hagyni a dolgot, vagyis a 3D-s grafikai szabványok (D3D és OpenGL) versenye után (amit a játékok terén a D3D nyert) itt a fizikai motorok versenye. Ha azt akarod, hogy a PhysX és a Havok motoros játékok is jól fussanak, akkor kell egy jó PhysX chipes gyorsítókártya plusz egy fizikai gyorsítókártyaként is funkcionáló kellő teljesítményű videókártya.
  • janos666 #56
    Most hogy itt ez a kártya is már értem miért volt ez a demonstráció az új Havok motorról ami CPU helyett Nvidia GPU-kat használja. Kár hogy arról savanyú szájízzel vélekednek a játékfejlesztők, mert nincs kedvem egy ilyen kártyát venni. (tudom ma még nem kell, de jövőre talán már nem árt...)
  • [NST]Cifu
    #55
    Nem tudom, kétséggel fogadom ezt a magyarázatott, szvsz várjuk meg az első ilyen teszteket, majd csak kiderül merre mennyi a répa... :)
  • Anotino
    #54
    Szerintem boven marad ideje egy gyengebb vga kartyanak is fizika szamolgatasara, meg akkor is, ha kozben meggebeszted kozben hdr-el meg fsaa-val. Ha jol sejtem foleg a VS melozik a fizikan, az pedig majdnem minden kartyan joval erosebb a szuksegesnel(akar a fele is eleg lenne..), mivel a jatekok 99.9%-ban a pixel fill rate a szuk keresztmetszet.
  • Inquisitor
    #53
    Hát pedig azért linkeltem be ezt a sok dolgot, hogy mindenki tisztán lásson.
    Elvileg a GPU számolta "fizika" inkább látványelemekre (tűz, víz, szikrák, stb.) vannak kihatással, míg a teljesen HW megoldás a játékmenetre is, mondjuk a HL2 vagy a Tresspasser szerű dolgokra gondolva, azoknál sokkal életszerűbb verzióban.
  • Evogordon
    #52
    Én az ATI fejlesztésére szavazok, nekem mondjuk nvidia-m van :) de az ATI oldalán vagyok...
  • Inquisitor
    #51
    Hát az NVidia Vortex demo elég gázos. Van egy vagy 20 poligonos pálya (még a lépcső is egy gány textúra), és azon van 1db krapek (dísznek, semmi köze a fizikához szinte), meg 1 pontos objektumként kezelt sokezer doboz. És kb. ennyi :(
  • magus
    #50
    6. szonak egy "hogy" kimaradt, sry:/
  • magus
    #49
    el sem hiszem, hogy azutan, minden jatekban az evszazadok ota napot nem latott cellak is ugy csillognak villognak, mint hogyha egy csapat takarito atment volna rajta felmosoval, vegre foglalkoznak azzal, hogy legyen csak egy egeszn aprocska minimalis kolcsonhatas a karakterek kozott, ne csak elore legyartott mozgasanimaciok fuzodjenek egymas utan.
  • czky
    #48
    Ez legyen a legnagyobb baj!
  • Inquisitor
    #47
    21. Szóval PHYSX.
  • Inquisitor
    #46
    Megörülök, vagy 20x írtam PhysiX helyett PhysiX-et.
  • Inquisitor
    #45
    Közben nézem az NVidia demókat is. A Dinos kint van az NVidia oldalán is, igazából nem hat meg, hogy kiszámol néhán ticat objektumot, az NVidia Bricks demo a végén a sokezer téglával már érdekes. Viszont a Havok-nak is milyen szép techdemoi voltak sokezer objektummal, aztán mai gépek még se tudják kiizzadni.
    Még a Vortex demot töltöm, remélem az meggyőzőbb.

    A PhysiX videóknál azért érdemes figyelni rá, hogy azok nem techdemók, hanem futó játék, full 3D megjelenítéssel, AI-val, meg mindennel. Szóval a GPU-s megoldást majd akkor hiszem el, ha minmum egy Doom's Hangar szintű cuccot lerenderelnek játék közben fizikával, és nem csak techdemóban ;)
  • Inquisitor
    #44
    Egyrészt senki sem tzhatja, hogy a PhysiX nem fog e gyorsítani Havok motort, csak megállapodás kérdése, másrészt azért Engine szinten az UE3 és a CryTek2 is alapból támogatja a kártyát. (Pedig ugye az UE3 a Havok-ot IS támogatja)
    Másrészt a 60 fejlesztő 100 játéka ugyan kamu, mert a fele konzolos, de azért elég jó kis játékok vannak a listán. Azért a Ghost recon 3 nem lesz gagyi, vagy maga az UT2007 se ...
    Nem mellékesen a Havok, Novodex, Ageia API-kon kívűl van még pár, szóval ha valaki kiesik, lesz más helyette ;)
  • [NST]Cifu
    #43
    Látom unatkozol. :)))

    A PhysX megoldása abból a szempontból szimpatikus, hogy (remélhetőleg) hosszú ideig (3-5 év) elég egy kártya fizikai motorhoz. Ellenben engem továbbra is aggaszt, hogy kevés a nagy név mögötte. A Havok motort azért már nem egy és nem két játékba beépítették.
  • Inquisitor
    #42
    Nem is rossz az a 911.360 objektumos particle effekt, sem a szövetanyag szimuláció. Mondjuk a GPU-ból számolt AI részt nem értettem ...
  • Inquisitor
    #41
    Itt meg egy árva videjó az ATI féle megoldásról ...
    Hát eddig a PhysiX a meggyőző. Ja meg persze Intelnél verték a tamtamot, hogy majd a 2 és 4 magos procival lesz jó a fizika ;)
  • Inquisitor
    #40
    Itt vannakdemovideo linkek Nvidia/Havok megoldásra (Fileshack!)
  • Inquisitor
    #39
    CellFactor video letölthető verzijóban (PhysiX Only game!)
  • Inquisitor
    #38
    Három érdekes bemutato (Ghost Recon3, meg CellFactor az érdekesebb)
  • Inquisitor
    #37
    ATI Physics Acceleration Gets a Voice
    http://www.pcper.com/article.php?aid=226&type=expert&pid=1

    NVIDIA and Havok Bring SLI Physics to Life
    http://www.pcper.com/article.php?aid=222

    AGEIA PhysX Physics Processor Technology Preview
    http://www.pcper.com/article.php?aid=225

    Game Developers Conference 2006 - Physics and Gaming
    Zajlik az élet ...  :eek:
  • Inquisitor
    #36
    "Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nőne meg legalább a kártya ára."
    Aham, meg plusz 3-4 nyákréteg (+40USD), meg spéci hűtés (20-50USD) ... és akkor lesz egy mindentudó kártya, ami mindent csak kevéssé tud. lehet választani, hogy a GPU vagy a PPU kapja a sávszélleséget :P
  • [NST]Cifu
    #35
    6600GT-n, minden high és full HDR? Azért szvsz ez már eléggé megeszi a videokarit.
    A 6800GT-t pedig te hoztad fel, ha pedig már ilyen szintű kártyát vesz az ember, el is várja, hogy max. részletesség és bekapcsolt FSAA mellett lehessen játszani vele.
  • [NST]Cifu
    #34
    PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni.

    Az én kártyámon két molex csati is van. ;)

    Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40.
    3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.


    És már így is nehezen igazodnak el az átlag userek, hogy melyik videokártyát érdemes megvenni, és melyiket nem.
    Az pedig a vásárlón múlik, hogy ki is fogja-e fizetni a különbözetett.
  • Borg
    #33
    De ez nem az átlag. Az átlagember nem használ AF+AA-t, főleg nem magasabb szinteken.
    Nekem a 6600GT-n 1280x1024-ben, 4xAF-el teljesen tökéletesen fut a CSS. Ennek sokkal inkább CPU kell, mintsem VGA. És pont azért kell neki a CPU, mert az AI+fizika számítás fingatja ki.
    Szal CSS-ben tipikusan nem azért alacsony az fps, mert a vga nem bírja.
  • [Jakuza]
    #32
    1. AGPs kartyakon eddig is volt molex csati senkit nem zavart.
    PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni.
    50 dollar 10k, nem fog zavarni senkit, ha egy kozepkategorias kartya 10k-val tobb lesz.
    Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40.
    Raadasul minnel tobb ilyen chipet gyartan nagy tetelben annal jobban csokken a chip eloallitasi ara. Akar lemehet egy-ket dollaros szintre.
    3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.
  • [NST]Cifu
    #31
    Hát azért én emlékszem arra, hogy a vadonatúj Voodoo-mmal, amit akkor 50 000 Ft-t fizettem, nem pár hónapig, hanem kb. egy évig komoly játéktámogatás nélkül ücsörgött a gépemben. A haveroknak mutogatthattam a gyári techdemokat, meg egy-két játékdemot....
  • [NST]Cifu
    #30
    Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nőne meg legalább a kártya ára. Ráadásul plusz fogyasztó, vagyis lassan már három molex csatit kell rádugni a videókarira, vagy külső áramforrást. :)

    Szóval én nem hiszem, hogy a videókarit fognák be erre a célra. A külön kártya megfelelő lenne - de akkor azért valami emberibb árat szabjanak neki, vagy komolyabb támogatást (jelenleg az Unreal engine az egyetlen valóban nagy név a palettán).
  • [NST]Cifu
    #29
    Nem mondanám, hogy a Gf6800GT-nak olyan sok feles ereje lenne, egy CS:S 1024x768-ben minden maxon, 4xFSAA, 8xAniso, full HDR bizony már éppen a játszhatósághoz, 1680x1050 esetén pedig FSAA nélkül is leesik 20 környékére mozgalmasabb pillanatokban. Az új játékok, mint az Oblivion már annyira eszik a VGA-t, hogy nem lehet max. részletesség és nagy felbontás mellett 30+ FPS-t látni. Hogy akarnak akkor még fizikát is számoltatni vele?
  • Zetorg
    #28
    a havok megoldása szvsz csak sli esetén lesz ütőképes...
    a bemutató képen is GPU1+GPU2 van
  • Zsoltika 007
    #27
    Pontosan erre gondoltam én is. Hogy abban hihetetlen lehetőségek voltak. Én azt anno 24 ért vetettem :). Kiváncsi vagyok ebből mennyit tudnak kihozni.
  • Borg
    #26
    Ez egy újdonság, majd megy lejjebb az ára. Minél többen foglalkoznak vele, annál olcsóbb lesz majd.
    Anno mikor bejött a 3dfx voodoo1, az sem volt olcsó éppen :) Aztán mégis mekkora áttörést jelentett néhány hónapon belül...
  • Borg
    #25
    Hát, együtt már nem biztos, hogy a pci-ex is elég lenne nekik. Egy kártyán.

    De helyette lehetne pci-x slotba tenni, vagy valami dedikált csatornára az alaplapon. A legjobb megoldás biztosan ez lenne.
  • Zsoltika 007
    #24
    Engem az ára zavar leginkább. Ér ez annyit? A 3d kártyák anno megérték mert tényleg mutattak valamit. De ez?
  • [Jakuza]
    #23
    Nos eppen ezert kellene a PhysX-es chipet feltenni egy VGA kartyara, nem kulonallo kartyakent kezelni.
  • Zsoltika 007
    #22
    Néhány PH!-s link a témában:
    A havok elképzelése
    Az ati is kacsintgat
    Az asus megoldása
  • Borg
    #21
    Végülis jelen pillanatban még bármelyik lehet sikeresebb a másiknál.

    Havok: A videokártyák tudása az átlag felbontáson és grafikán ma még kihasználatlan, még egy 6800gt-nél is (6600gt-nél már nem biztos). Tehát van kapacitás arra, hogy mellette fizikát is számoljon valamennyit. Márpedig ezt a valamennyit gyorsan fogja tudni, mert agp/pciex + a videokártyán lévő ram is sokkal gyorsabb.

    PhysX: A dedikált kártya számol mindent, közepes sebességű rammal, a relatíve lassú PCI csatolón át. Viszont mivel a GPU és a CPU is teljesen felszabadul, kb ugyanott lehet majd a teljesítményben. Viszont hátránya, hogy plusz driver, és plusz támogatás kell hozzá, a kompatibilitási problémák megoldásáról nem is beszélve.

    Szal mindent összevetve még lehet, hogy a Havok jobb, de legalábbis egyik sem holtvágány.