AMD-nVidia vita az új játékok sebessége miatt
Jelentkezz be a hozzászóláshoz.
az számit, hogy stabilan hány fps a cs, a többi túró.
Ha már kivan a faszod az idióta szignókkal csinálj te is egyet.
Hát ja. Bár gagyognak valamit Geometry shaderrel sokszorosított részecskékrõl, de ebbõl nem sokat látni.
"Antialiasingnál meg szerintem baromi sokat dobna a sebességen ha a fejlesztõk megoldanák, hogy csak az éleket rajzolják újra a simításnál, nem pedig az összes polygont."
A MSAA eleve arra épül, hogy csak a poligonok szélei mentén dolgozik. A belsõ részeken az AF textúraszûréssel érhetõ el hasonló.
Ugye nem hiszed azt, hogy azért fejlesztenek "jobb" videokártyát hogy a felhasználónak jó legyen? 😄
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
"...A klamera látószögén kívûl esõ dolgokat pedig minden megoldás vágja, egyszerû okok miatt. Hova rajzoljam a kamera mögötti dolgokat? Illetve még érdekesebb. Hova rajzoljam a kamera látószögén kívûl esõ dolgokat, hiszen azokhoz még memória terület sem tartozik?" - ez nem pont így mûködik. A vágás már csak az inkrementális képszintézis utolsó szakaszában, a vetítési transzfromáció után a raszterizálásnál történik meg. Addig a csúcspontoknak át kell menniük a vertex shaderen (régebben a T&L végezte a feladatot, még régebben a CPU), melynek során a vertexek koordinátáit a kamera koordinátarendszerébe transzformálják. Általános esetben még ekkor sem lehet tudni, hogy mi fog látszani. Még az is elképzelhetõ, hogy olyan háromszöget látunk, melynek csúcspontjai kívül esnek a látható tartományon, de elég nagy, hogy "betakarjon" a képbe. Szóval ha valahol inkorrekten tudtak spórolni, akkor a vertexszámításon, mert elõre tudták, mely háromszögek lesznek láthatóak, a többi pedig nem ment át a pipeline-on. A belinkelt kép alapján elképzelhetõnek tartom.
"...egyetlen szutyok kártya sem vagy software render sem rajzol a kamera látószögén kívül le semmit, sõt még a takarásban lévõ dolgokat sem, ha a program normálisan van megírva, ha nincs normálisan megírva akkor pedig azokat a dolgokat pontosan egyszer rajzolja le." - lásd a fenti bekezdést.
"legjobb esetbe ha nyertek vele 1%-ot, akkor sokat mondtam" - Igen jól tájékozott vagy. :-) Saját tapasztalataim szerint a vertexszámítás igenis költséges. Az általam fejlesztett játékban opcionálisan bekapcsolható volumetrikus árnyékolás gyakorlatilag csak vertex-számítást használ, ugyanis a kirajzoláskor nem kell színinformáció, csak a stencil-buffert módosítom Z-fail teszttel (Carmack's reverse, lásd wikipedia). Ez plusz két renderelési ciklust jelent az egyébként is lefutó kettõhöz képest (a diffúz és spekuláris fényt külön ciklusban kell hozzáadni az árnyékkezelés miatt), így 44-rõl 27 FPS-re csökken a teljesítmény (GF Go7300). Látható, hogy csak a vertexszámítást tartalmazó renderelési ciklusok közel annyi idõbe telnek, mint a teljes renderelési ciklusok, ahol a pixel-shader kódban képpontonként textúra-mintavételezés is történik (az én esetemben nem is kevés: három).
...meg uyge itt ez a shader õrület. Nekem is egy x800gto-m van, de az új progik már basznak elindulni rajta, mivel nem rudja a PS3.0-át, pedig a teljesítményével nincs gond. De ezzel meg úgy vagyok, hogy f*szom ezekbe a játékokba, van elég jó másik is, amikkel el lehet lenni (pes, cod, homm3 és 5, wc3, meg pár rpg). Úgyhogy majd veszek akkor ps3.0-t tudó vidkarit, amikor majd olcsó lesz. Ja, van olcsó most is, de a teljesítményük hagy némi kifogásolni valót.
Ezután 3-6 hónappal "hihetetlen" módon sikerül optimalizálni a grafikát és a régebbi videókártyák is remekül elboldogulnak már vele.
Mindenesetre addig a 3-6 hónapig lesznek olyan emberek, akik csak e miatt veszenk új kártyát.
Ki van ez találva...
Ezek az összehasonlító képek meg mindig sántítanak valahol. Pl a bumpmap megjelenésekor ugyanazt a textúrát hasonlították össze bumpmap nélkül és azzal, persze hogy így sokkal szebb az utóbbi. A korábbi textúrákon ugyanis már "beépítve" voltak az árnyékok, azzal viszont hogy egy bumpmapre tervezett textit bumpmap nélkül mutatnak meg, kicsit rondán tüntetik fel.
Windows 7 & openSUSE 11.4 @ 64-bites kenyérpirító.
Azt díjazzák-e, ha a konkurencia kártyáján fut jobban? Nem valószínû.
Érdekük-e a gyártóknak, hogy újra és újra piaci igény keletkezzen a legújabb kártyákra, azok közül is a drágábbakra? Érdekük.
Akkor már csak össze kell adni.
Ezt melyik ujjadból szoptad?
"All DirectX 10 graphics hardware which supports MSAA is required to expose a feature called 'shader-assisted MSAA resolves' whereby a pixel shader can be used to access all of the individual samples for every pixel. This allows the graphics engine to introduce a higher quality custom MSAA resolve operation. The DirectX 10 version of 'Call of Juarez' leverages this feature to apply HDR-correct MSAA to its final render, resulting in consistently better anti-aliasing for the whole scene regardless of the wide variations in intensity present in HDR scenes. Microsoft added the feature to DirectX 10 at the request of both hardware vendors and games developers specifically so that we could raise final image quality in this kind of way, and we are proud of the uncompromising approach that we have taken to image quality in the latest version of our game.
"ExtraQuality" is a visual quality setting enabled by default in the DX10 version of Call of Juarez. In benchmark mode, "ExtraQuality" mode does two things. First, it increases shadow generation distance in order to apply shadowing onto a wider range of pixels on the screen, resulting in better quality throughout the benchmark run. Second, it increases the number of particles rendered with the geometry shader in order to produce more realistic-looking results, like for example waterfall, smoke and falling leaves. The attached screenshot illustrates those differences when ExtraQuality is disabled. ExtraQuality is designed as a default setting to reflect the visual improvements made possible by DX10 cards and is not meant to be disabled in any way.
All updates to shaders made in the final version of the Call of Juarez benchmark were made to improve performance or visual quality or both, for example to allow anisotropic texture filtering on more surfaces than before. This includes the use of more complex materials for a wider range of materials. At the same time we implemented shader code to improve performance on the more costly computations associated with more distant pixels,. Some materials were also tweaked in minor ways to improve overall image quality. One of the key strengths of NVIDIA’s hardware is its ability to perform anisotropic filtering at high performance so we are puzzled that NVIDIA complains about this change when in effect it plays to their strengths."
Szóval, beépítettek pár fícsört, ami az Nvidia kártyáknak jobban fekszik. Azt hitték, ezzel majd az Nvidia kedvében járnak. Csak azzal nem számoltak, hogy ez így sem fog tetszeni nekik, mert az õ kártyáikon is túl lassú. LOL.
De kevesebb felhasználó viszont rohan az aktuális gf x800gtx-ért, vagy radeon xx950XTX-ért, és ezektbõl jól jár a hardvergyártó, és a fejlesztõ is, ugyanis õk is pénzt kapnak a hardvergyártótól, hogy még véletlenül sem optimalizáljanak.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Nincs idejük optimalizálásra. Legyártják a gámát és már dobják is piacra.
Pénz, pénz, pénz....
Az ut2004, half life.... -nél még valahogy volt idejük rá.
Már nincs. 😊 és ez egyre jobban így lesz. 8800-as kártyán akadnak a játékok.
100 000Ft-os videokari felett ez már nem a kártya baja.
Már jónéhány éve semmi jó ötletet sem látni. Van kaland, stratégia, szimulátor, rpg...... Hol vannak a jó ötletek? Mint pl. a Bridge builder...
Ma már csak a shaderek számítanak?
Bár most az Ati is belehúzott az olcsó de jó teljesitményû kártyáival.
De akkor is Nvidia. Mivel jön a Brother in arms Hell's Highway igy muszály fejleszteni a gépet, mert a 7800GT lehet hogy nem viszi majd le😊
Ezért géptunning😊))
Például nem véletlen, hogy a COD2 is a régi, Quake3 engine-jét használja, mert az elég hatékony.
Látván a rábízott feladatot, nem is szabadna szaggatnia egy valamire való kártyán DX7 alatt.
De amúgy az hogy a gyártók egymást szidják elég vicces, egyértelmû hogy nem az õ hibájuk, hanem a készítõké. Meg amúgy is ha nem használnának mindenhez pikszelsédört és társait, akkor talán minden kártyával gyorsabban futnának. "Látványjavítás", persze, csak nem bírtak rendes textúrákat csinálni és így két gyors lépésben akarják helyrehozni, három bonyolultabb de jobb helyett.
Windows 7 & openSUSE 11.4 @ 64-bites kenyérpirító.
NORMÁLISAN optimalizálni és a meglévõ hardveren élvezhetõ grafikájú programokat kiadni!
Eddig valószínû azért nem fakkoltak, mert tudtak a GPU gyártók hova fejlõdni,
és most úgy láccik, hogy a 8-as széria és a DX10 után már nincs élet...
Metallica. Csakis. Amig ki nem halnak. Easyrider öcsém, easyrider!
MJ rulz Pink Team The Only One
Pedig meglehet csinálni BSP-fával Z-bufferrel és Occlusion Queryvel. A klamera látószögén kívûl esõdolgokat pedig minden megoldás vágja, egyszerû oko miatt. Hova rajzoljam a kamera mögötti dolgokat? Illetve még érdekesebb. Hova rajzoljam a kamera látószögén kívûl esõ dolgokat, hiszen azokhoz még memória terület sem tartizik?
Nem csak ez volt a gond, hanem hogy nem volt semmi együttmûködés, így az ATI nem adhatott pl. tanácsokat a játékon belüli elvárható szintû optimalizációt tekintve sem.
"ám némiképp elgondolkoztató, hogy az AMD erre, vagyis a meghajtók optimalizálásra hivatkozik, hiszen ez egyben annak beismerése is, hogy olykor a gyártók kifejezetten egyes címekre hegyezik ki termékeiket, hogy a tesztek során jól szerepeljenek."
Nem csak azért, hogy tesztek alatt jól fusson. Egy sor játékra van optimalizálás, nem csak azokra, amivel tesztelni szoktek.
(Itt az "optimalizálás" már nem csalást jelent, mint régebben.)
A stencil árnyék demó programok is felgyorsúltak, ha tudták az Ultra shadow-t.
az átlag fps 15 lett
na ez a nem semmi, úgyhogy valami lehet a dologban
Mea culpa
A világ Szentháromsága: a Pénz, a Jog, a Marketing
A világ Szentháromsága: a Pénz, a Jog, a Marketing
Én a botránnyal kapcsolatban konkrétan arról tudok, hogy az nvidia driverek pofátlanul felismerték a 3DMark03-at, majd nem azokat a shadereket töltötték fel, mint amit a 3DMark-osok beadtak. Sokkal kisebb precizitású és rondább képminõséget produkáló shadereket használt így a kártya a testek futása során, melyek természetesen sokkal gyorsabban futottak le. Ezért komolyan reklamált a Futuremark is akkoriban
Most nem állok neki végigtúrni a netet, a lényege az volt, persze ha jól emlékszem, hogy a 3dmark regisztrált változatában volt egy "free move" mód, ahol a kamerát lehetett forgatni a teszt közben, kvázi körbe lehetett nézni, és az nvidia driverekkel csak ott volt kép, amerre a normál tesztben a kamera néz, a többi hasonlóképpen nézett ki mint a linkelt kép.
Csak találtam cikket róla, ha érdekel, angolul elolvashatod itt
és itt hol az az speciális nvidia optimalizáció, egyetlen szutyok kártya sem vagy software render sem rajzol a kamera látószögén kívül le semmit, sõt még a takarásban lévõ dolgokat sem, ha a program normálisan van megírva, ha nincs normálisan megírva akkor pedig azokat a dolgokat pontosan egyszer rajzolja le. Már a BSP-fával is lehet hasonló optimalizációt csinálni.
Az ominózus probléma az volt, hogy az NVIDIA driverbõl felismerte a 3dmarkot, és a kamera látószögén kívüli részt egészen egyszerûen nem renderelte a teszt alatt, nemkis balhé volt.
annak idején a Half Life 2 source engine-jét bevallottan Atira fejlesztették, nekem a radeon 9800-on és az x1600-on is szépen futott.
aztán a Sin: Episodes és a Dark Messiah of Might and Magic - mindkettõ Source engine-es játék - nvidia TWIMTBP logóval jött ki. hirtelen átírták az licenszelt engine-t nvidiára? :o