Id Software: Az első Doom 3 teszteredmények
Jelentkezz be a hozzászóláshoz.
Egyébként egyátalán nem jelent akkora IQ romlást a PP, mint ahogy be van állítva. A fent említett anyagban is csak bizonyos esetekben látszik egyátalán, de akkor sem túlzottan.
Az elõzõ (1.1?) FarCry patch-et szokták ezzel kapcsolatban emlegetni, csakhogy ott szerintem nem PF16 van használva, hanem az INT12, mivel állítólag (tesztoldalak vizsgálatai szerint) PS1.1-es shaderek futnak FX esetén (2.0 helyett), márpedig elvileg a PS1.1 nem ismeri még az FP formátumot, csak az integert...
Mert lehet, hogy mennek standard ARB2-vel az NV3X kártyák, csak messze nem a 9800XT szintjén. A jelen teszttel kapcsolatban egy szóval sem említette Carmack, hogy az NV3X renderpath (mert errõl beszélt viszont) milyen percizitást jelent. Márpedig ha NV3X renderpath van (és van), annak csak és kizárólag a PP lehet az értelme (ahogy azt a grafikon is mutatja). Valszeg nem véletlenül nem készültek egy nv pr anyagba IQ összehasonlító tesztek a 9800XT FP és az FX5950U PP között.
Ugyan az 😄DD
DE nem amcsik a tervezõk az nvnél és az atinál.
Általában exportálják a tudósokat. Pl.:Afrikából 😄DD
Bocs, de ez nem egészen így van. Ezek HW fogalmak. OpenGL2.0 alatt nincsenek még natívan támogatva, csak többnyire gyártó-specifikus extensionokkal.
A többivel egyetértek (mert konkrétan tudható is mindkét dolog).
Az nV3x vs R3xx alpha tesztekhez kepest, a vegleges teszten is latszik, hogy a brutalis elonybol sokat veszitett az nV.
ati vs nVidia...nekem ATI-n van már egy ideje, de eszembe sem jutott, hogy megemlítsem egy nVidia tulajdonosnak,hogy az xy teszt alapján ( nézd meg vazeg!!!) az ati 5 fps-sel jobb, különben is láma nVidia...szóval ilyesmit nem szoktam mondogatni, sem írogatni.
OFF: Viszont azért kíváncsi lennék, hogy az "amerikát" (USA) mennyien fikázzák (hogy csak az olajért mentek, meg g*ci lehúzós banda, a világhatalmi törekvéseik miatt, meg milyen hülyék, mert olyan dolgokat tanulnak a fõiskolán matekból, mint amit nélunk középiskolában tanítanak, stb) az nVidia fanok közül. Ugyanis az nVidia, ha jól tudom californiai székhelyû cég. Na most egy ilyen cégre kb. minden jellemzõ, ami egyébként az USA-ra.
üdv
Amit nem tudunk az erkölcsök útján megtenni, azt nem szabad a törvények útján megtennünk. A fehér ember nagyon ért a pénzcsináláshoz, csak ahhoz nem ért, hogyan kell elosztani.
"Ami igazán meglepõ, az azonban csak itt következik, ugyanis a FarCry 1.2 tesztben 3.0-s shadereket használó GeForce 6800 Ultra kártyát több ízben is képes volt legyorsulni az X800XT SM 2.0b-vel. Utóbbi elõnye ugyan nem mindenhol egyértelmû, de olyannyira fej-fej mellett halad a két kártya, hogy igen kétségessé válik az nVIDIA kártyákon a Shader Model 3.0 értelme. Pont azokban az esetekben képes valamivel nagyobb teljesítményre az X800XT, ahol elméletileg az SM 3.0 elõnyeinek jobban meg kellene mutatkozniuk."
tegyük hozzá:
24/32 = 1.25
azaz "pont azokban az esetekben" ahol SM 3.0-t használ a játék, 25%-al több adat van. Miért is meglepõ, hogy az alacsonyabb órajelû GF6800 (Néha! nem is mindig) lassabb, mint a magassabb órajelû X800? Inkább meglepõ, hogy még így is sokszor gyõz.
Jaa, hogy csak ködösítesz? Az más...
Az ilyen kitoreseiddel csak magadat egeted ... a rosszabbik lehetoseg ha meg valaki komolyan is veszi amit irsz.
Ati optimalizációt hagyjuk, mert a d3 még se jelent meg.
A doom3 semmilyen pontossággal nem készül.
-persze, de kihasználja az nv 32bites pontosságát.
Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle.Ez igaz az NV40-re, és az összes ATI kártyára is...
Ezzel kapcsolatban majd még írok....
Olvass utána hogy az id miért "tette" félre az atit.
Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan
Jajj de jót röhögtem ezen...a zárojelben már csak azt felejtetted ki, hogy: és én
Ha valaha elolvastál volna egy OpenGL specifikációt akkor tudnád hogy ott nincs ilyen fogalom! De nem olvastál, ezért nem is tudod.

Ezt a "hülyeséget" egy Carmack interjúból szedtem (ha jól emlékszem).
¤¤¤¤o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤O3>
Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan. Ennyi a konzekvencia.
ph!
Ha legalább arra vetted volna a fáradtságot, hogy Carmack szövegét elolvasd, akkor tudnád miért volt gyorsabb az "NV" az ATI-nál D3-ban, és miért gyorsabb most is. Mert a sebesség nem minden ugye, csak ezt szeretik elfelejteni, fõleg az nv ajnározók. Dehát a részleges precizitás mint fogalom gondolom semmit nem mond neked, szal kár is szót fecsérelni erre.
ati +d3???na mi ez???xbox2ben milesz???
===ati+microsoft=d3
A microsoft a directxben a 24bites pontosságot erölteti. 😄DD
(hát persze hogy ez is egy májkroszoft -billibácsi- anyszülemény)
A 6800 már 32bites pontossággal dolgozik.
Újabb kérdés a Doom3 32vagy 24bites pontossággal készül???Hát persze hogy 32.
nv6800 ban mér rengeteg újítás van...
Én még mindig pártatlan vagyok, csak nem bírom amit az ati csinál.Régen az nv csodálatos 😞 sorozata -FX után az nv fikáztam.
Mindenesetre most szivesen vennék egy 9600xt ...
Amit ez után írtál az tökéletesen megfelel ennek.
Sok ok miatt is teljesen hülyeség amit a 16-32 bit váltogatásáról írtál, de egyébként erre majdnem 2 év állt JC rendelkezésére. Másfelõl már az 1 évvel ezelõtti tesztekben is széjjelalázta az NV az ATI-t D3-ban, úgyhogy ez megint nem stimmel.
¤¤¤¤o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤O3>
Szuper, hogy mennyire tudod, hogy mi miért csúszik.
"A HL2 csak PS2-t hasznal, mig a D3 meg azt se."
Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és elõbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ.
"Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at."
Miért szerinted a PS3 minek a része a DX10-nek?
Vagy azért mert nem volt képes elõállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta.

Ezt az eredményt már régen megjósolták.
Az ID már több mint egy éve fáradozik azon, hogy az engine-jében gyakorlatilag cheat szerûen váltogatva a 16 és 32 bites pontosságot, jó eredményt érjen el az nVidia kártyákkal, a 24 bitet használó ATi kártyákkal szemben.
Ezért csúszott ennyit a Doom3 !
¤¤¤¤o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤O3>
Amugy ez egy jo vitatema lehetne. Az elkovetkezo par evben a jatekok tomege valoszinuleg a HL2 es a D3 grafikus motorjat hasznalja. A HL2 csak PS2-t hasznal, mig a D3 meg azt se. Igy inkabb az a kerdes, hogy azert a nehany jatekert erdmes-e nVidiat venni. Kiveve persze ha amugy is gyorsabb az nVidia kartya bar ez sok esetben kerdeses. Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at.
Tulajdonkeppen ez tortent.
"Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset..."
Az teljesen mas teszta. Az ATI kartyai erosek PixelShader2-ben, es mivel a HL2 motorja erosen hasznalja azt, ezert tudott jol teljesiteni. Nem tudok olyan inforol, hogy az ATI a PS2-t a HL2-ert erositette volna meg. Es olyanrol se, hogy a HL2 az ATI-ra lenne kihegyezve.
"azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe"
Jeleneg ugy nez ki, hogy a HL2 azert csuszik, mert a nVidia kartyakra kell optimalizalni. Az NVidia nagyon eros nyomast gyakorolhatott a Valvera.
"Whether you Kill or get Killed it is just a way to Kill time" Zaraki @ Bleach #36 SC SQ42: "Give in to the Hype, It is worth it" https://robertsspaceindustries.com/enlist?referral=STAR-NVZF-5CZF
A közölt teszteredmény tényleg pr szagú, ráadásul az információtartalma közelít a nullához, mert elvárható lett volna különbözõ felbontásokon és beállításokkal tesztelni, de így...
Mellesleg 17-es TFT-m van, amin 1600x1200-at még ha akarnék, akkor sem tudnék megjeleníteni. 1280-at tudok, de nekem az 1024x768 is megfelel. P4 3G + 9800Pro konfigon talán nem lesz döcögõs...
Más: Megjelent az index mellékletén (prohardware), hogy a Doom3 csak XP-n és W2k-n fog menni, egyéb wineken nem. Ez szerintem megalol hír, ami egyébként a szintén megalol Chip német oldalán közöltek.
\"I fight the world, and take all they can give. There are times, my heart hangs low. Stand and fight, live by your heart. Always one more try. I\'m not afraid to die.\"\"Manowar\"

St megkérte, hogy távolítsam el a régit, úgyhogy most csak ilyen szar van:(
St megkérte, hogy távolítsam el a régit, úgyhogy most csak ilyen szar van:(
Egyáltalán nem meglepõ. Az NV35 megjelenése (majd másfél év óta) lehetett tudni hogy így lesz. Persze a fanatikus ATI-sok mindíg is habzó szájjal tagadták ezt, de most elérkezett az igazság pillanata és jól látszik, hogy ismét csúnyán beégtek.

1280x104 4XAA,8XAF mellett (persze a játékban minden efekt be volt kapcsolva, maxra volt téve) igaz hogy csak átlag 20FPS mellett ment a játék mégis játszható volt. (Talán ez az a csodaoptimalizáció, hogy egyenletesen leadva az alacsony FPS is folyamatosnak látszik?)
Ugyanezen beállítások mellett 1024X768-ban már viszont adta a 30-40FPs-t ahogy kell. Meglepõ, mert a képminõségen szinte semmi változást nem tapasztaltam, biztos szar a beta de 10-percet nem sajnáltam tõle. Vagyis nekem sem a gép miatt kell beszarnom ha játszani akarom.

Na hogy a végére valami értelmeset is írjak a Doomnál az nV-sek a HL2-nél az Atisok fognak jobban járni. Sajna az Ati nem tehet róla, hogy az nV dugig van pénzzel. Atifan vagyok, csak hozzátenném.
St megkérte, hogy távolítsam el a régit, úgyhogy most csak ilyen szar van:(
/*WTF?!*/
Mivan? Talán a gém a kártyához, nem? 😄
sg discord: https://discord.gg/ezkyQvNE


Gigabyte P67A-UD4-B3,I5-2500K, Corsair DDR3 8GB 1866 Mhz CL9, Sapphire ATI HD 6950 2 GB GDDR5, SB X-FI Gamer, Samsung BX 2431, Logitech MX 5500
Nem birtam ki,hogy ne irjak pár sort.
Gyerekek nem mindegy, hogy ki mire esküszik? Van akinek az Ati, van akinek az Nvidia jön be. Az Nvidia-s soha a büdös életben nem fog meggyõzni egy Ati-st, hogy jobb az Nvidia és az ATi-s sem az Nvidia-st. Már csak azért sem mert mindkettõ görcsösen ragaszkodik a maga kis elméletéhez.
A helyzet az, hogy a végtelenségig lehetne bizonygatni mindkét fél részérõl a dolgot, hogy melyik a jobb.... Próbáljatok meg kiegyezni abban, hogy mindkét kártyának megvan a maga elõnye, haszna, jó és rossz tulajdonsága.
Üdv,
Magnetic
Szóval: azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe.
hanem a gém a játékhoz....
Hi! I\'m a signature virus. Copy me into your signature to help me spread.
én félek attól az mx-es eredménytõl
Hi! I\'m a signature virus. Copy me into your signature to help me spread.
