144
-
valaé valaé ná #64 Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az előzményeket.
Ezt az eredményt már régen megjósolták.
Az ID már több mint egy éve fáradozik azon, hogy az engine-jében gyakorlatilag cheat szerűen váltogatva a 16 és 32 bites pontosságot, jó eredményt érjen el az nVidia kártyákkal, a 24 bitet használó ATi kártyákkal szemben.
Ezért csúszott ennyit a Doom3 ! -
Alfa Of NS #63 "És valszeg nem X800-at fogok venni, mert előbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni..."
Amugy ez egy jo vitatema lehetne. Az elkovetkezo par evben a jatekok tomege valoszinuleg a HL2 es a D3 grafikus motorjat hasznalja. A HL2 csak PS2-t hasznal, mig a D3 meg azt se. Igy inkabb az a kerdes, hogy azert a nehany jatekert erdmes-e nVidiat venni. Kiveve persze ha amugy is gyorsabb az nVidia kartya bar ez sok esetben kerdeses. Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at. -
Alfa Of NS #62 "Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)?"
Tulajdonkeppen ez tortent.
"Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset..."
Az teljesen mas teszta. Az ATI kartyai erosek PixelShader2-ben, es mivel a HL2 motorja erosen hasznalja azt, ezert tudott jol teljesiteni. Nem tudok olyan inforol, hogy az ATI a PS2-t a HL2-ert erositette volna meg. Es olyanrol se, hogy a HL2 az ATI-ra lenne kihegyezve.
"azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe"
Jeleneg ugy nez ki, hogy a HL2 azert csuszik, mert a nVidia kartyakra kell optimalizalni. Az NVidia nagyon eros nyomast gyakorolhatott a Valvera. -
#61 Én nem vonnék le semmilyen következtetést addig amíg nem láttad egyik játékot sem. Ez így vagdalkozás. volt már Nvidia meg ATI kártyám is. És valszeg nem X800-at fogok venni, mert előbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni... Jelenleg ATI-m van... Egy BBA-s 9500PRo 9700-ként hajtva... -
lola #60 Nem is értem, hogy miért kell állandóan a két tábornak fikázni egymást. Miért van mindenki a másik kártyájával elfoglalva? Kicsit olyan ez, mintha mindenki azt lesné, hogy mennyi fizetést kap a másik, nem pedig azt, hogy saját maga mennyit keres. Vagy megfelel, vagy nem. Ha nem, akkor kell váltani. Engem egyedül az érdekel, hogy az én gépemen hogyan fog menni. Attól nálam nem lesz sem jobb, sem rosszabb, hogy másnál hogyan megy.
A közölt teszteredmény tényleg pr szagú, ráadásul az információtartalma közelít a nullához, mert elvárható lett volna különböző felbontásokon és beállításokkal tesztelni, de így...
Mellesleg 17-es TFT-m van, amin 1600x1200-at még ha akarnék, akkor sem tudnék megjeleníteni. 1280-at tudok, de nekem az 1024x768 is megfelel. P4 3G + 9800Pro konfigon talán nem lesz döcögős...
Más: Megjelent az index mellékletén (prohardware), hogy a Doom3 csak XP-n és W2k-n fog menni, egyéb wineken nem. Ez szerintem megalol hír, ami egyébként a szintén megalol Chip német oldalán közöltek. -
Wing Rockling #59 ...Nem is tudom mit mondjak... Azért számomra ez elszomorító, hogy itt összesen hárman vannak akik épp ésszel gondolkodnak, remélem tudjátok kikre gondolok. Nem kell ahhoz Ati fan-nak lenni, hogy az ember észrevegye a tényeket. nem tudom hogy az nV szája hogy fog majd állni, amikor megkapja az első ütést az Ati optimalizált meghajtójától, majd a másodikat Gordon Freeman bácsi személyében = a HL 2 legalább ilyen grafikonokat mutat majd, annyi különbséggel, hogy ott az élen az Ati kártyái lesznek, ez az optimalizáció hatalma. Az a baj, hogy sokan ennyire elkötelezik magukat az nV mellett, ezt ahhoz tudom hasonlítani hogy az ember meggátolja a saját fejlődését... Az Ati technológia sokkal előnyösebb, itt megint azt mondom hogy gondoljunk a Half Life 2-re. Csak hasonlítsátok össze a gépigényét a Doom 3-éval. Majdnem annyi a különbség mint mondjuk a Mohaa és a Far Cry gépigénye között, de mégis, a HL2 sokkal változatosabb játékélményt és jobb hangulatot fog nyújtani, ha lenne 1000000+x forintom mindet rátenném arra, hogy sokkal jobban be fog válni, és ismét arra esküszök, hogy az nVidiára optimalizált D3 enginje csak egy technikai demó, ami nagy szórakozást nyújt majd az 500000 Ft-ot érő erőművel rendelkező embereknek 20 órára, és a csodálatos grafikától eltekintve a játékélmény felejthető lesz. -
tehen_m #58 Engem ugyan úgy zavar az alacsony fps mint régebben a quake3ban. -
#57 Azt lehagytam, hogy a játékosok nagy része nem rendelkezik 19 colos képernyővel, de 17-el már igen, és őket inkább az 1280-as felbontás érinti. -
#56 1280-as felbontáson nem is tesztelték? -
sghu #55 "Ami azonban sokkal inkább meglepő, hogy az FX 5950 Ultra fej-fej mellett volt képes teljesíteni a 9800XT-vel, sőt, komolyabb szűrők használatával még valamelyest gyorsabb is volt nála."
Egyáltalán nem meglepő. Az NV35 megjelenése (majd másfél év óta) lehetett tudni hogy így lesz. Persze a fanatikus ATI-sok mindíg is habzó szájjal tagadták ezt, de most elérkezett az igazság pillanata és jól látszik, hogy ismét csúnyán beégtek. -
#54 Tekintve a közeli megjelenést teszteltem már egy kicsit magamnak a DOOM3 beta2 nevezetű verzióját 2,6-osP4,FX5800,512MB RAM, 62.20-as driverrel (eddig csak 41-essel indult az meg nem ismerte a kártyám).
1280x104 4XAA,8XAF mellett (persze a játékban minden efekt be volt kapcsolva, maxra volt téve) igaz hogy csak átlag 20FPS mellett ment a játék mégis játszható volt. (Talán ez az a csodaoptimalizáció, hogy egyenletesen leadva az alacsony FPS is folyamatosnak látszik?)
Ugyanezen beállítások mellett 1024X768-ban már viszont adta a 30-40FPs-t ahogy kell. Meglepő, mert a képminőségen szinte semmi változást nem tapasztaltam, biztos szar a beta de 10-percet nem sajnáltam tőle. Vagyis nekem sem a gép miatt kell beszarnom ha játszani akarom. -
#53 Hehe, itt mindenkinek 19 colos képernyője van 6800U vagy x800xt-vel, hogy azon veszekedtek, hogy 1600-as felbontásban melyik ír ki 5-el több FPS-t? Röhej. 68,5 és 51,8 FPS. Én például észre nem venném, a különbséget. Ismerek embereket, akiknek kilómnéterekkel jobb gépe van az enyémnél, de csak 15 és 17 colos képernyőjük van. Hát most ők nem fognak elkezdeni sírni, hogy nem tudnak 1600-as felbontásban játsszani. Én örülnék 800x600-as felbontásnak szűrők meg élhomályosítólk nélkül 25-30 FPS-nek. A thief 3 8-10 FPS-el megy low-on, de mégis az árvaháznál járok, és alig zavar a szaggatás. Ez az 5-10 FPS különbség viszont a gyengébb kártyáknál fog jobban kijönni annál a határnál, amikor is már folyamatos képet látunk. Mondjuk a gyengébb kareszokról nincs teszt, hogy ott is jobban teljesít-e az nV.
Na hogy a végére valami értelmeset is írjak a Doomnál az nV-sek a HL2-nél az Atisok fognak jobban járni. Sajna az Ati nem tehet róla, hogy az nV dugig van pénzzel. Atifan vagyok, csak hozzátenném. -
#52 Nem mondod?:) Amúgy 8500-asoknál lényegében csak órajelbeli különbségek voltak (275Mhz helyett 250, illetve "LELE" esetén 230). -
#51 Na végre egy normális gondolkodású ember
többi meg nem érdekel -
#50 "hanem a gém a játékhoz...."
Mivan? Talán a gém a kártyához, nem? :D -
Dinosaur #49 Na ezt akartam én is mondani hogy sokan lökik a süket dumájukat a hozzászólásukkal, de valójában egyikük sem támasztja alá tényekkel a mondanivalóját. -
#48 Sziasztok!
Nem birtam ki,hogy ne irjak pár sort.
Gyerekek nem mindegy, hogy ki mire esküszik? Van akinek az Ati, van akinek az Nvidia jön be. Az Nvidia-s soha a büdös életben nem fog meggyőzni egy Ati-st, hogy jobb az Nvidia és az ATi-s sem az Nvidia-st. Már csak azért sem mert mindkettő görcsösen ragaszkodik a maga kis elméletéhez.
A helyzet az, hogy a végtelenségig lehetne bizonygatni mindkét fél részéről a dolgot, hogy melyik a jobb.... Próbáljatok meg kiegyezni abban, hogy mindkét kártyának megvan a maga előnye, haszna, jó és rossz tulajdonsága.
Üdv,
Magnetic -
Keroo #47 Bocs, egy kicsit félreérthető amit írtam a 2. kérdésemben, és részben válaszolok is rá.
Szóval: azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe. -
Mice #46 úgyhogy nem a cégek optimalizáltak hanem a játékfejlesztők és nem a driver lett igazítva a gémhez
hanem a gém a játékhoz.... -
Mice #45 le vagy nem le nem ugyanaz
én félek attól az mx-es eredménytől -
Keroo #44 Most már eléggé lerágtátok a témát de egy-két dolgot még kérdeznék...
1. Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)? Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset...
2. Hol ezzel a probléma?
3. "...marketing gépezet..." azt hiszem mostanában egyre inkább negatív tartalommal párosul (helytelenül) vagy negatív kontextusban tűnik fel (szintén helytelenül) ez a szó. Nem jó ez a tendencia, hiszen ha belegondoltok, ha ti gyártanátok valamit persze, hogy az előnyeit próbálnátok kihangsúlyozni a hátrányai helyett. Hülyék lennének maguk ellen beszélni. Az hogy a dolgoknak csak az egyik oldalát világítják meg még nem jelenti azt hogy hazudnak vagy csalnak (sajnos mondjuk volt rá példa )
4. Hogy vannak bizonyos "szakmai" oldalak akikről évek óta lehet tudni hogy melyik processzor vagy videokártya gyártó elkötelezettjei az természetes. Ezzel sincs probléma, csak képben kell lenni és nem kell mindent elhinni. Mert persze utána jön a csalódás és az anyázás.
5. Régebben volt egy jobb időszak amikor vhogy eltűntek azok az emberek akik csak azért írnak be egy fórumra hogy a másikat köpködjék a véleménye miatt. Igaz hogy ez egy szabad ország és szabad a véleménynyilvánítás, de basszus azért mert különböző a véleményetek nem szabad egy bizonyos szint alá menni. Vitatkozni lehet normálisan ( tényekkel alátámasztva jól megindokolva, nem csak úgy idehordva a hülyeséget, abból van amúgy is elég). Jah a parasztok meg húzzanak... Visszaolvasva sztem leszűrhető hogy kire/kikre gondoltam.
6. Talán feleslegesen pazarolom itt a biteket, mivel [HUN]PAStheLoDnak volt igaza...
-
Mice #43 pedig valahol mondta, hogy csak ati kártyájuk volt a fejlesztés során (talán valamelyik doom3as cikk) és hogy atiból nuku, úgyhogy csak azzal dolgoztak
az ati meg épp úgy nem fért hozzá mint az nvidia
ettől függetlenül viszont a játékírók nv-n csinálták
mi ebben a bonyolúlt
jó most fikázni a másikat a fan-ossága miatt aztán kijön a pecs és mindannian néztek egyet mert vodoo specifikus kódja lesz és dob6játok ki a karijaitokat:D -
Mice #42 ők maguk meg csak a fél világ tudja hogy csak nv karikkal dolgoztak.... szevasz nyiss már csipát! -
Mice #41 kiváncsi vagyok mit értettek meglepően jó játékélményen
a fejlesztők vegyük alapul az elmúlt UT tech demót a 2-3 fpssel is elvannak:D -
#40 "Carmack ugyanis azt is elmondta, hogy néhány esetben pontosan meghajtó problémák vetették vissza az ATI kártyák eredményeit a teszt során. "
ezért kikerülte őket. -
#39 "Carmack ezenkívül arra is felhívta a figyelmet, hogy a Doom 3 akár a videokártyák tuningkorszakának is véget vethet, az újdonság ugyanis teljesen új szemszögből közelíti meg a dolgokat, olyan újfajta programkódokat és eljárásokat alkalmaz, amelyek a legújabb videokártyák mindeddig kihasználatlan tranzisztorait is megmozgatják."
Ez így van;
"Ezáltal pedig egy komolyabb órajel emelésnek, vagy olyan tuningnak, ami eddig hibátlanul működött a videokártyánkon a Doom 3 esetében bizony komolyabb grafikai hibák is lehetnek a következményei."
ez viszont szerintem a softmoddolt kártyákra vonatkozik. -
#38 Azt mondta JC, hogy egyik sem férhetett hozzá a kódhoz. Hogy optimalizálsz olyanra, amihez nem férsz hozzá?
Ha figyelembe vesszük, hogy 2002-es E3-on ATi kártyán mutatták be az alfát, akkor meg nem is tudom, kinek volt lehetősége hozzáférni (kit is gyanúsítottak a kiszivárogtatással?). -
#37 Borg, a Far Cry 1.1 lassabban ment az nvidia kártyákon eddig, mint az ATi kártyákon. Most _nagyon_ sokszor a 6800 a gyorsabb. Nem értem, miért kérdőjelezed meg (ráadásul ____egyetlen____ játék egyetlen peccse alapján) a SM 3.0 létjogosultságát. Elérte a célját? Utolérte sebességben az X800-at? Igen. Ennyi. -
vrob98 #36 A jatek evek ota ismert technologiajara otimalizaltak az nV kartyakat.
A vita arrol szol, hogy Borg szerint az ATI-nak nem volt ra lehetosege az utobbi - hany is? - 4 evben?!
De mind1, en kiszallok ... remenytelen ... -
#35 Nos. Nem igen akartam itt beleszólni a dolgokba, de függetlenként is látható hogy mennyire elfogult az ATI felé ez a cikk, és az nvidia prejudikációjáról, mindenáron történő lehúzásáról szól.
"egy nvidia pr anyag, és egy játék, amelyen az ő logójuk díszeleg."
Ez a cikk szerintem meg erősen SG- marketing PR anyag, amiről csak az ATI logó hiányzik.
És tényleg távol álljon tőlem, engem egyik kártya sem érdekel, mivel már rég kinőttem belőle. Persze, lehet elfogultnak lenni egy egészséges szinten, de nem szabad átlépni egy bizonyos határt. És ezt, majdnem minden újságíró tudja.
-
#34 Én a múltkor azon is meglepődtem, hogy a Far Cry milyen jól futott az MX440-emen. (Ráadásul úgy, hogy egy pár dolog "medium"-on volt)
Lehet, hogy Doom 3-azni is ezzel fogok? :D -
#33 Bocs , de ha jól emlékszem az nv6800 jelent meg előbb.
Igaz a boltok polcain már az ati x800pro volt hamarabb. :) -
tehen_m #32 Az ati mindent elobb csinált, kiadta az x800 at elobb (néhány dolgot kihagyott belőle) és most akkor miért is sírnak hogy hátrányban van????? -
#31 Na ha egy Gef4MX-en jól fut (természetesen megfelelő beállításokkal), akkor nekem sincs félnivalóm R8500LE-vel -
Borg #30 Hagyd, ugyanezt elmondtam neki, de úgytűnik hiába.
Szerinte különbség van a között, hogy az nvidia technológiáját optimalizálják a doom3-ra, és a között, hogy a doom3-mat optimalizálják az nvidia technológiájára. Ezen nem tudok segíteni. Pedig az eredmény ugyanaz, egy nvidia pr anyag, és egy játék, amelyen az ő logójuk díszeleg.
Pedig még ezzel sincs baj, hiszen az ATI ugyanezt fogja eljátszani kb a HL2 megjelenése előtt.
A gond csak ott van, hogy egyesek vakon hisznek máris ezeknek a grafikonoknak... -
Borg #29 Én is ugyanezt mondtam, hogy az érem mindkét oldalát látni kell. És ez csak az egyik, erősen részrehajló oldala itt. -
Cat #28 de most te is elismerted hogy az nvidia technológiára optimalizálták a játékot, akkor nemértem min vitatkoztok
az ati hónapokkkal ezelőtt kiadott kártyája viszont MÉG hátrányban van, az uj driverekig -
vrob98 #27 Ha valamit optimalizalnak egy technologiara az egeszen mas mint ha egy adott demo futasat optimalizaljak!
Ehez nem kellett hozzafernie az nV-nek a timedemohoz.
A technologiara meg az ATI is ugyanugy optimalizalhatott, ilyen kozlemeny nem jelent meg sehol, hogy az ID elzarkozott volna az ATI hardvereitol ... ez a te elmed szulemenye ... -
#26 Ja és természetesen publikussá tették volna. -
#25 " A tesztelők például kipróbálták a játékot egy 1,5 GHz-es Pentium 4 és egy GeForce 4 MX440 társaságában, és elmondásuk szerint meglepően jó játékélményt nyújtott még ez a párosítás is"
Azért nem bántam volna ha csinálnak 1videót hogy kb hogy ment rajta.