GeForce FX
Jelentkezz be a hozzászóláshoz.
Személy szerint én sem minõsiteném csalásnak az ATI féle optimalizációt, mivel ugyan a sorrendjét felcserélte a 2 shadernek, de ettõl még az elvégzendõ munkája ugyanannyi volt a kártyának, és ugyanúgy is renderelt le mindent.
Ezzel szemben az nvidia kapás "leradirozta a megbizásról" a fél scenet, és csak azt renderelte amit a fix kameranézet megkivánt...
Fényévnyi különbség...
Ennek ellenére mind2 ki lett iktatva, és máris megdõlt az 5900 vezetése jócskán.
ATI töredelmesen bevall, és igéretet tesz még ennek kiiktatására is.
Döntse el mindenki, melyik a korrekt hozzáállás." - Na itt nincs korrekt hozzáállás. A korrekt hozzáálláshoz az kell, hogy ne csaljon valaki. Itt csak "korrektebb" kozzáállás van, az az ATI-é. Habár õk se nagyon ismerték el hogy lebuktak, optimalizációnak hívják azt amihez nem lettvolna joguk nyúlni. Úgyhogy én nem nevezném õket se korrektnek.
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
Right.
Szal, ki is volt az itt, aki az FX bejelentése óta verte a nyálást, hogy az de ilyenjó meg olyan jó lesz? Meg kenterbe ver mindent?
És ki volt az aki az NV35el is eljátszotta ugyanezt, miután az NV30al nem jött be?
A többirõl nem vagyok hajlandó újra vitát nyitni.
Egyrészt mert már kitárgyaltuk ezeket, másrészt, mondtam amit mondtam, én tartom magam azokhoz.
Figyuzz, teljesen egyet értek veled abban, hogy az ATI Q3 csalását már elfelejtették, az nVidia meg most ég mint a rongy. De két éve pont az ATI égett ugyanígy. Az összkép: Minkét cég csalt már. Azért mert most épp az nVidia van soron, az ATI még nem válik kisangyallá. Két éve ugyanúgy tömegeket tévesztettek meg mint most az nVidia, Kész. Persze te ezt nem akarod elfogadni, de attól még igaz, a kedvenc céged ugyanolyan csaló mint az nVidia. Személy szerint engem nem zavar, csaljanak csak.
A hiányzó kondikkal kapcsolatban meg ne égesd már magad.😊 Sok közük nincs a sebességhez meg a képminõséghez, csak közvetetten. pl. lehet hogy kevesebb rétegû nyákot alkalmaztak a tesztkártyához, így a megfelelõ mûködéshez kellett egy halom zajszûrõ kondi. A végleges viszont máshogy oldották meg a zajszûrést. Ez csak egy példa, egy halom más oka is lehetett ennek, de persze neked muszály azonnal csalást kiabálni. Ráadásul ezt most mégcsak nem is máshonnan szeded, hanem te találtad ki az egészet, és most terjeszted is. Van valami konkrét bizonyítékod is arra amit állítasz? Ha nem te találtad ki, akkor honnan az infó?
"Egész egyszerûen az NV3X vonal szarabb mint az ATIk. Ez igencsak fáj az nVidiának, meg még sokaknak itt, és ezért kell mindenféle PR baromsághoz, meg csaláshoz folyamodni. Mert úgyis van/lesz akit meg tudnak vakitani vele." - Namost ugyanez a mondat két éve ugyanígy nézett ki, csak be kell helyettesíteni az akkori ati magokat az NV3X helyére, meg felcserélni a cégneveket.
"ATI: Mint ahogy megirták. Csak optimalizációról volt szó, méghozzá olyanról, ami nem jár minõségromlással" - Az ATI szerint csak optimalizáció, a FMark szerint meg csalás. Megváltoztatták a renderelés mdját (ha kis mértékben is), márpedig csak akkor hiteles az eredmény, ha pontosan úgy számol a kártya, ahogy a teszt kéri. Akárhogy is nevezi a módosítást az ATI, ugyanúgy belepiszkált a tesztbe mint az nVidia, habár határozottan kisebb mértékben. Mintha az egyik egy telefont lopott volna, a másik meg egy kocsit. Mindkettõ tolvaj.
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
MSN:[email protected] | http://walaki.deviantart.com/ | japánautóbuzi™ HUNAKAMO drift.racing | www.drifter.hu
MSN:[email protected] | http://walaki.deviantart.com/ | japánautóbuzi™ HUNAKAMO drift.racing | www.drifter.hu
MSN:[email protected] | http://walaki.deviantart.com/ | japánautóbuzi™ HUNAKAMO drift.racing | www.drifter.hu
Nvidia:
"Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom3 shows that The GeForce FX 5900 is by far the fastest graphics on the market today."
Egyértelmû. Na ne röhögtessenek már, ezt még atinever sem hinné el... bár ebben nem vagyok biztos?😊
Pont az nVidia volt az, aki azon kapálózótt a 3dmark03 kijövetelekor, hogy nem tükrözi a játékokat, ezért nem vesz részt benne. Most meg már hirtelen azért nem vett részt benne, mert NEM VOLT PÉNZE RÁ? Na neeeeee😊))))
Ekkora kampózást is régen hallottam...
ATI:
"The 1.9% performance gain comes from optimization of the two DX9 shaders (water and sky) in Game Test 4 . We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture. These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance. However, we recognize that these can be used by some people to call into question the legitimacy of benchmark results, and so we are removing them from our driver as soon as is physically possible. We expect them to be gone by the next release of CATALYST."
ATI: Mint ahogy megirták. Csak optimalizációról volt szó, méghozzá olyanról, ami nem jár minõségromlással. De még ezt is hajlandóak kivenni a driverbõl, a fairplay kedvéért.
FACT: Nvidia kapálózik, mindenkit sárbadöngölne, csak hogy mossa a kezeit.
ATI töredelmesen bevall, és igéretet tesz még ennek kiiktatására is.
Döntse el mindenki, melyik a korrekt hozzáállás.
+ azt mondod nem gyorsabb ketszer a 9500Pro a GF4-nel igen most de ha jon egy komoly DX9-es game az lesz😊
A 3dmark03 viszont tömegeket téveszt meg.
Nézd csak meg, miket reagáltak itt sokan a Doom3 tesztekre, hogy mennyire király benne az nvidia. Miért?
Mert semmi mást nem látnak, csak azt hogy hosszabb a csikja. Az embereket nem hatja meg más.
Carmack meg majd szépen kiveszi a végleges D3ból az NV30 render pathet, és a kis aranyos FXek majd nem tudnak az ARB miatt FP16-on számolni.
Máris jóval lassabb lesz a valós kép, mint amivel most megvakitják a sok birkát.
Ugyanez a helyzet a kártya külalakjával is. Nem meséli be ugyse senki, hogy feleslegesen volt rajta az a 3cm sávon lévõ kondi halmaz, hogy az ugyse kell rá, és azért vették le a véglegesekrõl.
A faszt. Azok kellettek a jó képminõséghez, meg sebességhez a tesztekben, a végeleges kártyán meg már nincs szükség rájuk...
Megoldották a hûtést? A francokat. Nézd meg az MSI kártyáját, még talán itt is volt kép rajta. Akkora hûtõ van rajta mint az állat, és akkor még a hátulja nem is látszott a képen, ugyanis a hátulján még egy venti van! Csak ugye jól kell pozicionálni a bemutató képeket...
Egész egyszerûen az NV3X vonal szarabb mint az ATIk. Ez igencsak fáj az nVidiának, meg még sokaknak itt, és ezért kell mindenféle PR baromsághoz, meg csaláshoz folyamodni. Mert úgyis van/lesz akit meg tudnak vakitani vele.
Se az 5200, se az 5600, se az 5800, és mint utóbb kiderült az 5900 sem tudja megállni a helyét a konkurrens termékkel szemben.
Akár a lowend, akár a mainstream, akár a csúcskategória, mindenhol az ATI vezet ár/érték arányban.
Bele kellene törõdni, és fejleszteni jobbat. Nem csalni, meg dumálni össze vissza...
Plusz senkit se érdekel játék szempontjából hogy mit tud a VPU, amit szépen megmutat a 3DMark. A lényeg az, hogy mit tud a gép, amiben benne van még jópár alkatrész teljesítménye, nemcsak a videokártyáé. Mert azt gondolom te se állítod, hogy pl. a 9500 kétszer olyan jól megy játékok alatt, csak mert kétszer annyi pontot kap mint egy Gef4.
Harmadrészt meg teljesen igazad van, te nem érezted a hatását a Q3 csalásnak. Node nem fogod érezni a 3DMark csalás hatását se jobban.😊
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
Cvd: Mind2. Egyik, mert akármit is mondasz, ez az a szintetikus teszt amire mindenki épit. Senkit nem érdekel, hogy lesz e belõle játék, ez a teszt ami az összehasonlitási alap, mert a VPUk teljesitményét jól tükrözi. Másik, azért amit mondtál. Ugyanakkor én sosem éreztem utóbbinak a hatását (Q3-al max érintõlegesen találkoztam, talán ezért nem hat meg), másrészt egybõl ki is derült, hogy képminöség rovására növeli a sebességet.
Dobd félre az elõítéleteidet, és válaszolj erre a kérdésre:
Az egyik cég csal egy szintetikus tesztben (ami sohasem fog játék alatt dolgozni),a másik pedig csal egy játékban (amely játék motorja egy halom másik játék alatt is dolgozik). Ha te azok közé tartozol, akik játékra veszik a kártyát és nem tesztelgetni (mint gyakorlatikag mindenki), akkor melyik cég ver ár jobban?
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
Attól hogy más a felépitése mint az ATIénak, még _nem_ fejlettebb.
Mi sem bizonyitja jobban, mint hogy az ATI alacsonyabb órajelen is felül tudja múlni az FXet.
A másik meg, maga az nvidia is bizonyitja, a sorozatos csalásokkal.
Nem kell olyan dolgokat belemagyarázni, hog nem használják ki, ez hülyeség.
A kártyának a mostani piacon is meg kellene állnia a helyét, ha tényleg fejlettebb lenne.
Elõttem már mind1 a hitelük, undoritó az nVidia piaci fellépése.
Jól eljátszották a hitelüket ezzel a lépéssel." - Hát, ezzel azért vitatkoznék.. Nálad eljátszotta az ATI a becsületét? Pedig ugyanekkora balhé volt a Quake3 csalásukal kapcsolatban. Te meg nem is hallottál róla amíg nem említettem itt. Ugyanez lesz most is. A legtöbb emberhez el se fog jutni a hír, és õket nem is érdekelné. A többiek még fent tartják a témát pár hónapig, aztán elmerül az egész.
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
Az FX-el kapcsolatban meg igazad van, amennyiben csak az NV30-at érted rajta. Kivéve azt hogy fejletlenebb architektúra. Maga az FX mag ugyanis technikailag fejlettebb, csak épp a plusszait jelenleg nem használják ki. Jelenleg a gyakoratban ezért jobb az ATI, mert a jelenlegi és a közeljövõ igényeinek jobban megfelelõ magot csináltak. Viszont az NV35-öt el kell választani az NV30-tól. Az utóbbi gyenge memóriasávszélt kapott, megoldották. Megelegedett és hangos volt, megoldották. Plusz megfejelték egy-két olyan dologgal, ami tényleg hasznos, mint pl. az UltraShadow engine, ami eléggé megkavarhatja a helyzetet pl. Doom3 fronton is.
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
Egyébként szakértõk szerint arról van szó, hogy valamilyen shader megoldást az ATI a saját effektivebbre cserélt.
Természtesen ha kukacoskodni akarunk, minsõithetnénk ezt is csalásnak, ugyanakkor sem képminöség romlást, sem clippinget, sem más látható dolgot nem eredményez ez.
Szal éppen emiatt nem tulajdonitottak neki nagy jelentõséget a futuremarkék sem.
Ugyanakkor be kell lásd, az nV PS 50%-os esés, meg 24.1%os összteljestmény esés, elég nagy bukást jelent az FX számára.
Nem csak a vevõkkel szemben arcátlan átbaszás, hanem az OEM partnerekkel is, akik részérõl az nvidia meglehetõsen erõs ellenlépésekre számithat állitólag...
Másrészt, hiába ad ki ezentúl olyan drivert, amitõl nõ a sebesség, még ha csak tényleg optimalizációk miatt is majd, a kutya nem mossa le róluk a csalást.
Jól eljátszották a hitelüket ezzel a lépéssel.
Holott, egyátalán nem szar kártyáról van szó az FX esetében, csak éppen nem a szebbik meg nem a gyorsabbik. Egész egyszerûen az FX magasabb órajelen csak majdnem képes utólérni az ATI fejlettebb architektúrájú kártyáját, pont.
És ahelyett, hogy fejlesztésekkel konkurálnánnak, lenyomva egymás árait, inkább csalással próbálnak meg marketing elõnyökhöz jutni. Na ez az, ami undoritó az nVidiában.
"A 9800PRO összteljesitménye 1.9%ot esett (ami a leirás szerint a 3%os tûrésen belül van, bármilyen okból lehet)
" - Igaz, csak épp az 1,9% átlag, a 4. tesztben pontosan 8,2%-ot esett a 9800 is. Ez pedig a Futuremark szerint sem véletlen, hanem ugyancsak valamilyen csalás eredménye, aminek utána fognak járni. Azt még nem árt megvárni, hogy tiszta legyen a kép.
It\'s funny. Little things used to mean so much to Shelly. I used to think they were kind of trivial. Believe me, nothing is trivial.
Az már más kérdés, hogy az ATI 0.13as termékein nincs, mig az nV FXe ugye ugyancsak 0.13as, mégis 350W tápot ajánlanak mellé😊
http://slashdot.org/article.pl?sid=03/05/23/0534208&mode=thread&tid=152&tid=185
Dez: Inkompatibilitas definicioja jatekoknal: amikor fut,de csak pl. 1 fps-sel,vagy össze-vissza akadozva,irányíthatatlanul 2. K8-nál alapból mindig 200MHz az FSB. Csak tuning által lesz magasabb.
Nezz meg egy FXet es nezz meg egy ATI-t.
AZ FXen tonna szamra allnak a 2000es kondenzatorok , gyakorlatilag elfoglal ket kartyahelyet.
Eltudom kepzelni, hogy mekkora lehet a kartya aramfelvetele.
Az Nvidia rossz uton halad szvsz , ugyan odafognak kilyukadni mint anno a 3DFX, hogy mar kulso aramrol kell hajtani a kartyat.
Ezt igazolja az MSI kartyaja, hogy a kartya vegen egy 4 tus tapcsatlakkozo talalhato.
Lassan egy atomeromuvet is kell a kartya melle mellekelni.
Ezzel szemben nezz ra egy ATIra, nincs a nyak vegen az a kondenzator tomeg , ami inkabb a Manhattan felhokarcoloinak tulzsufoltsagara emlekeztet a FXen.
Dez: Inkompatibilitas definicioja jatekoknal: amikor fut,de csak pl. 1 fps-sel,vagy össze-vissza akadozva,irányíthatatlanul 2. K8-nál alapból mindig 200MHz az FSB. Csak tuning által lesz magasabb.
Szal akkor itt el is veszett az elõnye az 5900nak.
A játéktesztekkel kapcsolatban semmi sem bizonyitott még természtesen, ugyanakkor azok ugyanugy fix kameranézetes timedemok, stb, és mint ahogy a futuremark leirásban is benne van, ugyanugy lehetséges rájuk a cheat megirása, és a detonatorFX képes felismerni õket.
Az meg ugye jobb képminöséget ad (ARB2), de lassabb (fõleg nv3x-en😊.
Igy egyalán nem kizárt, hogy az összes szóban forgó benchmark, timedemo, stb-re megirható, és meg is van irva, ugyanez a csalás.
A FutureMark (a 3DMark fejlesztõje) hivatalos közleményt adott ma ki az Nvidia Detonator FX driverekkel felmerült problémák kapcsán:
http://www.futuremark.com/news/?newsarticle=200305/2003052308#200305/2003052308
Összefoglalva:
-Igazolták hogy csalnak a Detonator FX driverek
-kiadtak egy b330 patchet a 3dmark03hoz (is..) ami kiküszöböli a csalásokat
-A driverek detekciós eljárásainak kiiktatásával a GF FX 5900 3DMark összpontszáma 24,1%-al csökkent; ezen belül a Pixel Shader 2.0 teszteredmények több, mint 50%-al (azaz kevesebb mint a felére) estek vissza.
-A 9800PRO összteljesitménye 1.9%ot esett (ami a leirás szerint a 3%os tûrésen belül van, bármilyen okból lehet)
-A b330 3dmark03 letölthetõ a futuremark oldaláról
Szvsz korrekt lépés a futuremark részérõl, és felettébb ígyjárás az nVidiának...
HIP-HOP jön Vuk
"If you take look at the dawn shaders then you will notice that the most shader instruction are
Magyarán kutya különbség nincs a demo képminõségének FX és ATI között. Ugyanis a dawn demo vagy 16bitFP, vagy 12bitFIX szinmélységgel használja a shadereket.
Szóval az ATIn ugyanolyan paraméterrekkel fut le, mint FXen.
Akkor most tõled idézek: "Ha azonos színmélységen is gyorsabb lenne, akkor lenne gáz az nVidiának. "
Szóval?😊))
UI: Az már csak találgatás ténye, hogy VAJON MIÉRT csak 16bitFPre irták a geforceFX techdemót, ugye..... az élet nagy rejtélyei...

9700PRO, 16xAF, 4XAA

Valszeg az 1600as fullhoz már kell a 256MB.
Kétségtelen, hogy nem hibás textúrás felbontású tesztre vonatkozott az eredmény. Másrészt,eddig sehol nem irtak hasonló textúrahibákat. Szal valszeg driver függõ is.
AMúgy gyenge érv a 96bittel jönni megint.
Az nv 128bitFPje olyan, mint 8500on az SSAA. Bekapcsolom, szép meg jó, de bûn lassú, és nem látható a különbség köztük.
Tény és való, hogy 96bit kevesebb mint 128, de ez a különbség nem akkora, mintha 128 meg 16 között néznénk, ugye. Másrészt, legalább az ATI mindig 96on megy, és nem kénye kedve szerint butit itt-ott 16ra.
Lentebb az idézetben is benne van, hogy annak ellenére gyorsabb 15%al, hogy az nvidia hivásokat még le is kell forditsa standard ARB-ra. Arról nem is beszélve, hogy jobb képminõséget is produkál igy.
