38
-
#38 Akkor miert eroltet a Valve egy speckon tuli feature-t a HDR-hez, amit "veletlenul" az ATI tud, de mas nem?
Ezt hívják megtévesztésnek...
Azt a bizonyos "speckó" featurét még az elött rakták be a HDR-be, mielött megtörtént volna a tender a HL2 bundle-hoz. Tudnillik még szeptemberben az ATi és az nVIDIA is szerződést szeretett volna ahoz, hogy kártyáikhoz csomagolhassa a HL2 full változatát. Az ATi 7 milliót ajánlott, és ő nyert. Illetve mégse, mivel ugye a HL2 csúszik, így csak egy kupont tud a 9600SE/9600XT/9800Pro és 9800XT kártyáihoz csomagolni, amely tulajdonosa jogosult egy teljes HL2-re. EMIATT FIZETETT AZ ATI 7 MILLIÓT, ÉS NEM AZÉRT, HOGY BÁRMIFÉLE ELŐNYT ÉLVEZZEM A KÁRTYÁJA! Ráadásul a VALVe küzd azért, hogy a HL2 jól fusson az FX kártyák alatt is, emiatt is dolgozták ki a HDR FX-et. Figyeled, NEM az nVIDIA, hanem a VALVe!
Szóval nem kellene rémhíreket terjeszteni... -
#33 Valóban nem beszéltek csalásról. Mivel az ilyenek mindig csontra butitott grafikával "élvezték" a játékot, nekik tökmind1 volt... -
Borg #32 "Anno quake3-al mért mindneki, és senki nem beszélt csalásról. "
Na ez azért nem teljesen igaz, UGYE ;) -
IrkaBirka #30 Ki mondta, hogy ne egy fasza játékot használj a méréshez? Ki mondta, hogy a futuremark-al fogsz játszani a hétvégén.
Anno quake3-al mért mindneki, és senki nem beszélt csalásról. A 3dmark programozói pedig jók (írj jobbat ha tudsz)
És még valami csibék: miért hisztek olyanknak akiknek célja van vele, hogy Te higgyél neki...
-
#29 Sajnos ennek az lesz a vége, hogy meg fog halni a Futuremark, mert előbb utóbb senki sem fog hinni nekik, pedig nem is az ő hibájuk. És sajnos mi meg lassan egy tesztprogramnak sem fogunk tudni hinni, csak az éppen frissen megjelenteknek. Viszont így meg lassan minden tesztprogram készítő csapat fel fog hagyni a fejlesztéssel, mert csak nagyon rövid idő az, amig hitelesek a teszteredmények. -
gonosz #28 amugy a legnagyobb csalast a 2001 -es 3dmarkkal kovettek el. a gf4ti -k a nature tesztben egyik driverrol a masikra felugrottak 40 fps-rol 70-80 -ra.. a kesobbi anti-detect scripttel ez szepen vissza is maszott. mar ott is lenyestek a fel scene-t a renderbol es hoztak ki a 9700-t szorongato pontszamokat aminek a fele sem igaz. a 2003-al csak folytatjak a hagyomanyt. -
gonosz #27 az osszehasonlitas nem fair, a radeon ddr a gf2 ellenfele volt, a gf2ti kesobbi es gyorsabb kartya. annak az ellenfele a radeon7500 volt.. -
#25 Ja, és a #16-osban az igazság. Aki ezt még nem ismerte fel az évek alatt, az vagy buta vagy már megette az agyát a fogyasztói társadalom parasztvakító rákfenéje.... -
#24 Én nem vagyok semmilyen FAN, nvidiám van , de sztem is az ATI most a jobb.
VISZONT: amit a futuremark művel a nevetséges markjaival, drivecsítkiiktató paccsaival az az igazi LOL.
SOHA nem hittem, és ezek után sem hiszek nekik, és fenntartom a véleményem miszerint: kurvára nem tudnak programozni. Ha majd egy SWEENY vagy egy CARMACK mond valamit azt elhiszem. Lehet, hogy optimalizál az nvidia, de a többi gfxchip gyártó is ezt csinálja.
Tiszta LOL az egész 3dmark úgy ahogy van. Tessék szépen gamekon kiprószálni a karikat oszt kész. -
#22 3dMArk elmehet jó messze tesztelni... -
#18 1.: Én azt írtam, hogy az effetek terén volt mahínáció, nem azt, hogy a képminőség romlott...
2.: <i>a pixel shader 2.0 tesztben egy hangyanyival sem lassult az FX</i>
Aha. Érdekes. A Mother Nature is PS 2.0 teszt (29-33%-os teljesítményesés), tudtál róla? :))) -
#14 Beyond3D tesztje a 330 és 340-es build között
Ami a lényeg: a tesztben szereplő FX kártyák a Game Test 2-ben (Battle of Proxion) 15-23%-al, a Game Test 3-ban (Troll's Lair) 10-14%-al, Game Test 4-ben (Mother Nature - ez használja legintenzívebben a Dx9 effekteket) 29-33%-al gyengébben teljesítettek! A képminőséget képeken hasonlították össze, hát eléggé látványos, annyi szent - a 330-as tesztnél bizonyos effektek szinte teljesen eltüntek... -
#13 A gond nem a régebbi nVIDIA kártyákkal van, hanem az FX-szériával, valamint azzal, amit mostanában a driverjeivel művel az nVIDIA... -
#10 Sajnos az nVidia, mar eleg reg otaoptimalizal, de a tomeg szamara ez most bukott ki.
Anno volt egy GF2-esem, ami 3DMark2001-ben driverrol driverre folyamatosan gyorsult, de az osszes tobbi (kivetel meg a Quake) tesztelo progiban (foleg jatek alapu), rendre gyorsabb volt a regi driver. Szoval a 6.x driver csak 3DMarkban es Quake-bewn volt csak lassabb, mint az akkori nagyagyu 22.xx driver. Akkor sokan csak legyintettek, meg okoskodonak mondtak azokat, akiknek ez nem tetszett. Nekem nem tetszett, valtottam ATi-ra es nem bantam meg....
Akkor csinaltam is egy kimerito tesztet, akit esetleg erdekel az nezze meg itt, es gondolkodjon el, hogy a NV miota is optimalizal...
A teszt itt talalhato:
http://hwteszt.freeweb.hu/ -
Csatti #9 Tegyel ra egy uj hutest, (javaslom a thermaltake megoldasat) majd teszteld le az aquamarkon jol meghuzva es elegedett leszel vele meg egy darabig. A 3DMark03-at meg felejtsd el. -
Csatti #8 Ennyire azert nem egyszeru a helyzet. Hisz ha tesztelgetik hol lehetne sporolni, ha ez az adott program fut es ezek a sporolasok mas programnal nem mukodnek, akkor az mindenkeppen csalas, hisz meghamisitja azt, aminek egy atlagos jateknal tortennie kene, es vegulis ennek a megbecslese lenne a cel, nem? -
gonosz #6 dx9 teszt mit varsz?
leirtak 5x hogy dx8-as kartyat a dx8-as teszttel kell csinalni.
amugy regi kartya, nincs benne mar eleg ero meg egy durva dx8-hoz sem. ezt megszemlelheted majd sajat szemeddel is a doomban. regi jatekokban/es tesztekben/ jol teljesit. mi a meglepo. -
gonosz #5 igen a 9.1 -ben lerontottak a specifikaciokon (fp32,24 melle bevettek a 16-t is), hogy jobban menjen az fx. Persze dx9 effektek egy reszenek kepminosege ezzel a padlot fogja surolni, de sebaj, "fairplay" nem igaz? -
#4 Szerintem a Futuremark(MadOnion) már elásta magát tesztelés ügyében. Addig volt jó, amíg, mint kisebb cég, objektív teszteket tudott készíteni, de most már optimalizációk, csalások, minden van itt. Aki ez alapján vesz kártyát, az futtassa bizalommal, de én nem hiszem, hogy az 1500 pontot elérő Ti4200-esem ötöd olyan jó lenne, mint egy Radeon 9800. Tudom, itt a tudás miatt veszít sok pontot, de ez akkor sem egy objektív meglátás. FX-ekről nem beszélek, attól függetlenül egy nem túl jól sikerült darab marad. -
#3 "Az új verzió objektív tesztelési lehetőséget biztosít a legújabb hardver és szoftver megoldásokkal. A felhasználóink így 1:1 összehasonlíthatják a különböző gyártók termékeinek teljesítményét."
Ugye ezt nem gondolta komolyan aki mondta? Amíg nincs dx9.1 addig nem lesz "rend"! Ugyanis anno a dx9 referencia kártyája a r9700 volt. Az Ati a mai napig ennek a chipnek (r300) az oldalvizén laírokzik. Az nV Fx kártyái viszont sajna a rossz a tervezésnek, nem igazán dx9 támogatottak, ezért kell powerből csinálniuk a dolgaikat. Állítólag a dx9.1-ben már teljes támogatást kapnak majd az fx kártyák, így talán nem lesz ilyan fostenger ez a széria!
NO FLAME! -
TheZsenyka #2 NVIDIA-nál 15% az eltérés
ATI-nál egy tízezred... Csaló gazember hegyek. Nekem volt FX5900-am, de elpasszintottam amint kiderült a HALF LIFE genyóság; ráadásul fostalicska volt a képminősége is. -
#1 A Beyond3D-n letesztelték a 330 és a 333-as build (kb. két hetes verzió) közötti különbséget:
GeForce FX 5950 Ultra w/ Detonator 52.16:
3Dmark '03 Build 330: 6412 pont
3Dmark '03 Build 333: 5538 pont
Radeon 9800XT w/ Cataclyst 3.8:
3Dmark '03 Build 330: 6435 pont
3Dmark '03 Build 333: 6436 pont
Megjegyzés, ha a Gainward "szakemberének" igaza lenne, akkor az összes többi PS/VS tesztben (pl. Aquamark) miért teljesítenek az FX kártyák rosszabbul, mint azt a 330-as 3Dmark alapján várnánk tőlük? :)