8009
Avagy az nVidia NV4X
-
#252 És szerinted itt az átlag 25-30% teljesítménykülönbség elég?
Nem tudom, valahogy én arra számítottam, hogy itt aztán kő kövön nem marad, és a 6800Ultra sz@rrá aláz mindent. Ehez képest igazából csak 1600x1200-as felbontásban aláz keményen mindent, az alatt legtöbbször csak visszafogott előnnyel rendelkezik.... -
sniper #251 A gf4 sorozatig az Nvidia vezetett, csak a 9700-9800 sorozat lett jobb az nvidias tarsanal. -
#250 Borg... Most nézem kinek a tollából ered ez a specifikáció...
Attól a Dave Baumann -tól aki a másik topicban éppen egy radeon kártyától ejakulál...
No comment.... -
#249 Hát ahol "lépést" tudott tartani az kb 30% -al megközelítte... -
#248 Hát....
Az első helyet átvette, ez mondjuk eddig sem volt kérdéses - de mondjuk figyelmbe véve, hogy a 9800XT is egy finomitott R300 (ami ugye már két éve van a piacon) ez a minimum, amit elvártunk tőle.
Viszont sok téren meglepetésre adott okott a belinkelt teszt: pl.: az IL-2:FB teszteredmény, ahol a 9800XT szépen tartotta a lépést, sőt magas felbontás és AA/AF bekapcsolása után még jobb is volt, mint a 6800 vagy a C&C Generals, ahol AA és AF nélkül szintén a 9800XT volt a legjobb. A 6800Ultra alig néhány játékban volt 2x jobb, mint a 9800XT (pl. FarCry, Halo), ami engem kicsit megrémiszt, mivel sok esetben volt képes a lépést tartani a Radeon (pl. Max Payne 2, Splinter Cell, Tron 2.0), ahol nem a CPU limit volt a probléma... -
Borg #247 ... és az is csak az ár/teljesítmény aránya miatt. Semmi másért. -
Borg #246 Örülök neki hogy ilyen jól ki tudod forgatni más szavait, de itt semmi szükség nincs a kötözködéseidre most sem, mint ahogy eddig sem. -
K.András #245 Shader nélkül semmit nem renderelsz,nem véletlen van minden objekten alabol egy shader,tehát amit lerendereltél és esetleg nem raktál rá shadert azon alap shader van prg-töl függ milyen,mayaban pl lambert az alap... -
#244 A legtöbb ember szemében(az enyémben is) nem az a jó kártya ami a legtöbb fícsört tudja hanem amelyiken gyorsabban fut a kvék. Nekem úgy rémlik hogy a 8500 volt az első ATI amiben egyben volt a 2 cucc. A radeon9X széria meg egyértelmüen jobb volt az NV cuccoknal(talán az 5900XT volt az egyetlen értelmes FX kari). -
Zsoltee_a_bator #243 elkuldjem az altalam keszitett ?matt? gombot? :) -
K.András #242 De ha nincsen shader akkor max egy matt gömböt fogsz renderelni nem speculár fényt,tehát nem arrol volt szo, hogy lehet e shadert renderelni szoftveresen hanem arrol, hogy shader nélkül nem csinálsz speculár fényt glossinest stb... -
Zsoltee_a_bator #241 jo nehany honapig tenyleg az ove volt az egyetlen t&l :) -
K.András #240 3-1 semmiképpen nem lehet,márcsak azért sem mert az nvidia vezette be az egyik legfontosabb változást a vidkártyák terén alá T&L(transform and lightning) a GF256-ban...
-
Zsoltee_a_bator #239 specular fenyt csinalok neked szimpla software renderingben is :) -
Zsoltee_a_bator #238 mindenesetre teny hogy ugy 4 evig az ati volt folenyben feature-okben. (radeon256 vs gf2, 8500 vs gf4, 9700 vs fx)ez az elso kartyaja ahol a jelek szerint kicsit le van maradva kepessegekben. Nem kell frocsogni rogton, egyelore az allas 3-1. Most ezzel nem vedem az atit, mindenkepp keslelteti a jatekfejlodest, ha vmelyik kartya kevesbe skilles mint a masik. (foleg ha a piacvezeto szeriarol van szo) -
K.András #237 Na az ugy nem rossz :D -
sniper #236 En siman a kezemmel szoktam arnyekolni ha szemembe sut a nap. :D -
sniper #235 "Csak nehogy az NV30 sorsára jusson... Baszott nagy lesz a selejtarány itt is:("
Az ATInal talan nem? szerinted honnan kerult elo hirtelen meg 8 pipeline? Biztos az Nvidia kedveert ujraterveztek a kartyajukat... Megmondom: 16 volt nekik is betervezve, de naluk is ugyanolyan nagy a selejtarany, de meggecibbek voltak az Nvidiannal, 1szeruen visszatartottak volna a 16 pipeosokat, eloszor eladjak neked a 8 meg 12est, majd hirtelen bejelentik a 16 pipeos "advanced" videokartyat, ami tulajdonkeppen a selejtmentes eredeti valtozat.
"Bravó! Adjuk el új featureként mindazt, amit az R300 már majd' 2 éve tud!"
Ugye igy fogod ocsarolni az ATIt is, amikor vegre belerakja a PS 3.0t es VS3.0t a kartyaiba, mert azt az Nvidia mar x ideje tudja? -
K.András #234 Elkönyveltük, hogy a szimpla shader nem tudod miböl épül,fel buszke lehetsz magadra! -
Borg #233 Jó Mr. Glossiness, elkönyveltük hogy nagyon értesz hozzá.
Most már nem tartunk vissza tovább. -
Borg #232 Lehet, nem is mondtam, hogy nem, de ne feledd: Az hogy nem lesz benne, csak egy pletyka, nem a valóság... -
K.András #231 De inkább be is fejezem,itt még mindig fejetlenség uralkodik :))) -
K.András #230 "Szimplán shader mentes az a kép"
Shader mentes képen nem lehetne glossines sem,speculár fény sem stb...Közöd nincsen a grafikához,legalább egy shadert tudtál volna életedbe összerakni,nem neked fogalmad nincsen az egészröl,és ne törölgessél,ne ezzel legyél nagy ember, gyere mutassál egy shadert amit te csináltál utána mutatok én is, okés??? -
Jinchuu #229 Köszi! Mondjuk azért elég sok helyről lehet hallani ezekről a kis "optimalizálásokról" a driverekben nvidia felé, úgyhogy azért nem teljesen mondtam hülyeséget! :D -
Cvd #228 Ezt úgyis kimoderálod, de az R300 megjelenésekor, meg az NV30 megjelenésekor is folyton azzal jöttél hogy az nVidiának nincs rendes DX9-es cucca. Mindezt lassan másfél évvel ezelőtt. Ugyanaz a helyzet most 3.0-ás cuccokkal. Ha neked lehetett lovagolnod a dolgon, akkor mástól miért akarod elvenni az örömet? :) -
Jinchuu #227 Mondjuk ahelyett, hogy egyre jönnek ki ezek az új dolgok, inkább a régit kellene már több gameban alkalmazni, mert mint azt a Far Cry mutatja, hihetetlenül szép dolgokra képes már ez is, csak ugye kár, hogy nem minden game használja! :( Pedig milyen jó is volna! -
sniper #226 LOL. Tipikus konzolos "hozzaertes"... -
Borg #225 Szvsz felesleges a hype a SM3.0 körül.
Ahogy a B3D teszt is mutatja, inkább logikus finomítások sora, mintsem egetrengető újdonságoké. A directx9.0-ban is benne van már a lehetőség a használatukra, kiváncsi vagyok mi ez az ökörködés a directx 9.0c körül is.
De miután valaki elhintette a PLETYKÁT miszerint az R420ban nincs SM3.0, már ezen lovagol mindenki. Ha nem is lesz benne, senki nem fogja hiányolni még legalább 1 évig, semmi kétség, ugyanúgy mint a HDM-et az NV30ból. A valószínűbb viszont úgyis az, hogy benne lesz keményen. De majd kiderül.
Elég brutális kártya ez, de azok a tények azért keményen ott vannak, amit #212-ben irtam. -
Jinchuu #223 Ok, akkor benéztem. Amúgy nem tudtam, hogy előtte teljesen normális volt, akkor viszont tényleg patch hiba! Na akkor ezt majd egy új patch-el korrigálják! :D No meg remélhetőleg használhatóvá válik az 3.0 verziójú shaderek! -
Borg #222 Szvsz ezt a pixeles témát hagynod kéne, mert pont akkora blődség, mint amiket eddig irogattál.
Szimplán shader mentes az a kép, valamiféle bug miatt. Emiatt egyátalán nem mérvadó a FC teszt (és másik sem).
Arról meg hogy ki mit rak be az alsó polcra, inkább úgy kellene nyilatkoznod, hogy tudod miről beszélsz. -
K.András #221 Meglátjuk milyen lesz uj ati,de az tény hogy ez a kártyája nagyon jo lett az Nvidiának. -
K.András #220 Ezért nem álltam le vitázni DanielT-vel,ugyanis ö berakta azokat a képeket mint a kártya rossz képminöségének bizonyitéka,hozzáfüzte ,hogy gyalázatos a minöség stb,elolvasni pedig nem tudta ami oda van irva,igy akármit irok az lesz, hogy szar a kártya a minöség minden,hiába irom ,hogy már TNT-nél nem voltak ilyen pixelesek a játékok,ö azt mondja a toms-nak hisz,csak fogalma nincsen rola tomshardware mit irt rola és miért :DDD
Ez a kártya betette az also polcra szépen az Ati 98xt-t(uj kártyáját is meg fogja enni,nem fog tudni 230%-al nagyobb teljesitményt kicsikarni uj atibol szvsz),nem véletlen ijedtek meg, és most gözeveröl probálják a nem aktiv futoszalagokat aktiválni uj ati kártyán,lásd SG cikk. -
Borg #219 Azért ezt nem gondoltad komolyan remélem:))
Annyira azért mégsem hülyék, hogy a butításuk ugy nézzen ki, hogy szinte minden shader effekt hiányozzon.
Egyszerűen a FarCry nem tudja beazonosítani a kártyát (6800), hogy milyen módban fusson. Ezért besorolja alap 1.1/1.4 kártyának.
És ugyanez megeshet más programmal is még, amelyek netán NV3Xként ismerik fel, és úgy persze hogy gyorsabban fut a game rajtuk a butításokkal.
Egyszerűen a játék-sebességtesztek most még nem mérvadóak.
De csak meg kell nézni a d3drightmark, és shadermark eredményeit, mint irtam, 3x gyorsabb az 5950 ultránál... -
Cvd #218 Nem valószínű. az nVidia kezdetektől fogva nyomta a fejlesztést, akkor miért csak egy patchbe kerülnek bele ezek a "csalások"? Ráadásul a képminőséggel nem volt gond az 1.1-es patch előtt. Úgy tűnik hogy a patch hatására a sebesség semmivel sem nőtt, ellenben rendszeres képhibák jönnek elő FX-eken. Nem túl hatékony csalás, ha annak szánták. SZVSZ nincs itt semmi ilyen szándék, simán csak ellőttek valamit a patchben. -
Jinchuu #217 Na az eleje érthetetlen maradt! :D
A lényeg, hogy szvsz az nvidia nyomására kerültek bele ezek a kis csalások, hogy jobb sebességet érjenek el a kártyák a dx9 game alatt! -
Jinchuu #216 Szerintem nem a Far Cry a hibás, hanem az, hogy ilyen kis dolgokkal érték el, hogy a régi NV3X kártyák is megfelelő sebességet produkáljanak a game alatt és mivel ezek nem kikapcsolható kis okosságok, ezért még ennél az új kártyánál is jelen vannak. Majd ha az újabb patchel megcsinálják, hogy a game felismerje, hogy ez biza már egy új kártya és nincs szükség eféle kis csalásokra, akkor majd normális képminőséget produkál majd, természetesen elfogadható sebesség mellett, mivel erre nem igen lehet panasz a kártya esetében! :D -
Cvd #215 A Tomshardware-es képminőséggonddal kapcsolatban csak pár apróság, idézet onnan:
"However, with the current driver, the 6800 U was detected as PS1.1/2.0 hardware by the game" - Vagyis szinte 100% hogy az 1.1-es Far Cry patch hibája a képhiba. Ugyanaz figyelhető meg NV35 esetében is, márpedig kicsi az esélye hogy halál pontosan ugyanúgy nézne ki a dolog két eltérő mag esetében. Ráadásul más játék vagy teszt esetében nyoma sincs a problémának. Ennek ellenére egyes, magukat hozzáértőnek tartó elvakult atisok máris csalást meg gyenge képminőséget emlegetnek. Mint az elmúlt pár év során minden egyes alkalommal amikor éppen nVidia kártya volt a toppon. Unalmas. -
Akuma #214 oké csá -
#213 Bocs, nekem ne mondd meg, hogy mit kell betenni és mit nem. Kösz. -
Borg #212 Most szemezgetek kicsit a beyond3d kitűnő 6800 cikkéből. Egyékét érdekesség:) A saját megjegyzéseimmel...
1
the NV40 is a big chip, fitting only about 190 full cores per 300mm wafer. In fact the chip is so large, you may wonder what their yields will be like and hence what the availability will be like
[...]
It may also be the case that rebranded NV40 ASICs will also, possibly temporarily at least, fill out one or two of these segments. The die size of NV40 is very large in comparison to other graphics chip dies, and it's very unlikely that all die on a wafer will come back clean and working (it may even be the case that dies operating with all 16 pipelines / 4 full quads will be in the minority); however, with multiple quads on the die it may be the case that NVIDIA will choose to operate a redundancy scheme in order to minimise cost for dies that are not fully functional to NV40 specification.
Csak nehogy az NV30 sorsára jusson... Baszott nagy lesz a selejtarány itt is:(
2
Intellisample 3.0
Up to 4X Native Multi-sampling FSAA with rotated grid sampling
Lossless color, texture, z-data compression
Fast Z Clear
Up to 16x Anisotropic Filtering
Bravó! Adjuk el új featureként mindazt, amit az R300 már majd' 2 éve tud!
3
Support for FP16 Texture Formats with Filtering, FP32 without
Szal ja. Aki reménykedett benne, hogy nem az NV3X szarságait folytatják, hát íme... mégis.
4
The sticker on the back of the board marks the RAM being used on this board as Samsung RAM, which we assume is Samsung's K4J55323QF as this is the only GDDR-3 memory they currently display. The speed also shows that the standard operation is 500MHz, though the specifications of 6800 Ultra call for 550MHz memory which indicates that, by default, the reference boards are running the memory with a 10% overclock.
Szal ennyit a GDDR3 kiforrottságáról, elérhetőségéről, és a kész kártyák tuningpotenciáljáról? Ez akkor gáz lesz ATI-éknál is...
5
when the PCI-Express version of NV40 (NV45?) becomes available you’ll likely find that only one internal power connector is required as PCI-Express can provide 75W of the power directly over the bus.
Na itt leszek kiváncsi arra, hogy az ATI mit hoz ki az AGP8X-be. Szerintem ez a power req. kamu, szimplan ennyire rossz a yield még, vagy valami hasonlo lehet...
6
What we can see from the pipeline diagram is that NV40 features 6 distinct Vertex Shader engines, which equates to roughly twice the performance per clock of NV30, and 16 rendering pipelines.
És nagyjából egyezik az R300/R350-ével...
7
(3DFx) Rampage's chief architect was in charge of NV40's texture and shader engine.
8
One optional element of DirectX9 that NV3x’s pixel shader pipeline didn’t support was Multiple Render Targets (MRTs), which allows up to 4 values to be outputted from the pixel shader as opposed to just one. NV4x does support MRTs, and the above image is taken from ATI’s Depth of Field demonstration which utilised MRTs to store colour information in one render target and depth / blur factor in another. This demo fails to operate on NV3x, but runs fine on NV40.
És újra.. adjunk el egy featuret ujnak (MRT) amit az ATI már régen tud...
9
This also signifies that NV4x is only capable of 2 FSAA Multi-Sample samples per clock cycle, and indeed David Kirk confirmed this to be the case - as it has, in fact, been since NV20. To achieve 4X Multi-Sampling FSAA a second loop must be completed through the ROP over two cycles – memory bandwidth makes it prohibitive to output more samples in a cycle anyway. Unlike ATI, only one loop is therefore allowed through the ROP which continues to restrict NV4x to a native Multi-Sample AA of 4X – modes greater than 4X still require combined Super-Sampling and Multi-Sampling.
[...]
The 8X mode is somewhat curious. The application shows that this is a combination of 4X Super-Sampling and 2X Multi-Sampling.
Tehát: NV40 AA-ja még mindig nem ér fel az R3x0 AA-val. Pluszként bevezették az ATI (eredetileg 3DFx) Rotated Grid mintavételezését, de a sebesség nem lett jobb, és a Gamma korrekciónak sincs nyoma (ami ugyancsak alap az R3x0-ben).
10
While ATI have been mapping some of their video processing over the Shader Core for some time NVIDIA have decided not to do this as they feel instructions required for video processing do not lend themselves well to the instruction set in the pixel shader pipeline; thus a dedicated unit may be more optimal for this type of work. When running video processing though the shaders this means the 3D core is active and consuming power as well, which may not be desirable in all situations, especially where mobile devices are concerned - the NV4x VP is a smaller unit dedicated to video processing so it should require less power for video processing than utilising the shader core.
Érdekes. Tehát a shader egységek nem aktívak videófeldolgozás közben, így nem termel annyi hőt a chip. 2D/filmnézés közben tehét nem pörög fel így a brute hűtés. Kapott egy külön Video Processzort, ami ilyenkor bedolgozik. Jó megoldás. Persze annak a problémáját felveti, hogy mi lesz a low-end NV4x chipekkel, amik alacsonyabb frekin futnak... nem lesz videofeldolgozás, vagy lassabb? (vagy esetleg külön frekin fut majd az egység?) Note: Az ATI ugye a eddig pixel shaderen át intézi ezeket a feladatokat. Kiváncsi leszek mit lép erre az X800ban. (de pl az NV3X SEHOL sem intéz ilyesmit...)
11
For the purposes of benchmarking we will enable full Trilinear filtering on the 6800 Ultra as this is a high end board and quality compromises shouldn't be forced at this price point. However, the optimisations are still enabled for the GeForce FX series with no option to remove them so there will be a filtering disparity in the benchmarks shown.
Na erről beszéltem. Nem összegyeztethető a teljesítmény más kártyákkal, mert a beállításokat nem lehet elegendően hangolni.
12
Looking at the key differences between 6800 Ultra and 5950 Ultra we see that although 6800 Ultra has a reasonably significantly lower clock speed than than 5950, it still has a whopping 237% pixel fill-rate advantage thanks to it having 4 time the number of pipelines. The difference in texture rates is only 68% because 5950 has twice the texture samplers per pipeline than 6800 Ultra does. The triangle rate is only 68% again because though 6800 Ultra has twice the number of vertex shaders, and the clock speed difference pulls it back somewhat.
[...]
With GeForce FX 5800 and 5900 there was some disagreements as to how NVIDIA had classified their pipelines then, as they described them as 8x1 (8 pixel pipes with one texture per pipe) yet they transpired to be "4x2" or "8x0" (4 pixel pipes with two texture per pipe, or 8 Z / Stencil pixel pipes).
Ehhez no comment. Látszik, hogy fejlődtek nagyot a srácok, de azt is mutatja, mekkora FOS az NV3X architektúra. Again. Csak a 6800 pixel shadere 3X gyorsabb az 5950ultránál, és ez csak sima PS2.0 alatt értendő...
13
The table above highlights the FP16 and FP32 rendering performance of the boards and we can see that in fact 6800 Ultra is losing more performance for longer FP32 programs than 5950 is, relatively. It appears to be the case that NV40 may have a greater register space than NV38, meaning that slightly longer programs can execute with no registry limitations, but as the registry space is used up on longer programs the performance drops off at a greater rate.
Magyarán: FP32 használata esetén többet veszít a teljesítményéből százalékosan a 6800, mint az 5950u. Ezzel persze még mindig jóval gyorsabb, azonban újabb ok arra, hogy FP16 automatically by driver megint bejátsszon...
Egy szó mint ezer tehát, nem minden arany ami fénylik. Ahogy B3D-ék is összegzika conclusion-ben.
Ellenben nagyon király a kártya, iszonyatos sebességekre képes. Ami a tesztből egyértelműen kiderül, hogy az 5950Ultrára 2x ráver, de sok esetben akár 3x is.
Csak nem tudom, hogy ez elég e. Ha belegondolok, hogy kellene ugye mainstream, meg low end kártya is NV4X-ből, azok hova lesznek pozicionálva?
Tekintve, hogy 480W (B3D szerint "runs fine on 450W") táp ekll az ultrához, nem egy " mindenki kártyája " megoldás lesz ebből.
Az enyém biztosan nem. Ellenben ha a 6800 (sima) is ráver kb 2x az 5950 ultrára, és korrektül pozicionálják árban is, akkor elgondolkodtató ajánlat... LENNE ha, nem lenne ez a pár bottleneck a kártyában, amit fentebb írtam.
Naja, minden eldől 2-3 héten belül, ha kijön mit is tud az R420. Egyes új pletykák szerint igencask felejtős lesz a megjelenés pillanatában az NV40, bár ne lenne így.
Annak fényében ugyanis, hogy az NV40 fejlődött ugyan, csak éppen az R350-hez képest nem eleget, ha az ATI ilyen léptékkel fejleszt, kurvára nem fog labdába rúgni az NV40, sajnos.
Geforce6800 tehát:
pro
-nagyon gyors, tud egykét új dolgot is
kontra
-sajnos csak az nV3X-hez képest fejlődött nagyot, R3X0-hez képest max finomítottak és gyorsítottak rajta
-feltételezve hogy az ATI is legalább ekkora lépést tesz CSALÁDON BELÜL, akkor az NV40 kurvára nem fog labdába rúgni az R420hoz képest...:( Ugyanaz lesz a felállás mint most. R420 brutál gyors, kiváló és valóban új megoldásokkal, az NV40 pedig kullog utána az R350+NV30+RAMPAGE ötvözetéből született gyors, de nem elég okos megoldásaival... (PR bullshitet félretéve)
Ne legyen igazam, de nagyon így fest a helyzet. Kiderül pár hét múlva...