5047
Az nVidia G90-sorozat
-
Abu85 #82 Azt nem értem miért vitatkozol, amikor ilyeneket írsz. Már miért lenne érdeke egy fejlesztőnek előnyben részesíteni az egyik cég kártyáját. A HL2 nagyon jól futott GF6-on. Állítom, hogy a GF FX-re volt a legjobban optimalizálva a Source. Ne azt nézd, hogy lassan futott az FX-en, hanem azt, hogy miből hoztak ki akkora sebességet.
Gondolom te is tudod, hogy az Fx Pixel Shader processzorának (az nV35-től) a felépítése egy Skalár FP16/32-es MAD Alu (2 darab Texturázóval)->2 darab FP32-os skalár Alu/Comb.(MUL/ADD/FP16-MAD). Ez a rendszer ált szemben az R300 féle FP24-es Vec3+skalár(MAD)-Vec3+Skalár(MUL)(1 darab Texturázóval), 3+1 co-issue. Nem tudom mit vártál az FX-től, de az elejétől lehetet sejteni, hogy a Shader feldolgozásban borzasztóan kevés lesz. Az FX a driverekben azzal játszot, hogy a Shader precizítást lecsökkentette 16bit-re és ezzel lehetett a mini ALU-k FP16-os MAD utasítását használni.
Hasonlóan eltérő az R600 és a G80 Unified Shader procik felépítése. Az R600 egy SP blokkjában 4 FP32 skalár Stream processzor(MAD)-1 FP32 stream/SFU van, 1+1+1+1+1 véletlen utasítású co-issue. A G80 SP blokkjának felépítése 4 darab FP32 FP32 skalár Stream processzor(MAD+MUL)-1 FP32 SFU (4 órajel/utasítás), mindebből kettő csoport párhuzamosan kötve. Már most látszik, hogy a D3D10-ben bevezetet trigonometrikus és transzcendens utasítások a G80-on 4 órajel alatt hajtódnak végre az SFU-n. Ettől eltekintve mindkét rendszer 4 darab skalár MAD stream procis. Azonban a gyorstárak elérése és elrendezése közel sem egyforma. A G80 minden futószalagján külön gyorstárakat használ ami korlátozza az adatok méretét, többek közt ez az oka a gyenge Geometry Shader teljesítménynek. Az R600 közös gyorstárat használ mégpedig a 80 utas SIMD tömbök mellett (R/W memory cache). Nyilván a legkevesebb adatot a Fragment számítás követeli, míg a vertex és főleg a vertex tömb már igen nagy helyigénnyel rendelkezhet. Mivel a G80-ban nincs elég gyorstár hely a memóriát kell használni ami viszonylag magas elérési időve címezhető ugyebár. Innentől gondolom már látható, hogy miért nem a G80 az erősebb a shader teljesítményben, helyenként siralmasan gyenge. -
virs lee #81 Azért nincs fogalmad, mert te egy fanboy vagy. Nem vagy képes megemészteni hogy nem az istenített kártyád a király. Ezelőtt Athlonom volt, most Core2 van, mert az a jobb. Volt 9800 pro / x850xt-m, most meg ez van, mert ez a jobb. Tudod, nem mindenki fanboyságból vásárol, bármilyen nehéz is ezt elképzelned. -
#80 Hagyd rá, kár a szóért. Tipikus viselkedés, ami neki van az a Jedi, a többi szar.
Fogadni mernék, hogy az AMD-t ugyanígy fikázza. De, hogy miért, arról fogalma nincs, csak sokan ezt mondják és meggyőződése, hogy ez így is van. (Hozzátenném Intelem van.)
De ha éjszaka kicserélnék egy ATI-ra a kártyáját, tuti nem venné észre.
Mos majd jön ilyen ócska kifogással, hogy de észrevenné, mert más a hangaja, meg hasonló. :-) -
virs lee #79 ATI-ra "optimalizált" Half Life2-ben utoléri. ~~ Biztos beraktak minden utasítás közé 20 NOP-ot ha Nvidia karit detektál. :D -
#78 hogy lenne már egyenlő a sebessége? LOL
néhol még a 8800GTS 320Mb-os elpics@zza -
virs lee #77 Miből kellett volna gondolnom? Az ígéretekből? Mert akkor azt is hihetném hogy 640k mindenkinek elég lesz. :D
Akartam keresni egy 8800 vs 2900 tesztet, ez lett belőle. :DD -
virs lee #76 Minek? Nem tűnt fel hogy a linken az uccsó hsz meg itt az idézet csont ugyanaz? -
Abu85 #75 De miből gondolod, hogy pár hónap múlva az R600 sebessége nem lesz egyenlő a 8800Ultrával?
Ahogy én elnéztem más fórum szakijait kimondottan az R600-ra szavaznak. A tények általában a jelenre vonatkoznak, az erősorrend pedig pillanatok alatt megváltozhat. Az FX bukásához is csak egy játék kellett. A Gf8-ban megvan az a lehetőség, hogy az FX utódja legyen, bár reméljük nem lesz az. -
zoolee #74 pff..azt láttam, de hsz szám is mehetne..^^ -
virs lee #73 Ezt nem toom kinek Írtad
Azért van a link hogy rákattitasz és megtudod. ^^ -
virs lee #72 Nem kell tőlem látni, elég ha másik 1000000 teszt bebizonyítja.
Ez a "jövőbiztosabb" olyan üres ígéret, mint amik a konzolos tápigokban szoktak repkedni pléjstésön2-3-4-5...1000 fronton. 'Most nem jött be, de majd a következő, na az igen...' Mire odakerül a sor hogy lehetne kihasználni, addigra ereje nem lesz a konkurrenciához képest, a játékok meg ugye mindig a csúcsmodellre íródnak, illetve arra is csak épphogy, majd lesz köv. gen. amin jól fut alapon. Csak akkor lenne értelme a jövőről beszélni mint dontő tényező, ha a jelenben is fel tudna mutatni valamit, mert akkor ingyen jó, mint extra fícsör. De így hogy jelenleg se vmi fényes, és _esetleg_ valamikor majd akár jó is lehet, vagy nem, na ez nem egy konkrét dolog. -
zoolee #71 Ezt nem toom kinek Írtad, de egtöbben azért utállják/nemkedvelik mert 1 megrögzött NV sek, 2 az ati úgy 1 nagy rakat fosch ahogy van..
Fél év elénnyel nem toott öszehozni 1 jobb karit.:S -
Abu85 #70 De én még nem láttam tőled konkrét elemzést, hogy miben jobb. Valamiben jobb a G80, de az nem azt jelenti, hogy jövőbiztosabb. -
virs lee #69 folyt.:
Áruld már el, hogy honnan ez az óriási ATI utálat?
Vagy fizet az NVidia neked a reklámért?
És ha az ATI teljesítene 2 FPS-el jobban a tesztekben, akkor az NV-t szidnád?
Neked fizetnek az ATI reklámért? Nekem volt mindkettő, azt veszem amelyik jobb. Ez jelenleg az Nvidia. Ezt persze az ATI fanboyok nem képesek feldolgozni. -
#68 szeva! te húzod a vidkarid?? ha igen meddig?? nekem 630/920 fölé nem igen akaródzik menni -
zoolee #67 Érdekesség.. -
Messiah88 #66 Nem, arra gondoltam amiről ez a topic szól.
2 videokártya pedig 30-40%-os teljesítmény javulást adhat max. -
#65 jaja, 2 8800GTX-em lenne , aztmondod?:D
Az most is 280 lenne kb :D
Amúgy csak a monitorom videókarim volt geci drága: 220 + 150 K..... -
Messiah88 #64 Jesszus, 640e-értgépet venni. Nemhogy nézegettél volna híreket és vártál volna fél évet a gép megvásárlásával. Akkor ugyan ennyi pénzből már a procid 4 magos, a RAM-od DDR3-as 1333MHz-es, a videokártyád meg 2-szer nagyobb teljesítményű lehetne. -
#63 Persze! Oké! Aztán majd lesz hozzá egy traktor akkumulátor, hogy 1 órát ki is bírjon.. :D -
tmisi #62 Mert ő már Geforce 9-es vidkarival szerelt notit akar. XD -
#61 Ezt miért ide? :| -
Razors #60 Helló Mindenki, ha valki lenne olyan kedves
, akkor küldjön már 300ezer Ft körüli lap top típus neveket,vagy linkeket amin faszáúl folynak akár az erősebb FPS játékok is , az a baj, hogy nem nagyon vok othon a lap topokban, és már meg van a chas rá, de nem tom meikre érdemes kiadni ennyi $$$$$$$$$$ !!!!! -
#59 mire várjanak?
már a G100-ast is fejlesztik,szal :D -
zoolee #58 Sőőt..
Ha itt tartunk akkor még a DX 9 et se aknázták ki telesen...:) -
#57 még a 8 szériás karikat sem használjuk ki igazán,de kell a fejlödés... -
Nandusz #56 De lehet, hogy 10x annyit keresnek...ezt sosem tudhatod -
Akuma #55 Ilyenért hülyeség felháborodni, és bőven van olyan, aki bírja pénzzel. A fejlesztőket se kell sajnálni, kétszerannyit keresnek, mint szüleim együttvéve... dolgozzanak is meg érte! -
n3whous3 #54 Kicsit felháborító. Még alig készültek el a középkategóriás 8xxx sorozat tagjai és már szopóka-nyalóka.
Ki bírja ezt pénzzel?
Ezen kívül el tudom képzelni a fejlesztőket. Alig tudják optimalizálni a játékokat (részben a folyamatosan, rohamosan fejlődő hardverek piacán) és most kaptak egy adag fost a pofájukba. Lehet erre is optimalizálni. És még meg se jelent...
p.s. És a Duke Nukem Forever így hogyan fog megjelenni? -
#53 Rakjál rá driverből 16xANISO-t is a 16xFSAA mellé és láss csodát, bámulhatod a diashowt! :DDD Tapasztalat.
Nem kell csodát várni ezektől a kariktól sem! -
#52 1900*1200 -as felbontás+ 16X-os élsimítással próbáltam volna Oblivionozni:D
Amúgy csak ez az egy játék az ami nem megy szépen ezekkel a paraméterekkel nálam... -
Nandusz #51 A gépeden nem igen kéne szaggatnia semminek -
#50 ezért érdemes 6Ksról 9K-sra bővíteni:D legalább majd bőven meglátszik a teljesítmény növekmény:D már csak csoffadt Vista kell neki a Dx10 miatt:( -
#49 hehe nekem is olyanom van (de már nem sokáig] -
zoolee #48 Tyűű, nem mondod...Asztaaaa...(de minnha ezt én is tudnám...)
Csak itt az a baj, hogy sokaknak még a középkategóriás kerikra sincs pénzük, nem hogy az ilyan ~240 k s 8800 ultrára...És akkor még majd 9800 ra.....No de majd mikor a 8800 ultra lesz a közép kategória...:)))) -
Dodo55 #47 Van olyan game, ami kihasználja, az elmúlt fél évben viszonylag sok idő után ismét nagyot emelkedtek az új játékok gépigényei. -
#46 Azért mert ha nem hoznak ki új vga-t akkor nem jutnak profithoz. Ehhez pedig nem kell nagy logika.... -
zoolee #45 Ehh...
Kérdezhetek valamit?
Mi a francnak új VGA, ha még a 8800 asokra se driver nincs, se olyan game ami kihasználja. -
#44 Ugye menyire idegesítő ,ha az ember vesz egy új gépet és egy régebbi játék szaggat. Nálam is ez a helyzet, pedig monitorostúl 640K-t ebben az évben gépre ráköltöttem... -
#43 szvsz nem erősebb VGA kell ide, hanem normális programozó....