Egy évig húzhatja a GeForce 9 sorozat
Jelentkezz be a hozzászóláshoz.
Ígyvan, és minden dx10-es játék hazugság, ami nvidia kártyán nem gyök2 fps-el megy. Miért? Mert a dx10-hez és az sm4-hez hozzátartozik a geometry shader használata, amivel az nvidia kártyák kártyák olyan sebességgel dolgoznak, mint bármilyen shaderrel az integrált videokártyák... ergo borzalmasan fos sebességgel. De nem olyan szörnyû, az fps nv-ken, tehát nem használnak dx10-et, max valami 9 és felet.
De vannak itt okos emberek... á minek a gyorsabb, egyszerûbb kód, minek az optimalizálás, persze megyünk venni a bótba 100k-ért az új dzsíforszot, mer van ám pénz ilyenkor, különben meg megy a sírás, hogy nincs...
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Nekem ugye nincs csúcsgépem (4000+ S939, 2GB Ram és X1950GT Atitól). Na, ha a textúraszûrésnél eddig mindig a Billineart használtam (régebben is GF 4 MX 440-en). DE amikor felvettem TRillinearra, akkor sokkal jobban futott. NEm hazudok, sokkal! MEgnéztem öcsém 6600GT-jén és már ott is elõjött ez. Miért? Mert arra van optimalizálva. Ma a játékok 1280*1024 felbontásra vannak optimalizálva. Unokatesóm én ajánlásomra lecserélte a sima 6600-asát (mely egy kalap szar) 2600XT-re és csodálkozottt hogy szaggatnak a cuccok 1024-ben. Mondom tegye fel 1280-ba és jobban fog futni. Nem vágta, megcsinálta és jobban futott (Unreal 3 grafmotor). Arra van optimalizálva. És ezéet is futak jobban konzolon a játékok, mert ott is egy felbontásra tolják õket. Most a HD miatt tolhatnák többre is, de ott is egyet vesznek alapul. Én legalábbis így tudom.
Ráadásként DX 10.1-ben függvényoptimizáció is van, ezáltal kevesebb ciklusból oldja meg a feladatot, ami jó. De a DX 10-DX 10.1 nem nekünk jelent felüdülést, hanem a programozóknak. Mivel egy csomó segítséget nyújt. A lényege annyi lenne, hogy DX 9ben kötött az, hogy mennyi poligonból álló kép jelenhet meg. Na a DX 10 ezt megsokszorozza. Tehát nem kell vacakolni, hogy kevesebb poligonból, de több fõs szörnyeket jelenítsünk meg, vagy fordítva. Részletgazdagabb képep kapunk, de amit mutattak képet (MS Flight Simulator) az hazugság, ezt be is ismerték.
Örökzöld sláger lett a \"Hol a Start-menü?\", melyet a mai, informatikában dolgozó, az adófizetõk pénzén kiképzett, magukat értelmiségnek nevezõ emberek költöttek. Ennyi konzervatív f@szt...
\"The voices are back... Excellent.\"
tehát jogos-e egyáltalán a felháborodás, hogy nincs benne pár optimalizált kóddarab a kártyában, ha egyszer mondjuk nem olyan jelentõs a különbség?
elolvastam a wikipedián a directX10-10.1 részeket és olyasmik vannak említve plusszként a 10.1-nél, hogy kötelezõen 32bites lebegõpontos filtering, kötelezõen 32bites élsimítás és shader model 4.1. -> elolvasva a shader model 4.0-ról a bejegyzéseket, már ott is tulajdonképpen majdnem szabadon, vagy igen széles határokon belül mozoghatott a programozó a 3.0-hoz képest (létezhet-e, hogy akinek nem elég mindez, az lehet nem tud programozni?). ergó mivel nem 5.0-ának nevezik, hanem csak a 4.0 egy frissebb változatának, így elõfordulhat, hogy ugyanúgy megoldható a 4.0ással is minden mint a 4.1essel. - valamint ati/amd-hez viszonyítva elég jól állnak az erõviszonyokat figyelembe véve.
tehát ha így vesszük, akkor logikus, hogy nvidia nem akarja mondjuk áttervezni a fél chipet, mikor õk mondjuk elég közel vannak a tûzhöz és tudják, hogy mi történik a chipen belül. lefuttattak millió+1 tesztkódsort
valamint tudják, hogy minden erõforrásukra szükség lesz, mert a közeljövõben áttérünk a cpu-ba integrált grafikára, õk csak gpu-t gyártanak, lemaradhtanak, kiszorulhatnak, minél gyorsabb a fejlõdés annál gyorsabban szorulhatnak ki a piacról, etc.. érthetõ, bár felhasználói oldalról elítélendõ a dologhoz való hozzáállásuk.
végigolvasva a hozzászólásom, lehet elég ködös. összegezve: megéri-e ennyire sápítozni a 10.EGY hiánya miatt, ha ennek ellenére a valós alkalmazásokban a csak 10.0-ás kártyáik jól teljesítenek?
\"The voices are back... Excellent.\"
Ez csak akkor fog megtortenni, ha vegre felhagynak az elavult konzolok (ps3, xbox360) tamogatasaval es csak vista-ra es ati kartyara hozzak ki a jatekokat. Egy jo ideig erre valoszinuleg nem lehet szamitani. Addig meg mindent dx9-re fognak optimalizalni.
Ergo dx10-el bukod majd az elsimitast, hogy elvezhetoen jatszhass (tehát ne szaggasson...)
Örökzöld sláger lett a \"Hol a Start-menü?\", melyet a mai, informatikában dolgozó, az adófizetõk pénzén kiképzett, magukat értelmiségnek nevezõ emberek költöttek. Ennyi konzervatív f@szt...
http://www.thocp.net/slideshow/take_a_tour.htm<#felkialtas>#felkialtas>
\"The voices are back... Excellent.\"
Örökzöld sláger lett a \"Hol a Start-menü?\", melyet a mai, informatikában dolgozó, az adófizetõk pénzén kiképzett, magukat értelmiségnek nevezõ emberek költöttek. Ennyi konzervatív f@szt...
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
ilyen feltételek mellett nem éri meg... ez az egész nem tetszik.. ..-ohh.. már látom a fényt az alagút végén!.. -te h*lye.. az csak a vonat!...
és nvidia vissza él a hatalmával pár hír jött arról hogy a programozókat lefizette hogy ne használják ki az ati kártyák plusz tudását.Ez szemétség ha mindig eljátssza ezt soha nem fog fejlõdni a játékok grafikája.
Le az<#violent>#violent> nvidiával!!!<#levele>#levele><#gunyos1>#gunyos1><#gonosz2>#gonosz2>
A gf8800-as ota ugyanolyan az architektura, csak a shader es a memoriakezelo egysegek szamat varialjak. Gyakorlatilag a gf8-as gf9-es es gfx-es :-) szeria egy csaladhoz tartozik, tudasuk is teljesen egyforma. (egyik sem dx10.1-es)
Manapsag mar csak ket architekturara (ez azok amd-s megfeleloire) kell optimalizalni: a gf7-es sorozatra (dx9), mert a konzolokhoz az kell, es a gf8-as sorozatra (dx10), mert van par vistas jatekos is. A legtobb fejleszto ez utobbit kihagyja es a jatek csak dx9-ben megy rendesen es dx10 alatt nem hasznalnak semmilyen uj feature-t. Manapsag az osszes multiplatformos jateknak el kell futnia egy gf7-esen is, kulonben nem lehetne eladni oket. A pc exkluziv jatekoknak pedig eleg kell legyen egy gf8800-as is. Innentol meg turelmesen varjuk a dx10.1-es nvidia kartyakat...
1. Éppen arról van szó, hogy nem váltják le a 9-es szériát még jó ideig. Az nyáron megjelenõ 200-asok nem a helyükre lépnek, hanem föléjük, mint új szupercsúcs.
2. Már a 9-es sem volt túlzottan újdonság a 8-ashoz képest, lényegében ugyanaz, csak kisebb csíkszélességen. (Még a neveik is keverednek, lásd cikk.)
Most komolyan a 9-es széria is újdonság volt most 2008 TAVASSZAL(!) eszerint a cikk szerint: http://www.sg.hu/cikkek/58419/nvidia_osszeallt_a_9_generacio és erre már most júniusban jön a next gen! Ha ilyen ütemben van fejlõdés valóban búcsút lehet mondani a PC-s játékiparnak mer ember legyen a talpán az a programozó aki ennyi cuccra tud optimalizálni... vagy ennyire szar a Gef 9 h már most lekell váltani?
Ezt a részt inkább így kellett volna írni, egyezve a többivel: "amely 55 nanométeres változatban egészen 2009 közepéig kitarthat".
Magyarán az van, hogy a GTX 2x0 gyártása túl drága mulatság (és a nagyobb teljesítményen kívül úgysem hoz más újítást).