Gyurkity Péter

Egy évig húzhatja a GeForce 9 sorozat

Az nVidia vezetése szerint a jelenlegi generáció tagjai még 8-12 hónapig húzhatják a piacon, ezt követően váltják majd le őket végérvényesen az új fejlesztések. A család első számú chipje ezzel 1,5 évet tölt majd aktív szolgálatban.

A cég vezetői még a hét közepén megrendezett JPMorgan Technológiai Konferencián beszéltek a piacon várható trendekről, saját terveikről és termékeik pályafutásáról. Az itt elmondottakból kiderült, hogy házon belül még 8-12 hónapot szánnak a jelenlegi generáció elsődleges tagjának, a G92 kódnevű chipnek, amely 55 nanométeres változatban is legfeljebb 2009 közepéig tarthat ki.

Ez többek között azt is jelenti, hogy a mostani zászlóshajó, a GeForce 9800 GTX 2009 májusáig lesz aktív szereplője a piacnak, ezt követően már az új generáció veszi át a stafétabotot - ez utóbbi a G200 (NV60) kódjelzésű grafikus vezérlőre épül. Ahogy arról már korábban írtunk, a soron következő két legfontosabb fejlesztés a GeForce GTX 280 és GTX 260 lesz, amelyek június közepén mutatkoznak be a nagyközönség előtt. Ezeket kifejezetten a fanatikusoknak készítik, vagyis nem túl valószínű, hogy áruk 500 dollár alatt indul.

A G92 jelenleg a következő kártyák chipjeit adja: GeForce 9600 GSO/8800GS ($119 - $160), 8800 GT 256MB ($159 - $219), 8800 GT 512MB ($199 - $279), 8800 GTS 512MB ($259 - $400), 9800 GTX ($299 - $379) és 9800 GX2 ($499 - $699). Leváltásuk egyben a kétchipes GX2 trónfosztását is jelenti majd, miközben a többiek ára jelentős mértékben csökkenni fog, amit nyilván az AMD sem hagyhat válasz nélkül. Ebben a gyártástechnológiai váltás is szerepet játszhat, hiszen az 55 nanométeres variáns (G92b) elkészítése olcsóbb lesz.

Szakértők szerint nagy kérdés, hogy a GeForce 200 és a Radeon HD 4000 sorozat megérkezésével a mostani generációkat pontosan hova is sorolja majd be a két rivális. Pontos teljesítménybeli adatok híján ezt egyelőre nem lehet megjósolni.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Sanyix #34
    "Részletgazdagabb képep kapunk, de amit mutattak képet (MS Flight Simulator) az hazugság, ezt be is ismerték."

    Ígyvan, és minden dx10-es játék hazugság, ami nvidia kártyán nem gyök2 fps-el megy. Miért? Mert a dx10-hez és az sm4-hez hozzátartozik a geometry shader használata, amivel az nvidia kártyák kártyák olyan sebességgel dolgoznak, mint bármilyen shaderrel az integrált videokártyák... ergo borzalmasan fos sebességgel. De nem olyan szörnyű, az fps nv-ken, tehát nem használnak dx10-et, max valami 9 és felet.

    De vannak itt okos emberek... á minek a gyorsabb, egyszerűbb kód, minek az optimalizálás, persze megyünk venni a bótba 100k-ért az új dzsíforszot, mer van ám pénz ilyenkor, különben meg megy a sírás, hogy nincs...
  • tomcsa4 #33
    Tévedsz, mert élsimítást ha tetszik, ha nem kötelezővé teszik. Na ármost tölts be egy Assassint GF 8800GT-n és HD 3870-en élsimítással. Meglátod, utóbbi megeszi az előbbit vacsorára. És most kérlek ne gyertek avval, hoy "max nem kapcsolom be", mint mondottam közelező, ráadásul ha arra van optimalizálva, akkor azt kell használni. Miért kell azt használni? Jogos a kérdés, erre egy saját tapasztalatot hadd írjak:

    Nekem ugye nincs csúcsgépem (4000+ S939, 2GB Ram és X1950GT Atitól). Na, ha a textúraszűrésnél eddig mindig a Billineart használtam (régebben is GF 4 MX 440-en). DE amikor felvettem TRillinearra, akkor sokkal jobban futott. NEm hazudok, sokkal! MEgnéztem öcsém 6600GT-jén és már ott is előjött ez. Miért? Mert arra van optimalizálva. Ma a játékok 1280*1024 felbontásra vannak optimalizálva. Unokatesóm én ajánlásomra lecserélte a sima 6600-asát (mely egy kalap szar) 2600XT-re és csodálkozottt hogy szaggatnak a cuccok 1024-ben. Mondom tegye fel 1280-ba és jobban fog futni. Nem vágta, megcsinálta és jobban futott (Unreal 3 grafmotor). Arra van optimalizálva. És ezéet is futak jobban konzolon a játékok, mert ott is egy felbontásra tolják őket. Most a HD miatt tolhatnák többre is, de ott is egyet vesznek alapul. Én legalábbis így tudom.

    Ráadásként DX 10.1-ben függvényoptimizáció is van, ezáltal kevesebb ciklusból oldja meg a feladatot, ami jó. De a DX 10-DX 10.1 nem nekünk jelent felüdülést, hanem a programozóknak. Mivel egy csomó segítséget nyújt. A lényege annyi lenne, hogy DX 9ben kötött az, hogy mennyi poligonból álló kép jelenhet meg. Na a DX 10 ezt megsokszorozza. Tehát nem kell vacakolni, hogy kevesebb poligonból, de több fős szörnyeket jelenítsünk meg, vagy fordítva. Részletgazdagabb képep kapunk, de amit mutattak képet (MS Flight Simulator) az hazugság, ezt be is ismerték.

  • dez #32
    Papíron igen, gyakorlatban meg nem. A jelenlegi GF-ek is csak papíron támogatják a DX10 egy nem elhanyagolható (izé, a játékfejlesztők mégis ezt teszik, Nvidia behatásra) részét (GM, stb.), a DX10.1 viszont megköveteli ezen részek rendes támogatását is.
  • waterman #31
    én meg merném kockáztatni, hogy az ati/amd oldaláról masszívan kapaszkodnak a 10.1 amúgy aprócska hiányába és ezzel nagy felhasználói visszhangot keltenek. amiért most mi is itt lefutjuk a magunk kis köreit.
  • dez #30
    Van olyan, hogy 2-3 codepath van.
  • waterman #29
    ez amit írsz, tök trivi - tehát hogy ugyan minek fejlesztenék béta állapotú directX verzióra. engem az érdekelne, hogy a directX10 és 10.1 között milyen különbségek jelennek meg, ha például megírom 10.1-re, de egy 10.0-ás kártya hajtja meg a dolgot. én arra következtetek, hogy max kicsit lassabb lesz, vagy urambocsá nem olyan szép itt ott (de múúkodik!). tehát 10.x a verzió, el kell, hogy indítsa a 10.1-re írt játékot a 10.0-ás kártya, ellenkező esetben nem lehetne 10.akárhányasnak nevezni mindkettőt. erre valók a megkülönböztetett verziók.
    tehát jogos-e egyáltalán a felháborodás, hogy nincs benne pár optimalizált kóddarab a kártyában, ha egyszer mondjuk nem olyan jelentős a különbség?
    elolvastam a wikipedián a directX10-10.1 részeket és olyasmik vannak említve plusszként a 10.1-nél, hogy kötelezően 32bites lebegőpontos filtering, kötelezően 32bites élsimítás és shader model 4.1. -> elolvasva a shader model 4.0-ról a bejegyzéseket, már ott is tulajdonképpen majdnem szabadon, vagy igen széles határokon belül mozoghatott a programozó a 3.0-hoz képest (létezhet-e, hogy akinek nem elég mindez, az lehet nem tud programozni?). ergó mivel nem 5.0-ának nevezik, hanem csak a 4.0 egy frissebb változatának, így előfordulhat, hogy ugyanúgy megoldható a 4.0ással is minden mint a 4.1essel. - valamint ati/amd-hez viszonyítva elég jól állnak az erőviszonyokat figyelembe véve.
    tehát ha így vesszük, akkor logikus, hogy nvidia nem akarja mondjuk áttervezni a fél chipet, mikor ők mondjuk elég közel vannak a tűzhöz és tudják, hogy mi történik a chipen belül. lefuttattak millió+1 tesztkódsort[múúkodott], hamis, false kódokat is, hogy mennyire hibatűrő, elkezdték legyártani úgy a chipeket[10.0], aztán valaki beordított a köztudatba, hogy nekem kell még az a 0.1-nyi directX és "akarom!" és "Kell! a dx10.1, mert anélkül nem megy 0,74 fps-sel jobban a crysis!" bla.. tehát mennyire a marketing miatt hisszük, hogy kell nekünk a 10.1? ide nekem egy képet, egy fps adatot, ahol >szignifikáns<, illetve a játékélményt romboló hatása van a 10.1 hiányának. tehát az hogy 14 fps helyett 14,9-cel megy valami az nem szignifikáns, mert mindekettő sz*r.
    valamint tudják, hogy minden erőforrásukra szükség lesz, mert a közeljövőben áttérünk a cpu-ba integrált grafikára, ők csak gpu-t gyártanak, lemaradhtanak, kiszorulhatnak, minél gyorsabb a fejlődés annál gyorsabban szorulhatnak ki a piacról, etc.. érthető, bár felhasználói oldalról elítélendő a dologhoz való hozzáállásuk.
    végigolvasva a hozzászólásom, lehet elég ködös. összegezve: megéri-e ennyire sápítozni a 10.EGY hiánya miatt, ha ennek ellenére a valós alkalmazásokban a csak 10.0-ás kártyáik jól teljesítenek?
  • kvp #28
    "majd fogsz te meg sirni ha valoban 10.1-re lesznek fejlesztve a jatekok,"

    Ez csak akkor fog megtortenni, ha vegre felhagynak az elavult konzolok (ps3, xbox360) tamogatasaval es csak vista-ra es ati kartyara hozzak ki a jatekokat. Egy jo ideig erre valoszinuleg nem lehet szamitani. Addig meg mindent dx9-re fognak optimalizalni.
  • Gabesz84 #27
    majd fogsz te meg sirni ha valoban 10.1-re lesznek fejlesztve a jatekok, mert AA-t azt kb 2x gyorsabban vegzi el 10.1-es modban a kartya mint sima 10-es modban.
    Ergo dx10-el bukod majd az elsimitast, hogy elvezhetoen jatszhass (tehát ne szaggasson...)
  • Gabest #26
    Minimális újdonságok vannak a 10.1-ben. Semmi olyan ami nélkül nem lehet élni.
  • tomcsa4 #25
    Nem hiába van kevés DX 10-es játék, ha béta. Ott a DX 10.1. Amikor kijött a DX 9.c, akkor se optimizáltak DX 9.b-re. Más fórumokon is olvasok hasonlókat, nem tudom. Én se vagyok programozó, de nem hiszem, hogy ha MS mondja, béta a DX 10 és van DX 10.1, akkor ki az a hülye, igénytelen, aki DX 10-re fejleszt (jó tudom megválaszoljátok: nvidia). Tényleg nvidia. Ez olyan, mint a Radeon Xxxx sorozat SM 3.0 hiánya, csak most fordítva.