Gyurkity Péter

Részletek az nVidia új sorozatáról

Azt már tudtuk, hogy az nVidia egészen pontosan két új grafikus kártyával alapozná meg a GeForce 9 családot követő generációt. A GeForce GTX 280 és GTX 260 fontos részleteiről most érkeztek hírek.

Eszerint a GeForce GTX 280 a D10U-30 jelzésű chipre, a GTX 260 pedig annak D10U-20 jelzésű, némileg lebutított változatára épül. Előbbi a vezérlő minden funkcióját elérhetővé teszi majd a felhasználók számára, és összesen 240 egyesített stream processzorával a család zászlóshajójának szerepét tölti be. Az nVidia szerint ráadásul ezek a második generációs egységek csaknem 50 százalékkal jobban teljesítenek, mint egy sorozattal korábban megjelent elődeik.

A két variáns közötti fő különbséget természetesen itt találjuk majd, hiszen a GTX 260 esetében 48 stream processzort letiltanak, és míg a GTX 280-nál 512 bites interfész felel az 1 GB GDDR3 memória vezérléséért, a kisebb testvérnél 448 bites busz végzi ugyanezen feladatot, egészen pontosan 896 MB memóriával társulva. A két új fejlesztés minden más tekintetben megegyezik a GeForce 9800 GTX által kínáltakkal: PCI-Express 2.0, OpenGL 2.1, illetve PureVideoHD-támogatás, az SLI esetében pedig elérhetővé válik a háromutas megoldás, vagyis további két grafikus kártyával egészíthetjük ki az első példányt.




Érdekesség, hogy az AMD által tervezett Radeon HD 4000-es sorozat tagjaival ellentétben, az új GeForce erőművek nem támogatják majd a DirectX 10.1 technológiát, megmaradnak a 10-es verziónál. Ugyanígy a jól bevált GDDR3 memóriára támaszkodnak, miközben a rivális már a GDDR5 bevezetésének gondolatával kacérkodik, nyilván abban reménykedve, hogy ezzel számottevő előnyre tehet szert és a döntés előnyei a kártyák teljesítményén is meglátszanak majd. Megjelenik viszont a PhysX-támogatás, bár erről a cég egyelőre nem árult el részleteket, így a pontos adatokról és várható előnyökről a legtöbben csak találgatnak.

Időközben egyes kínai oldalakon néhány kép is megjelent az új kártyákról. A hivatalos megjelenési dátum június 18.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • RecoPhile #56
    féltégla :D
  • A1274815 #55
    "Ezen kívül, nem csak DirectX van a világon -- OpenGL alól is ki lehet használni az új fícsöröket."

    Ez így van és én jobban is szertem használni, mint a DX-eket. Az már csak extra érdekesség, hogy ha DX10-es feature-öket használsz OpenGL-ből Vista latt gyorsabb, mintha XP alatt, legalább is ezek az eddigi tapasztalataim.
  • A1274815 #54
    "Ó a régi szép idők, a jó kis Vendor Specific Caps bitek."

    Ez nem az volt, itt egyszerűen a shader túl sok textúra indirectciót használt, vagy az ATI kártya számára helytelen sorrendben kezelt valamit, de nem egyszer előfordúlt, hogy túl léptem az ATI 128 utasítás limitjét, ami 96 arrimetikai és 32 textúra címző utasítást jelent bővebben.
  • A1274815 #53
    "Inkább így "Hát azért SM3 nélkül csomó mindent nem akartak megcsinálni.". Pl HDR-ből is volt normális, sm2-es egy elég népszerű játékban, és egy másik kevésbé mainstreamben is, amit játszottam sm2-es kártyán."

    HDR-ből nem volt normális SM2.0-val:
    -nem volt FP16/FP32 blending (e nélkül próbálj meg írni, egy DOOM3/HL2 szintű játékot, mely HDR-ezik)
    -FP textúra szűrése sem volt, de ez legalább minimális teljesítmény csökkenéssel pótolható volt PS-ben.
    -Relief mapnél a height mapon keresést kell végre hajtani, flow control nélkül hogyan csinálnád?
    -Soft-shadow valóban kivitelezhető PS2.0+-on (igen ATI alatt nem lehet, max fake soft-shadowt) és azt is elvislehetelnűl lassan.
    -Displacement mappelni sem lehett.
  • dez #52
    "Kb. azonos szinten van a ket gyarto, ezert nagyjabol egyforma kartyakat gyartanak."

    Remélem, itt csak a meglévő játékokban mutatott teljesítményre gondolsz, mert mikroarchitektúrálisan eléggé különböznek.

    "Az nvidia kihozott egy uj architekturat, amit nem akar teljesen atalakitani es megtoldani egy hianyzo alrendszerrel (dx10.1-es programozhato texturaszures)."

    A GS végrehajtásuk sebességét sem teszik a helyére, ami pedig csak dx10.

    "Ha az nvidia kihozna egy 10.1-es kartyat, akkor kenytelen lenne megfelelzni a teljesitmenyt, amitol ugyan kompatibilis lenne, de sokkal lassabb is mint az amd."

    Ez is a mikroarchitektúrális különbség miatt van.

    "Egyebkent meg minek eroltessek magukat? Az osszes konzol dx9-es, az osszes win2k-s es winxp-s gep dx9-es."

    Valami szokásosan a vakfoltodra esik: a PS3-ban van egy Cell is, ami itt átveheti a GS végrehajtást.

    Továbbá ott van a Physix is, ami úgy tűnik, GF-eken ezentúl pixel shader alapon fog működni (mivel ugye azt írják, az összes CUDA-kompatibilis kártyán működik majd, ezek szerint G8x-on is), PS3-on meg szintén a Cell számolja (a Sony már régen licencelte a Physixot). Namost ez az ATI chipjein is elfutna, talán jobban is, mint a GF-eken, de kérdéses, hogy kap-e az ATI licencet, miután az Nvidia kezébe került a dolog.

    Ezen kívül, nem csak DirectX van a világon -- OpenGL alól is ki lehet használni az új fícsöröket. Ha még egy ideig így marad a helyzet a Vistával, akkor valószínűsíthetően növekedik majd az OpenGL-es játékok aránya.
  • Abu85 #51
    "Azzal meg nagyon tele volt a t*, amikor a egy 2.0-as PS futott a Geforce FX 5700-en és nem akart ATI Radeon X800 XT-én futni."

    Ó a régi szép idők, a jó kis Vendor Specific Caps bitek. Szerencsére ez Dx10 alatt nem fordulhat elő.
  • Sanyix #50
    "Hát azért SM3 nélkül csomó mindent nem tudtál megcsinálni."
    Inkább így "Hát azért SM3 nélkül csomó mindent nem akartak megcsinálni.". Pl HDR-ből is volt normális, sm2-es egy elég népszerű játékban, és egy másik kevésbé mainstreamben is, amit játszottam sm2-es kártyán. A többinél meg leszarták, mint ahogy az optimalizálást is szokták.
  • A1274815 #49
    Hát azért SM3 nélkül csomó mindent nem tudtál megcsinálni: soft-shadow, dynamic-ambien occlusion, relief mapping/ambient-prallax occlusion, notrmális HDR, variance shadowmapping.

    Azzal meg nagyon tele volt a t*, amikor a egy 2.0-as PS futott a Geforce FX 5700-en és nem akart ATI Radeon X800 XT-én futni.
  • M0RN1NGST4R #48
    igen, csak most az a divat, hogy szidjuk az nvidiat. akkor meg más volt :D
  • Sanyix #47
    Hát azért az sm3 közel sem volt ekkora lépés.