Gyurkity Péter

Még idén újít az Nvidia és az ATI

A legújabb pletykák szerint még az idén robbantani szeretne mindkét grafikus chipgyártó: az Nvidia G80 júniusban, míg az ATI R600 kódjelű, következő generációs processzora valamikor az év vége előtt jelenik meg.

A kétségbe vonható hír a VR-Zone oldaláról származik, amely tegnap számolt be legfrissebb értesüléseiről. Írásukban azt állítják, hogy az Nvidia G80 jelzésű grafikus chipje meglehetősen korán, már a júniusi Computex kiállításon bemutatkozhat, míg a nagy vetélytárs ATI némileg lemaradva, az év vége felé követi példájukat, az R600 kódjelű fejlesztésükkel. Igaz, a lemaradásért ismét gyártástechnológiai fejlesztésekkel igyekeznek kárpótolni bennünket, és a csíkszélességet illetően - amennyiben igaz a hír - újabb előrelépésre készülnek.

A lap szerint a már javában készülő G80 a TSMC 80 nanométeres gyártósorán készül, az Nvidia tehát végre bevállalta a nagyobb ugrást, amit a GeForce 7800 GTX esetében még elkerültek. Ezen állításukat a TSMC nemrég tett bejelentésére alapozzák, amelyből kiderül, hogy főbb támogatóik között ott van az Nvidia is, amely a beígért 19 százalékos méretcsökkenés előnyeire áhítozik. A G80, illetve az erre épülő kártyák az egyesített shadermegoldásra épülnek, az órajelet illetően az 1-2,5 GHz-es párosítás valószínű, és számíthatunk a DirectX 10, WGF 2.0 és Shader Model 4.0 támogatására.

Klikk ide! Klikk ide!
Időskálán a GPU mérete és a tranzisztorok száma - klikk a nagyobb képekhez

Az Nvidiához kapcsolódó hír, hogy a korábbi kijelentésekkel ellentétben a GeForce 7 család néhány tagja mégis megjelenik AGP-s változatban. A GeForce 7800 GS-ről már elérhető egy korai teszt, amelyen a kártya a Radeon X850 XT-vel mérte össze erejét. Ebben egész jól szerepelt, bár komoly előnyre csak túlhúzva, illetve shadergazdag környezetben jutott. A régebbi alaplapok tulajdonosainak azonban mindenképpen jó hír, hogy nem kell teljesen lemondaniuk a jelenlegi generációról.

Ami a vetélytársat illeti, itt sem kell lemondanunk az újdonságokról, bár erre minden valószínűség szerint az év végéig - vagy még tovább - kell majd várnunk. Addigra készül el ugyanis a szintén következő generációs R600 kódjelű chip, ami állítólag már 65 nanométeres csíkszélességgel készül. A lap információi szerint a technikai paraméterek nagyjából megfelelnek a tavaly nyáron kiszivárgott részleteknek: a chip, illetve az erre épülő kártyák 64 egyesített shader futószalagot, a 800 MHz-es magórajelet, valamint 256 bites vezérlőre támaszkodó 512 MB, 1,8 GHz-es Samsung GDDR4 memóriát tartalmaznak.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • BiroAndras #78
    ""De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerősebb konfigon is akadjon."
    Akkor miről is beszélünk??"

    Ez mindenki felől elvárás, nem a GPU gyártók erőltetik. De ez csak a csúcs FPS-ekre vonatkozik, mint pl. DooM3 meg UT.

    "De manapság ez terheli legjobban a GPU-t, és talán ebből a legkönnyebb visszavenni utólag."

    Nem feltétlenül. Épp nemrég fejeztünk be egy projektet, és az utolsó fázis az optimalizáció volt. Szóval van tapasztalatom, hogy min múlik a dolog. A shader-eken szinte csak annyit kellett optimalizálni, hogy ne játék közben fordítsa őket. A grafikán leginkább azt kellett optimalizálni, hogy mit mikor renderelünk, meg egy csomó más dolog volt, ami a látványt nem befolyásolja, csak egyszerűen nem hatékonyan volt megoldva valami (pl. egy 10 pixeles modellen 2048-as textúra).

    "Ez is történik többnyire."

    A csúcs FPS-eket leszámítva a legtöbb játék vígan elmegy belépő szintű kártyákon is, legfeljebb vissza kell venni a grafikából. Pl. nélunk X700 meg 6600 van a fejlesztők gépében, és ezeken fullos grafikával megy minden, még a debug verzió is tűrhetően fut.

    "Na de milyen sebességgel...!? Vagy ha úgy érted, jól menjen, akkor egyik szavaddal ütöd a másikat."

    Ezt nem értem.

    "Igen, ezt már hallottuk. De nem feltétlenül hisszük. Pl. milyen sebességgel megy nálad az, ami egy 7800-on is max. 30-40fps-sel megy (1280x1024-ben)."

    Mint mondtam: a többség jól megy. Nem sok olyan játék van, ami egy 7800-at megfog. Meg bármikor lejjebb lehet venni a grafikát.
  • dez #77
    "De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerősebb konfigon is akadjon."

    Akkor miről is beszélünk?? :D

    "Nem csak ezen múlik. Elég sok tényezőtől függ a sebesség."

    Nyilván. De manapság ez terheli legjobban a GPU-t, és talán ebből a legkönnyebb visszavenni utólag.

    "Ez is történik többnyire."

    Nem éppen.

    "A játékfejlesztést elsősorban a kiadó fizeti, neki meg az az érdeke, hogy minél több gépen menjen a cuccos."

    Na de milyen sebességgel...!? Vagy ha úgy érted, jól menjen, akkor egyik szavaddal ütöd a másikat.

    "Egyébként a tapasztalat is ellened szól, mert az én ősrégi R9700-am vígan elvisz majdnem minden új játékot, közepes, vagy akár max. grafikával (Az OpenGL-esek kivételek)."

    Igen, ezt már hallottuk. De nem feltétlenül hisszük. Pl. milyen sebességgel megy nálad az, ami egy 7800-on is max. 30-40fps-sel megy (1280x1024-ben).

    "Nam. A kiadók érdeke az, hogy minél olcsóbban kihozzanak valamit, amit minél többen megvesznek. A játékélménynek ehhez sajnos kevés köze van."

    A jobb (ez persze relatív) játékoknak áruk is van.
  • irkab1rka #76
    hehehe, Kovácsúr megmondta, hogy AGP az isten és 2 AGP egy PCI-E-t ér, szóval egy ideig nincs gáz.

    Srécek tök okosak vagytok, meg minden, de a legmenőbb akkor is a CS és a WOW. A többi csak füst. Nézétek már meg a Valve illetve a Blizzard éves jelentését. (Na jü, a Cs-t lehet, hogy a Valve csak fejlesztette, tessék gúglázni)
  • BiroAndras #75
    "Na persze, biztos csak arról van szó, hogy pár fejlesztő önfejűen villogni akar. Biztos nem b@szná le a projektvezető/cégvezető/stb., ha... folyt. lásd alább."

    Nem elsősorban a fejlesztők. Leginkább a kiadó szokott látványosabb játékot akarni. De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerősebb konfigon is akadjon.

    "Ez már hihetőbb, de pl. egy-egy nem-túl-rosszul megírt shaderen nem lehet már olyan sokat optimizálni. Viszont kicsit csökkenteni a számukat nem lenne nagy ügy."

    Nem csak ezen múlik. Elég sok tényezőtől függ a sebesség.

    "Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak."

    Ez is történik többnyire. Csak elavult hardverrel nem foglalkoznak, mint pl. most a GeF4.

    "Nos te nem lehetsz túl magas pozicióban, mert különben tudnád, hogy több módja is van a befolyásolásnak: támogatás (HW és/vagy anyagi), reklámozás, egy kis zsebpénz a managerek zsebecskéjébe. :)"

    A játékfejlesztést elsősorban a kiadó fizeti, neki meg az az érdeke, hogy minél több gépen menjen a cuccos. ÉS ha egy fejlesztő cég nem felel meg a kiadók érdekeinek, akkor tönkre fog menni villámgyorsan.
    Egyébként a tapasztalat is ellened szól, mert az én ősrégi R9700-am vígan elvisz majdnem minden új játékot, közepes, vagy akár max. grafikával (Az OpenGL-esek kivételek).

    "De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van."

    Nam. A kiadók érdeke az, hogy minél olcsóbban kihozzanak valamit, amit minél többen megvesznek. A játékélménynek ehhez sajnos kevés köze van.
  • dez #74
    Nézd, lehet nézni az éremnek csak az egyik oldalát, vagy csak a másikat. De valójában mindkét oldalon van valami, szerintem ez nem kérdés. Az OFP nem a legjobb példa erre, mert ott már extremitásokról van szó, nem csak egyszerűen arról, hogy a fullos, úgy mint hiánytalan grafika (mégcsak nem is aa+af-fel) néha as low as 15 fps-ekkel megy az aktuális csúcskártyán. De még ha 30-cal megy (átlagban, ami adott esetben 10), az sem túl sok. És az átlagos kártyákon csak ilyen 800x600-ban megy értelmes sebességgel, butított grafikával. Azaz erős túlméretezésről van szó. Ne mondja senki, hogy ebben nincs benne az állandó hw-upgrade stimulálása, azaz egy százmilliós üzlet életbentartása. Ez nem minden szempontból rossz, mert fejlődés van, csak már kezdik túlzásba vinni. És emiatt egyre több felhasználó zúgolódik, mert állandó hiányérzete van.

    Most kérdezhetnéd, hogy akkor ne csináljanak egyre jobban kinéző jétékokat? Én erre azt felelném, hogy az újabb kártyák az alap dolgokban is sokkal gyorsabbak, és többnyire az új featúrékat is megfelelő sebességgel tudják (persze van 1-2 kivétel). Tehát lenne tere a látványosság növelésének. De ez az olyan szintű túlméretezés, hogy valami még a köv. csúcskártyán sem fut igazán jól, ez már túlzás.

    Szerintem részben ezért fordulnak el sokan a PC-től, a konzolok felé. Persze a chipgyártók ott is ott vannak, nekik ez kisebb veszteség...
  • [NST]Cifu #73
    Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak. Mégsem ezt teszik...

    Az átlag gépeken jól fusson, még ha nem is a legmagasabb beállításokkal - ez szerintem inkább a fejlesztők célja. Vannak korlátai annak, hogy mit lehet kihozni egy videókártyából, és a vásárlók, a felhasználók is egyre szebb és szebb grafikát várnak el. A szebb grafika viszont leginkább az új hardvereken megvalósítható, tehát értelemszerűen a legmagasabb grafikai beállításokat a legújabb videókártyákhoz mérik.

    Felmerült, hogy még a csúcs hardveren sem mindig fut legmagasabb részletesség mellett a játék megfelelő sebességgel. Mintapélda erre az OFP - be lehetett rajta állítani először az 3, majd az 5km-es látótávolságot. Persze gép nem volt akkoriban, ami élvezhető sebességgel meg tudta volna mozdítani azt a grafikát. Ugyanígy a textúratámogatás is adott volt, egészen 2048x2048-as méretig - akkor, amikor az átlag videókártyákon 32Mbyte ram volt. Értelemszerű, hogy ez túlzás volt. Ettől függetlenül volt benne egy ilyen lehetőség, és a felhasználókra bízták, hogy ki-e használják.

    kkor lehet, hogy nem is a fejlesztők nem is kapnak semmit, hanem a kiadók? :) De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van.

    Valamit ne felejts el: a felhasználók is generálnak elvárásokat. Egyre szebb és szebb grafikát akarnak látni. Ha egy fejlesztőcsapat kihoz egy amúgy középszerű játékot, amely viszont brutálisan jó grafikával van megverve, még ha teljes részletességéhez egy elég jó kártya is kell, akkor mindenki azt fogja ezután etalonnak tekinteni, és egyeláltalán arról fog mindenki beszélni. Erre tökéletes példa a FarCry.
  • dez #72
    "Vannak akik azzal villognak, hogy a legújabb csúcs kártyát is meg tudják fogni."

    Na persze, biztos csak arról van szó, hogy pár fejlesztő önfejűen villogni akar. Biztos nem b@szná le a projektvezető/cégvezető/stb., ha... folyt. lásd alább.

    "Vagy egyszerűen nem jut idő az optimalizációra, és inkább kiadják félkészen a játékot."

    Ez már hihetőbb, de pl. egy-egy nem-túl-rosszul megírt shaderen nem lehet már olyan sokat optimizálni. Viszont kicsit csökkenteni a számukat nem lenne nagy ügy. Valamennyire lehet előre kalkulálni is, hogy egy scene-en mennyi fér bele ebből, poligonból, stb.

    "Továbbra se látom, hogy a játék készítőinek ebben hol van az üzlet."

    Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak. Mégsem ezt teszik... Nos te nem lehetsz túl magas pozicióban, mert különben tudnád, hogy több módja is van a befolyásolásnak: támogatás (HW és/vagy anyagi), reklámozás, egy kis zsebpénz a managerek zsebecskéjébe. :)

    "A túlzásbavivést általában a kiadók erőltetik, akik minél látványosabb játékot akarnak."

    Akkor lehet, hogy nem is a fejlesztők nem is kapnak semmit, hanem a kiadók? :) De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van.
  • BiroAndras #71
    "Érdekes módon azért mindig van egy pár új, felkapott játék, ami az aktuális csúcskártyákon sem fut igazán jól..."

    Vannak akik azzal villognak, hogy a legújabb csúcs kártyát is meg tudják fogni.
    Vagy egyszerűen nem jut idő az optimalizációra, és inkább kiadják félkészen a játékot.

    "Teljesen nyilvánvaló, hogy ez azért van, hogy legyen ok a rákövetkező kártya megvételére is."

    Továbbra se látom, hogy a játék készítőinek ebben hol van az üzlet.

    "Alig lehetne észrevenni a különbséget, ha ugyan használná az új képességeket, de nem vinné túlzásba azok használatát..."

    A túlzásbavivést általában a kiadók erőltetik, akik minél látványosabb játékot akarnak.
  • dez #70
    Ja, és egy érdekesség. A GPU-m (gf6600) hőmérséklete erős terheléskor felmegy 85 fokra. [Tudom, ez nem kevés, bár állítólag jápár fokot is téved a belső mérő, de hamarosan le lesz cserélve a hűtő.] Nos, 3DMark06 alatt max. 75 fokra megy fel! Azaz nem is használja ki az összes rendekezésre álló powert. De azt kötve hiszem, hogy procilimites lenne...
  • dez #69
    "Még ha fizetnének is, akkor se érné meg, mert a nagyobb HW igény csökkenti az eladhatóságot."

    Érdekes módon azért mindig van egy pár új, felkapott játék, ami az aktuális csúcskártyákon sem fut igazán jól... Teljesen nyilvánvaló, hogy ez azért van, hogy legyen ok a rákövetkező kártya megvételére is. Alig lehetne észrevenni a különbséget, ha ugyan használná az új képességeket, de nem vinné túlzásba azok használatát... Különben minek venne bárki újabb csúcskártyát? Csak azért, hogy majd ha egy évvel később jön egy annak új képességeit használó játék, jó legyen?

    Tehát ha nincs is teljesen igaza Sanyixnak, azért bőven van abban valami, amit ír.

    "Egyébként is a legtöbb játék remekül elmegy középkategóriás kártyákon is."

    A korábbiak és/vagy az új featúrák kikapcsolásával.

    "A mieink pl. qrva jól néznek ki, mégis egy X700-on remekül mennek."

    Talán azért nem kaptok külön támogatást a cégektől... ;)