A legújabb pletykák szerint még az idén robbantani szeretne mindkét grafikus chipgyártó: az Nvidia G80 júniusban, míg az ATI R600 kódjelű, következő generációs processzora valamikor az év vége előtt jelenik meg.
A kétségbe vonható hír a VR-Zone oldaláról származik, amely tegnap számolt be legfrissebb értesüléseiről. Írásukban azt állítják, hogy az Nvidia G80 jelzésű grafikus chipje meglehetősen korán, már a júniusi Computex kiállításon bemutatkozhat, míg a nagy vetélytárs ATI némileg lemaradva, az év vége felé követi példájukat, az R600 kódjelű fejlesztésükkel. Igaz, a lemaradásért ismét gyártástechnológiai fejlesztésekkel igyekeznek kárpótolni bennünket, és a csíkszélességet illetően - amennyiben igaz a hír - újabb előrelépésre készülnek.
A lap szerint a már javában készülő G80 a TSMC 80 nanométeres gyártósorán készül, az Nvidia tehát végre bevállalta a nagyobb ugrást, amit a GeForce 7800 GTX esetében még elkerültek. Ezen állításukat a TSMC nemrég tett bejelentésére alapozzák, amelyből kiderül, hogy főbb támogatóik között ott van az Nvidia is, amely a beígért 19 százalékos méretcsökkenés előnyeire áhítozik. A G80, illetve az erre épülő kártyák az egyesített shadermegoldásra épülnek, az órajelet illetően az 1-2,5 GHz-es párosítás valószínű, és számíthatunk a DirectX 10, WGF 2.0 és Shader Model 4.0 támogatására.
Időskálán a GPU mérete és a tranzisztorok száma - klikk a nagyobb képekhez
Az Nvidiához kapcsolódó hír, hogy a korábbi kijelentésekkel ellentétben a GeForce 7 család néhány tagja mégis megjelenik AGP-s változatban. A GeForce 7800 GS-ről már elérhető egy korai teszt, amelyen a kártya a Radeon X850 XT-vel mérte össze erejét. Ebben egész jól szerepelt, bár komoly előnyre csak túlhúzva, illetve shadergazdag környezetben jutott. A régebbi alaplapok tulajdonosainak azonban mindenképpen jó hír, hogy nem kell teljesen lemondaniuk a jelenlegi generációról.
Ami a vetélytársat illeti, itt sem kell lemondanunk az újdonságokról, bár erre minden valószínűség szerint az év végéig - vagy még tovább - kell majd várnunk. Addigra készül el ugyanis a szintén következő generációs R600 kódjelű chip, ami állítólag már 65 nanométeres csíkszélességgel készül. A lap információi szerint a technikai paraméterek nagyjából megfelelnek a tavaly nyáron kiszivárgott részleteknek: a chip, illetve az erre épülő kártyák 64 egyesített shader futószalagot, a 800 MHz-es magórajelet, valamint 256 bites vezérlőre támaszkodó 512 MB, 1,8 GHz-es Samsung GDDR4 memóriát tartalmaznak.
""De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerõsebb konfigon is akadjon."
Akkor mirõl is beszélünk??"
Ez mindenki felõl elvárás, nem a GPU gyártók erõltetik. De ez csak a csúcs FPS-ekre vonatkozik, mint pl. DooM3 meg UT.
"De manapság ez terheli legjobban a GPU-t, és talán ebbõl a legkönnyebb visszavenni utólag."
Nem feltétlenül. Épp nemrég fejeztünk be egy projektet, és az utolsó fázis az optimalizáció volt. Szóval van tapasztalatom, hogy min múlik a dolog. A shader-eken szinte csak annyit kellett optimalizálni, hogy ne játék közben fordítsa õket. A grafikán leginkább azt kellett optimalizálni, hogy mit mikor renderelünk, meg egy csomó más dolog volt, ami a látványt nem befolyásolja, csak egyszerûen nem hatékonyan volt megoldva valami (pl. egy 10 pixeles modellen 2048-as textúra).
"Ez is történik többnyire."
A csúcs FPS-eket leszámítva a legtöbb játék vígan elmegy belépõ szintû kártyákon is, legfeljebb vissza kell venni a grafikából. Pl. nélunk X700 meg 6600 van a fejlesztõk gépében, és ezeken fullos grafikával megy minden, még a debug verzió is tûrhetõen fut.
"Na de milyen sebességgel...!? Vagy ha úgy érted, jól menjen, akkor egyik szavaddal ütöd a másikat."
Ezt nem értem.
"Igen, ezt már hallottuk. De nem feltétlenül hisszük. Pl. milyen sebességgel megy nálad az, ami egy 7800-on is max. 30-40fps-sel megy (1280x1024-ben)."
Mint mondtam: a többség jól megy. Nem sok olyan játék van, ami egy 7800-at megfog. Meg bármikor lejjebb lehet venni a grafikát.
"De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerõsebb konfigon is akadjon."
Akkor mirõl is beszélünk?? :D
"Nem csak ezen múlik. Elég sok tényezõtõl függ a sebesség."
Nyilván. De manapság ez terheli legjobban a GPU-t, és talán ebbõl a legkönnyebb visszavenni utólag.
"Ez is történik többnyire."
Nem éppen.
"A játékfejlesztést elsõsorban a kiadó fizeti, neki meg az az érdeke, hogy minél több gépen menjen a cuccos."
Na de milyen sebességgel...!? Vagy ha úgy érted, jól menjen, akkor egyik szavaddal ütöd a másikat.
"Egyébként a tapasztalat is ellened szól, mert az én õsrégi R9700-am vígan elvisz majdnem minden új játékot, közepes, vagy akár max. grafikával (Az OpenGL-esek kivételek)."
Igen, ezt már hallottuk. De nem feltétlenül hisszük. Pl. milyen sebességgel megy nálad az, ami egy 7800-on is max. 30-40fps-sel megy (1280x1024-ben).
"Nam. A kiadók érdeke az, hogy minél olcsóbban kihozzanak valamit, amit minél többen megvesznek. A játékélménynek ehhez sajnos kevés köze van."
A jobb (ez persze relatív) játékoknak áruk is van.
hehehe, Kovácsúr megmondta, hogy AGP az isten és 2 AGP egy PCI-E-t ér, szóval egy ideig nincs gáz.
Srécek tök okosak vagytok, meg minden, de a legmenõbb akkor is a CS és a WOW. A többi csak füst. Nézétek már meg a Valve illetve a Blizzard éves jelentését. (Na jü, a Cs-t lehet, hogy a Valve csak fejlesztette, tessék gúglázni)
"Na persze, biztos csak arról van szó, hogy pár fejlesztõ önfejûen villogni akar. Biztos nem b@szná le a projektvezetõ/cégvezetõ/stb., ha... folyt. lásd alább."
Nem elsõsorban a fejlesztõk. Leginkább a kiadó szokott látványosabb játékot akarni. De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerõsebb konfigon is akadjon.
"Ez már hihetõbb, de pl. egy-egy nem-túl-rosszul megírt shaderen nem lehet már olyan sokat optimizálni. Viszont kicsit csökkenteni a számukat nem lenne nagy ügy."
Nem csak ezen múlik. Elég sok tényezõtõl függ a sebesség.
"Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak."
Ez is történik többnyire. Csak elavult hardverrel nem foglalkoznak, mint pl. most a GeF4.
"Nos te nem lehetsz túl magas pozicióban, mert különben tudnád, hogy több módja is van a befolyásolásnak: támogatás (HW és/vagy anyagi), reklámozás, egy kis zsebpénz a managerek zsebecskéjébe. :)"
A játékfejlesztést elsõsorban a kiadó fizeti, neki meg az az érdeke, hogy minél több gépen menjen a cuccos. ÉS ha egy fejlesztõ cég nem felel meg a kiadók érdekeinek, akkor tönkre fog menni villámgyorsan.
Egyébként a tapasztalat is ellened szól, mert az én õsrégi R9700-am vígan elvisz majdnem minden új játékot, közepes, vagy akár max. grafikával (Az OpenGL-esek kivételek).
"De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van."
Nam. A kiadók érdeke az, hogy minél olcsóbban kihozzanak valamit, amit minél többen megvesznek. A játékélménynek ehhez sajnos kevés köze van.
Nézd, lehet nézni az éremnek csak az egyik oldalát, vagy csak a másikat. De valójában mindkét oldalon van valami, szerintem ez nem kérdés. Az OFP nem a legjobb példa erre, mert ott már extremitásokról van szó, nem csak egyszerûen arról, hogy a fullos, úgy mint hiánytalan grafika (mégcsak nem is aa+af-fel) néha as low as 15 fps-ekkel megy az aktuális csúcskártyán. De még ha 30-cal megy (átlagban, ami adott esetben 10), az sem túl sok. És az átlagos kártyákon csak ilyen 800x600-ban megy értelmes sebességgel, butított grafikával. Azaz erõs túlméretezésrõl van szó. Ne mondja senki, hogy ebben nincs benne az állandó hw-upgrade stimulálása, azaz egy százmilliós üzlet életbentartása. Ez nem minden szempontból rossz, mert fejlõdés van, csak már kezdik túlzásba vinni. És emiatt egyre több felhasználó zúgolódik, mert állandó hiányérzete van.
Most kérdezhetnéd, hogy akkor ne csináljanak egyre jobban kinézõ jétékokat? Én erre azt felelném, hogy az újabb kártyák az alap dolgokban is sokkal gyorsabbak, és többnyire az új featúrékat is megfelelõ sebességgel tudják (persze van 1-2 kivétel). Tehát lenne tere a látványosság növelésének. De ez az olyan szintû túlméretezés, hogy valami még a köv. csúcskártyán sem fut igazán jól, ez már túlzás.
Szerintem részben ezért fordulnak el sokan a PC-tõl, a konzolok felé. Persze a chipgyártók ott is ott vannak, nekik ez kisebb veszteség...
Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak. Mégsem ezt teszik...
Az átlag gépeken jól fusson, még ha nem is a legmagasabb beállításokkal - ez szerintem inkább a fejlesztõk célja. Vannak korlátai annak, hogy mit lehet kihozni egy videókártyából, és a vásárlók, a felhasználók is egyre szebb és szebb grafikát várnak el. A szebb grafika viszont leginkább az új hardvereken megvalósítható, tehát értelemszerûen a legmagasabb grafikai beállításokat a legújabb videókártyákhoz mérik.
Felmerült, hogy még a csúcs hardveren sem mindig fut legmagasabb részletesség mellett a játék megfelelõ sebességgel. Mintapélda erre az OFP - be lehetett rajta állítani elõször az 3, majd az 5km-es látótávolságot. Persze gép nem volt akkoriban, ami élvezhetõ sebességgel meg tudta volna mozdítani azt a grafikát. Ugyanígy a textúratámogatás is adott volt, egészen 2048x2048-as méretig - akkor, amikor az átlag videókártyákon 32Mbyte ram volt. Értelemszerû, hogy ez túlzás volt. Ettõl függetlenül volt benne egy ilyen lehetõség, és a felhasználókra bízták, hogy ki-e használják.
kkor lehet, hogy nem is a fejlesztõk nem is kapnak semmit, hanem a kiadók? :) De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van.
Valamit ne felejts el: a felhasználók is generálnak elvárásokat. Egyre szebb és szebb grafikát akarnak látni. Ha egy fejlesztõcsapat kihoz egy amúgy középszerû játékot, amely viszont brutálisan jó grafikával van megverve, még ha teljes részletességéhez egy elég jó kártya is kell, akkor mindenki azt fogja ezután etalonnak tekinteni, és egyeláltalán arról fog mindenki beszélni. Erre tökéletes példa a FarCry.
"Vannak akik azzal villognak, hogy a legújabb csúcs kártyát is meg tudják fogni."
Na persze, biztos csak arról van szó, hogy pár fejlesztõ önfejûen villogni akar. Biztos nem b@szná le a projektvezetõ/cégvezetõ/stb., ha... folyt. lásd alább.
"Vagy egyszerûen nem jut idõ az optimalizációra, és inkább kiadják félkészen a játékot."
Ez már hihetõbb, de pl. egy-egy nem-túl-rosszul megírt shaderen nem lehet már olyan sokat optimizálni. Viszont kicsit csökkenteni a számukat nem lenne nagy ügy. Valamennyire lehet elõre kalkulálni is, hogy egy scene-en mennyi fér bele ebbõl, poligonból, stb.
"Továbbra se látom, hogy a játék készítõinek ebben hol van az üzlet."
Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak. Mégsem ezt teszik... Nos te nem lehetsz túl magas pozicióban, mert különben tudnád, hogy több módja is van a befolyásolásnak: támogatás (HW és/vagy anyagi), reklámozás, egy kis zsebpénz a managerek zsebecskéjébe. :)
"A túlzásbavivést általában a kiadók erõltetik, akik minél látványosabb játékot akarnak."
Akkor lehet, hogy nem is a fejlesztõk nem is kapnak semmit, hanem a kiadók? :) De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van.
"Érdekes módon azért mindig van egy pár új, felkapott játék, ami az aktuális csúcskártyákon sem fut igazán jól..."
Vannak akik azzal villognak, hogy a legújabb csúcs kártyát is meg tudják fogni.
Vagy egyszerûen nem jut idõ az optimalizációra, és inkább kiadják félkészen a játékot.
"Teljesen nyilvánvaló, hogy ez azért van, hogy legyen ok a rákövetkezõ kártya megvételére is."
Továbbra se látom, hogy a játék készítõinek ebben hol van az üzlet.
"Alig lehetne észrevenni a különbséget, ha ugyan használná az új képességeket, de nem vinné túlzásba azok használatát..."
A túlzásbavivést általában a kiadók erõltetik, akik minél látványosabb játékot akarnak.
Ja, és egy érdekesség. A GPU-m (gf6600) hõmérséklete erõs terheléskor felmegy 85 fokra. Nos, 3DMark06 alatt max. 75 fokra megy fel! Azaz nem is használja ki az összes rendekezésre álló powert. De azt kötve hiszem, hogy procilimites lenne...
"Még ha fizetnének is, akkor se érné meg, mert a nagyobb HW igény csökkenti az eladhatóságot."
Érdekes módon azért mindig van egy pár új, felkapott játék, ami az aktuális csúcskártyákon sem fut igazán jól... Teljesen nyilvánvaló, hogy ez azért van, hogy legyen ok a rákövetkezõ kártya megvételére is. Alig lehetne észrevenni a különbséget, ha ugyan használná az új képességeket, de nem vinné túlzásba azok használatát... Különben minek venne bárki újabb csúcskártyát? Csak azért, hogy majd ha egy évvel késõbb jön egy annak új képességeit használó játék, jó legyen?
Tehát ha nincs is teljesen igaza Sanyixnak, azért bõven van abban valami, amit ír.
"Egyébként is a legtöbb játék remekül elmegy középkategóriás kártyákon is."
A korábbiak és/vagy az új featúrák kikapcsolásával.
"A mieink pl. qrva jól néznek ki, mégis egy X700-on remekül mennek."
Talán azért nem kaptok külön támogatást a cégektõl... ;)