Nem lesz PlayStation 4?
Jelentkezz be a hozzászóláshoz.
Ejj, ne csak beszélj, hanem olvass is. Épp az alábbiakban számolgattam, mennyi is lehet az az annyi. Nem olyan kevés. Ha pl. ötöde, az is -10fps.
"Nem lehet elvakult, mivel õ hozott a céghez is sok 6600-at, csak szép lassan kicserélõdött mind X700-ra a sorozatos elhalálozások miatt."
Nem véletlenül Inno3D volt (legendásan szar volt a 6600-as sorozata)? Vagy valami szuper noname? Nekem is 6600-as van, semmi gond vele, és másoktól sem hallottam ilyen elhalálozásokról.
"Nálam is ez történt. És mint mondtam, én az X700-at éreztem egy hajszállal jobbnak."
Viccelsz?
"Mellesleg a 6600-nak volt egy idegesítõ hibája: idõnként nagyon belassult, és kellett egy taszkváltás, hogy magához térjen."
Nem véletlenül túlmelegedett, és visszavette az órajelet??? (Jellegzetes hiba a gagyi hûtéssel szerelt, noname kacatoknál.) Ha nem emiatt volt, hát nem tudom, mitõl, nem hallottak ilyenrõl másoktól, más okból.
"Errõl van szó. Ezért mondom, hogy a játékot úgy kell megdizájnolni, hogy a megcélzott minimum konfigon is elbírja a nem kikapcsolható fizikát. Ez ma ugyanígy mûködik a többi fícsörnél is."
Hát ez az, hogy akkor az nem lehet az túl komoly fizika.
"Ismétlem : A játék készítõinek kell belõni a grafikát és a fizikát, hogy jól fusson."
Csakhogy az említett komolyabb igényû játékokat eleve nem a minimál konfigra lövik be... Ergo: az ilyenek még kevésbé lesznek használhatók kisebb kártyákon.
"Vagy nem. Attól függ, hogy a rfejlesztõk hogy tudják kihasználni a fizikát, és hogy a kiadók milyen ügyesen marketingelnek. Ma is van nem egy olyan játék, ami a nem csúcs grafikája ellenére nagyon népszerû. Pl. a GTA:SA eladási rekordokat döntögetett, miközben a grafikája alig jobb a GTA3-énál, ami már jópár éves. Cserébe viszont sokkal több jármû, és sokkal nagyobb pálya van benne, meg egy csomó más fícsör, amire azért jutott erõforrás, mert nem írtak újra mindent.
Szóval a grafika nem minden."
Na jó, biztos lesz ilyen is.
Nem lesz kevés. Már sokszor mondtam, hogy a fizika csak kis részét veszi el a teljesítménynek egy csúcskártya esetén.
"Aki inkább egy 1600XT-t ajánl, mint egy 6600GT-t, eléggé elvakult lehet. Inkább teszteket kellett volna nézned."
Nem lehet elvakult, mivel õ hozott a céghez is sok 6600-at, csak szép lassan kicserélõdött mind X700-ra a sorozatos elhalálozások miatt. Nálam is ez történt. És mint mondtam, én az X700-at éreztem egy hajszállal jobbnak. Mellesleg a 6600-nak volt egy idegesítõ hibája: idõnként nagyon belassult, és kellett egy taszkváltás, hogy magához térjen.
"A robbanások nem lényegi dolgok. Ha vizonyt az egész játék "át van hatva" fizikával, azaz a szerves része a jétéknak, nem lehet kikapcsolni, mert az egész megváltozik."
Errõl van szó. Ezért mondom, hogy a játékot úgy kell megdizájnolni, hogy a megcélzott minimum konfigon is elbírja a nem kikapcsolható fizikát. Ez ma ugyanígy mûködik a többi fícsörnél is.
"A közepes kártyák ma sem futtatnak valami fényesen pár komolyabb játékot. És pont az ilyen játékokba kerül fizika is leginkább."
Ismétlem : A játék készítõinek kell belõni a grafikát és a fizikát, hogy jól fusson.
"Hát, van egy olyan érzésem, hogy a legtöbben inkább kivárják majd, amíg megfizethetõ lesz egy olyan kártya, amin mindkettõ jó lesz, mielõtt ilyen játékokkal játszanának."
Vagy nem. Attól függ, hogy a rfejlesztõk hogy tudják kihasználni a fizikát, és hogy a kiadók milyen ügyesen marketingelnek. Ma is van nem egy olyan játék, ami a nem csúcs grafikája ellenére nagyon népszerû. Pl. a GTA:SA eladási rekordokat döntögetett, miközben a grafikája alig jobb a GTA3-énál, ami már jópár éves. Cserébe viszont sokkal több jármû, és sokkal nagyobb pálya van benne, meg egy csomó más fícsör, amire azért jutott erõforrás, mert nem írtak újra mindent.
Szóval a grafika nem minden.
A Halo sem tetszhet mindenkinek...én például hasonlóan jártam a Japánok egyik nagy kedvencével a Silent Hill-el,hogy azon az ökörségen mit lehet élvezni azt fel nem foghatom...
A Halo annak ellenére,hogy neked nem tetszett a világ egyik legjobb,legprofibb,és legnépszerûbb játéka!!<#worship>#worship><#hehe>#hehe><#bee1>#bee1>Számomra gyakorlatilag megunhatatlan,már vagy 15-ször játszottam végig!<#pias>#pias><#email>#email><#violent>#violent>
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Az árakkal megint rosszul kalkulálsz, bár ha azt nézzük, ilyen hülye logikával kiváló menedzser lehetnél a májkrémszoftnál 😊 Csakhogy a Sony lesz*rja hogy a másik konzol csak feleannyiba kerül, ha az övé ennek ellenére jobban megy. <#bee1>#bee1> És én is leszarom, mert mit kezdjek egy pucér konzollal, ha nincs rá túl sok nekem megfelelõ játék.
Ja! Megnézem a játékokat is,és az Xbox360-ra sokkal jobb játékok lesznek (pl. Halo 3. ami egymaga leveri az összes ps címet)<#nevetes1>#nevetes1>
A dolog úgy áll ,hogy a sony feldughatja magának azt a híres bluray meghajtót,mert senkinek sincs rá szüksége<#worship>#worship><#hehe>#hehe>!
Majd akkor fognak elkerekedni a szemeid,amikor 2008-nyarán hozzánk is elérkezik a ps3 (márha elérkezik egyálltalán...) 160.000ft-os áron...,az Xbox360 Prémium meg lesz 80.000ft.!<#wave>#wave>
A ps3 nekem leginkább a Cell proci miatt érdekes, szívesen portolnám rá néhány hobby-programomat.
Még a Wii is érdekel, az meg azért, mert állítólag olcsón lehet rá játékot is fejleszteni, és nem is olyan nagyok az elvárások (milliós költségvetésû szuperjátékok, mint a másik 2-n). Még 3D-snek sem kell lennie feltétlenül.
De hogy lesz-e valamelyikbõl valami, még nem tudom.
Mibõl vontam le...?? Hát az írásaid igencsak arról árulkodnak,hogy oda meg vissza vagy a sony-ért!<#whatever>#whatever> Nekem egyébként még sohasem volt konzolom,de már nagyon unom a PC fejlesztgetést,és ezért gondolkozok azon,hogy jövõre majd veszek egy xbox-ot.És hogy miért xboxot?? Azért mert nekem az ár is számít,és biztos,hogy lényegesen olcsóbb lesz,mint a ps...,a nintendo meg egy már most idejétmúlt elavult ketyere! Nagymamáknak való!
Neked van konzolod? És tervezed egy új beszerzését?
Egybként a PS3 90%-ban szintén amcsi fejlesztés (IBM, Nvidia, Rambus). De a japán részt is legalább igazi szakemberek csinálták.
Árakat majd meglátjuk, bár kétlem, hogy ilyen különbség lesz.
Na de értsd már meg, hogy ha még fizikát is számoltat a kártyával, akkor 50fps sem lesz! Tehát nagyfelbontáson még egy 8800GTX is kevés lesz. Ezért kérdeztem, hogy a megfizetés az az SLI?
"Nem olyan rossz az. A 7600GT az talán jobb, de akkor még nem volt, a 6600 meg nem jobb. A cégnél volt 6600-am (de meghalt), most meg X700 van, és nem látok különbséget."
6600GT-rõl volt szó, nem mindegy!
"Egyébként meg korábban sokáig, és még talán ma is (majd meglátjuk mit hoznak ki a G80 ellen) az ATI volt technológiailag fejlettebb (fõleg élsimításban), ezért jobban bíztam bennük."
2-3 gen. óta nagyrészt egyforma az AA-juk. ATI-s X-ekben van egy bizonyos temporális AA (ha jól emlékszem, így írják), de azt csak 100Hz-es képernyõn élvezhetõ. NV-s FX-ekben lassú volt a shaderezés, de már az már a múlté.
"És akiket megkérdeztem azok is az X1600XT-t ajánlották."
Aki inkább egy 1600XT-t ajánl, mint egy 6600GT-t, eléggé elvakult lehet. Inkább teszteket kellett volna nézned.
"Ez nem feltétlen igaz, dizájn kérdése, hogy mire mekkora hangsúlyt fektetnek. Pl. lehet gyórni a robbanások élethûségére, és akkor az fullosan kikapcsolható, hiszen csak látvány."
Én is éppen ezt mondom. A robbanások nem lényegi dolgok. Ha vizonyt az egész játék "át van hatva" fizikával, azaz a szerves része a jétéknak, nem lehet kikapcsolni, mert az egész megváltozik.
"Nem kicsivel éri meg jobban. És a fejlesztõkön is múlik, hogy hogyan balanszolják a rendszert. Ha úgy lövik be, hogy egy olcsóbb kártyán is fusson fizikával együtt, akkor a játékosnak csak a valamivel szerényebb grafikát kell elviselnie (cserébe jó fizikát kap), és nem kell fizetnie semmit."
A közepes kártyák ma sem futtatnak valami fényesen pár komolyabb játékot. És pont az ilyen játékokba kerül fizika is leginkább. Így már használhatatlan lesz ezeken a kártyákon. Tehát újat kell venni. De ha már új, azt várná az ember, hogy ne csak picivel legyen jobb a grafika (mert még úgy sem lesz elég gyors, ha egyszer az elõzõ kimondottan lassú volt), ha fizika is van.
"És mint már többször mondtam, az ember azt kapja, amiért fizetett. Ha olcsó géped van, ne várj csúcs grafikát, meg még fizikát is."
Csak kicsit drágán mérik azt, amin minden elfogadható.
"Azt jelenti, hogy most a játékosok többsége X összeget költ a gépére évente, és annál többet nem tud, vagy nem akar. Csak kevesen tudnak/akarnak egyre többet fizetni a gépükért. Tehát a HW és SW fejlesztéseket úgy kell belõni, hogy az adott feladatra alkalmas gép (pl. átlagos játék futtatása az aktuálisan elvárható minõségben) ne dráguljon. Alapvetõ közgáz: ha a termék drágább, kevesebben veszik (kivéve néhány speciális esetet). Plusz pszichológia: A már alapvetõ alkatrészt inkább veszem drágábban, mint hogy valami újat vásároljak az árkülönbözetbõl."
Nem ezt kérdeztel, de mindegy.
"Pedig mindenképp ez lesz. A fizikának kell a teljesítmény, és ha adott összegbõl veszünk gépet, akkor ennek a teljesítménynek az ára mindenképp hiányozni fog valahonnan."
Hát, van egy olyan érzésem, hogy a legtöbben inkább kivárják majd, amíg megfizethetõ lesz egy olyan kártya, amin mindkettõ jó lesz, mielõtt ilyen játékokkal játszanának.
És mindegyik szám eltúlzottnak tûnik. A gyártási költségek ennél sokkal alacsonyabbak."
Van ahol beleszámolják a fejlesztési és marketing költségeket, így jön ki kb. 500 dolcsi bukta gépenként. Persze ez nem egészen korrekt számolás, mert ezek a költségek messze nem nõnek olyan ütemben, mint a legyártott gépek száma.
De az teljesen tuti, hogy jelentõs veszteséggel adják a PS3-at. Ez teljesen normális a konzoloknál, különösen, ha ennyire új technológiáról van szó. Ezért is kerülnek a játékok kb. duplájába a PC-hez képest.
Máshol is van ilyen, pl. a nyomtatóknál jellemzõ, hogy a festéken keres sokat a cég, nem a gépen.
Nézd meg jobban. Arról volt szó, hogy ha a 8800GTX max élsimítással csak normál fps-en viszi a mai játékokat, akkor a gyengébb verziói nem fogják bírni. Erre mondtam, hogy ki lehet kapcsolni az élsimítást, és akkor gyengébb kártya is elég.
"Megfizetés alatt 2db 8800GTX-et értesz SLI-ben? 1db 8800GTX olcsó?"
1db-ról volt szó.
"Ugyanis itt továbbra is arról van szó, hogy 1920x1200-ban már csak 50fps körül mennek a mai komolyabb játékok, és egy jobb jétékos már nem akar ez alá menni."
Erre mondtam, hogy ha ilyen igényei vannak a játékosnak, akkor fizesse meg. Akinek nincs ennyi pénze, az ma is megelégszik 1280-as vagy 1024-es felbontással, élsimítás nélkül, és 25 fps-sel. Az általad említett "jobb játékos" meg ki fogyja fizetni egy erõsebb gép árát, mert neki megéri.
"Megkérdezhetem, milyen megfontolásból vettél 1600-ast?"
Kellett valami olcsó, amíg kijön a DX10 generáció.
"Amikor köztudottan gyenge eresztés mostanában volt az ATI középkategóriája... Egy 7600GT sokkal jobb lett volna, azonos áron. De még egy 6600GT is."
Nem olyan rossz az. A 7600GT az talán jobb, de akkor még nem volt, a 6600 meg nem jobb. A cégnél volt 6600-am (de meghalt), most meg X700 van, és nem látok különbséget. Egyébként meg korábban sokáig, és még talán ma is (majd meglátjuk mit hoznak ki a G80 ellen) az ATI volt technológiailag fejlettebb (fõleg élsimításban), ezért jobban bíztam bennük. És akiket megkérdeztem azok is az X1600XT-t ajánlották.
"Csak sajnos épp az ilyeneknek kell a legkevesebb teljesítmény. Tehát éppenhogy a lényegibb dolgoknak kellene kikapcsolhatóaknak lenniük."
Ez nem feltétlen igaz, dizájn kérdése, hogy mire mekkora hangsúlyt fektetnek. Pl. lehet gyórni a robbanások élethûségére, és akkor az fullosan kikapcsolható, hiszen csak látvány.
"Éppen ezért nem is vesznek az emberek Physixot. De ez nem jelenti, hogy bármi mást szívesen vesznek, ha az kicsivel jobban megéri."
Nem kicsivel éri meg jobban. És a fejlesztõkön is múlik, hogy hogyan balanszolják a rendszert. Ha úgy lövik be, hogy egy olcsóbb kártyán is fusson fizikával együtt, akkor a játékosnak csak a valamivel szerényebb grafikát kell elviselnie (cserébe jó fizikát kap), és nem kell fizetnie semmit. És mint már többször mondtam, az ember azt kapja, amiért fizetett. Ha olcsó géped van, ne várj csúcs grafikát, meg még fizikát is.
"Mit jelent az extra kiadás?"
Azt jelenti, hogy most a játékosok többsége X összeget költ a gépére évente, és annál többet nem tud, vagy nem akar. Csak kevesen tudnak/akarnak egyre többet fizetni a gépükért. Tehát a HW és SW fejlesztéseket úgy kell belõni, hogy az adott feladatra alkalmas gép (pl. átlagos játék futtatása az aktuálisan elvárható minõségben) ne dráguljon. Alapvetõ közgáz: ha a termék drágább, kevesebben veszik (kivéve néhány speciális esetet). Plusz pszichológia: A már alapvetõ alkatrészt inkább veszem drágábban, mint hogy valami újat vásároljak az árkülönbözetbõl.
"Kiadás az van, és ha már van, nem azt várja a vásárló, hogy a grafika eddigi gyorsulási ütemének rovására menjen a fizika"
Pedig mindenképp ez lesz. A fizikának kell a teljesítmény, és ha adott összegbõl veszünk gépet, akkor ennek a teljesítménynek az ára mindenképp hiányozni fog valahonnan.
Korábban is hoztak már ilyen áldozatot a játékosok. Épp a grafika miatt kell feláldozni a játék más részeit (pl. a pályák méretét).
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
És mindegyik szám eltúlzottnak tûnik. A gyártási költségek ennél sokkal alacsonyabbak.
Honnan tudod, hogy most igazat mondanak?
Szerintem inkább arról van szó, hogy a kifejlesztés, és a gyártás beindítása kerül nagyon sokba, ami a kisebb haszon miatt lassan térül meg.
Mindegy, ez az én személyes véleményem, nem kell egyetérteni.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Tévedés, ebben a bekezdésben nagyon is a 8800GTX-rõl volt szó.
"Aki mindent akar, az fizesse meg. Olcsó pézért nem lehet elvárni, hogy full HD-ben, 16x élsimítással menjen a game, meg fizikát is számoljon a kártya."
Megfizetés alatt 2db 8800GTX-et értesz SLI-ben? 1db 8800GTX olcsó? Ugyanis itt továbbra is arról van szó, hogy 1920x1200-ban már csak 50fps körül mennek a mai komolyabb játékok, és egy jobb jétékos már nem akar ez alá menni.
"Pl. nekem az X1600XT 1600x1200-ban már nem bírt élsimítást (GTA:SA), pedig fizikát nem is kellett számolnia."
Megkérdezhetem, milyen megfontolásból vettél 1600-ast? Amikor köztudottan gyenge eresztés mostanában volt az ATI középkategóriája... Egy 7600GT sokkal jobb lett volna, azonos áron. De még egy 6600GT is.
"Már megint kevered a dolgokat. Nem ebbõl kell fedezni a fizikát. Csupán megemlítettem, hogy a mostani teljesítmény adatok nem feltétlen véglegesek."
Nem keverem, joggal gondolhattam, hogy azért hozod fel ezt.
"Nem azt magyaráztad eddig, hogy nem csak az?"
Nem. Nem fizikánál. (Persze itt is számít más, csak azt mondom, itt a FLOPS dominál, azaz itt az számít a legtöbbet.)
"Azt is figyelembe kell venni, hogy milyen számításokat lehet a GPU-ra bízni, és azokat milyen hatékonyan lehet megvalsítani, meg ilyenek. Mivel a G80 sokkal rugalmasabb, várhatóan jobban ki lehet használni az eredeti feladatától eltérõ célokra. A tesztek szerint, grafikában legalábbis, a shader teljesítményét közel 100%-ig ki lehet használni."
Tudom, de akkor is csak viszonylag egyszerû kis SIMD procik.
"Egyébként a fizika is skálázható valamennyire. Az olyan effekteket, amik a játékmenetet nem befolyásolják, ki lehet kapcsolni gyengébb HW-n. Mint pl. a robbanásokkor szétrepülõ apró törmelék, meg iylesmik."
Csak sajnos épp az ilyeneknek kell a legkevesebb teljesítmény. Tehát éppenhogy a lényegibb dolgoknak kellene kikapcsolhatóaknak lenniük.
"Nos, ha Physix-et veszel, az még rosszabb, mert anniy, mint egy erõs középkategóriás kártya, és ráadásul kell mellé a VGA is."
Éppen ezért nem is vesznek az emberek Physixot. De ez nem jelenti, hogy bármi mást szívesen vesznek, ha az kicsivel jobban megéri.
"Ha veszel másik VGA-t, ugyanott vagy. Tehát egyértelmûen a legjobb megoldás kicsivel drágábban egy erõsebb VGA-t venni. Egyébként meg nem lehet a vásárlót extra kiadásokra kényszeríteni. A jétékgépnek ugyanannyiba kell kerülnie, mint eddig, a meglevõ erõforrásokat kell másképp elosztani. Ez azt jelenti, hogy a grafika kicsit lassabban fog fejlõdni, és cserébe egyre dominánsabb lesz a fizika. Plusz a DX10-zel a CPU jó része is felszabadul, meg ott lesznek a többi magok, amiknek még ki lehet találni valami feladatot."
Mit jelent az extra kiadás? Úgy érted, az évenkénti gépcseréhez képest? 😄
Kiadás az van, és ha már van, nem azt várja a vásárló, hogy a grafika eddigi gyorsulási ütemének rovására menjen a fizika.
képzelni mondjuk egy olyan Gyógyszergyárat amely PS3-asokkal szerelné fel kutatólaborjait...<#guluszem1>#guluszem1><#ticking>#ticking>Még a gondolat is nevetséges!<#eplus2>#eplus2><#hehe>#hehe>
Konkrétan annak majdani kisebb változatairól.
"Beáldozni az AA-t a fizikáért? Aki már hozzászokott az AA-hoz, nem szívesen mond le róla."
Aki mindent akar, az fizesse meg. Olcsó pézért nem lehet elvárni, hogy full HD-ben, 16x élsimítással menjen a game, meg fizikát is számoljon a kártya. Pl. nekem az X1600XT 1600x1200-ban már nem bírt élsimítást (GTA:SA), pedig fizikát nem is kellett számolnia. Persze hogy szebb 8xAA-val, de azért valahogy túléltem nélküle. A tesztek alapján más játékokban sem volt sokkal jobb.
"30%? Esetleg az FX-ek esetén valósult meg ilyen, de annak megvolt a jó oka."
Többnél is volt. Egy idõben minden új kártya tesztje azzal végzõdött, hogy "Majd meglátjuk mennyi javulást hoznak még az új driver-ek".
"És Ami a csúcsnál 30%, az a középnél már csak 15. Ez még nem fedezi a fejlett fizikát."
Már megint kevered a dolgokat. Nem ebbõl kell fedezni a fizikát. Csupán megemlítettem, hogy a mostani teljesítmény adatok nem feltétlen véglegesek.
"Fizikánál a FLOPS dominál."
Nem azt magyaráztad eddig, hogy nem csak az?
Azt is figyelembe kell venni, hogy milyen számításokat lehet a GPU-ra bízni, és azokat milyen hatékonyan lehet megvalsítani, meg ilyenek. Mivel a G80 sokkal rugalmasabb, várhatóan jobban ki lehet használni az eredeti feladatától eltérõ célokra. A tesztek szerint, grafikában legalábbis, a shader teljesítményét közel 100%-ig ki lehet használni.
Egyébként a fizika is skálázható valamennyire. Az olyan effekteket, amik a játékmenetet nem befolyásolják, ki lehet kapcsolni gyengébb HW-n. Mint pl. a robbanásokkor szétrepülõ apró törmelék, meg iylesmik.
"Ja, 10%-kal... Az gyakorlatilag semmi. Ez olyan, mintha csak a fizikáért vennél új kártyát. Na jó, nyilván csak az ezt támogató játékok esetén érvényes ez."
Nos, ha Physix-et veszel, az még rosszabb, mert anniy, mint egy erõs középkategóriás kártya, és ráadásul kell mellé a VGA is. Ha veszel másik VGA-t, ugyanott vagy. Tehát egyértelmûen a legjobb megoldás kicsivel drágábban egy erõsebb VGA-t venni. Egyébként meg nem lehet a vásárlót extra kiadásokra kényszeríteni. A jétékgépnek ugyanannyiba kell kerülnie, mint eddig, a meglevõ erõforrásokat kell másképp elosztani. Ez azt jelenti, hogy a grafika kicsit lassabban fog fejlõdni, és cserébe egyre dominánsabb lesz a fizika. Plusz a DX10-zel a CPU jó része is felszabadul, meg ott lesznek a többi magok, amiknek még ki lehet találni valami feladatot.
Ja meg a másik, hogy a ps3 celljeibõl ugye 1 mag selejtes és le van tiltva, szal nem ugyanaz mint a blade szerver.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Pedig a radeon 9700-es kb ennyit gyorsult a driverek fejlõdésével, és a többi 9500+ is 15% fölött.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Magyarországon már nyert az xbox 360!A világpiacon is valószínüleg nyerni fog!
De még az is benne van a pakliban,hogy a playstation totálisan megbukik!<#kuss>#kuss>
A Sony folyamatosan baromságokat beszél (például micsoda hülye PR duma volt,hogy 'szuperszámítógépnek' ajálja kutatócégeknek).<#wow3>#wow3><#duhos2>#duhos2>
Lebecsülték az Xbox-ot!<#szomoru2>#szomoru2>
De nem. Itt a GF8800GTX-rõl volt szó.
"Én többnek éreztem, de végülis mindegy, 20% is elég a fizikához."
Beáldozni az AA-t a fizikáért? Aki már hozzászokott az AA-hoz, nem szívesen mond le róla.
"Ki beszélt itt nagyságrendekrõl? Mondjuk 30% gyorsuláson nem lepõdnék meg. Régebben ennyi gyorsulás normális volt a driverek fejlõdésével."
30%? Esetleg az FX-ek esetén valósult meg ilyen, de annak megvolt a jó oka.
És Ami a csúcsnál 30%, az a középnél már csak 15. Ez még nem fedezi a fejlett fizikát.
"Annyi azért nem kell."
Annyi tényleg nem. "Csak" 48MB. Minimum a dual-buffer, de triple-buffert is támogatni kell.
2560x1600x4=16384000, azaz ~16MB; 3x16MB=48MB.
Ennyi sem fér bele.
"Azt is hozzá kell számolni, hogy a G80 teljesítményét jobban ki lehet használni."
Fizikánál a FLOPS dominál.
"Miért ne? Még így is gyorsabb lenne a korábbi generációnál. És még mindíg jobb megoldás, mint a külön kártya."
Ja, 10%-kal... Az gyakorlatilag semmi. Ez olyan, mintha csak a fizikáért vennél új kártyát. Na jó, nyilván csak az ezt támogató játékok esetén érvényes ez.
De igen. A csúcskártyáknak nem gond az élsimítás.
"Átlagosan 20%-ot."
Én többnek éreztem, de végülis mindegy, 20% is elég a fizikához.
"Igen, némileg, de nem nagyságrendeket."
Ki beszélt itt nagyságrendekrõl? Mondjuk 30% gyorsuláson nem lepõdnék meg. Régebben ennyi gyorsulás normális volt a driverek fejlõdésével.
"Pl. mert 64MB belsõ rammal jóval nagyobb lenne az a chip."
Annyi azért nem kell.
"Állítólag az X1600 (nem volt kiemelve, melyik) 2x gyorsabb, mint a Physix... Persze nyilván nem lesz 200 gflops-os, de úgy tûnik, nem volt jó a 10x-es saccod."
Azt is hozzá kell számolni, hogy a G80 teljesítményét jobban ki lehet használni.
"Figyelj: tegyük fel a G8x alapú új közép kat. 2x gyorsabb lesz, nint az elõzõ. Ebbõl levonunk 30%-ot, máris csak 10%-kal lenne gyorsabb. Az a legtöbb játékosnak kevés lenne, nem áldoznak be ennyit fizikára."
Miért ne? Még így is gyorsabb lenne a korábbi generációnál. És még mindíg jobb megoldás, mint a külön kártya.
De itt nem gyengébbrõl van szó.
"Én úgy tapasztaltam, hogy azért eléggé számít, még a G80-aknál is."
Átlagosan 20%-ot.
"Idõ kell a driver belövéséhez, és kell hozzá a közel végleges HW.
Az a tapasztalat, hogy az új generációk megjelenése után a driver még gyorsul."
Igen, némileg, de nem nagyságrendeket.
"Nekem elég, te kevesled."
Te mondod, hogy még bõven gyorsulhat.
"Miért ne? Valamelyik cikkben pontosan az volt leírva, hogy a GPU a kiszámolt képet egy külön chip-nek küldi át, és az jeleníti meg. Persze leeht, hogy félreértettem valamit (vagy a cikk írója)."
Miért ne? Pl. mert 64MB belsõ rammal jóval nagyobb lenne az a chip.
Mellesleg ha valahova le van írva valami, azt nem kell kapásból szó szerint venni/elhinni, hanem el lehet gondolkodni.
"Mert még annál is jobbat akarnak csinálni. Egyébként az eddigi megoldások nem is olyan erõsek."
Akkor meg?
"Tudom. Csak az X1600-asét is tudni kellene.
A Physix kb. 100 gflops. Az X1600XT-ról nem találtam infót."
Állítólag az X1600 (nem volt kiemelve, melyik) 2x gyorsabb, mint a Physix... Persze nyilván nem lesz 200 gflops-os, de úgy tûnik, nem volt jó a 10x-es saccod.
"Akkor nem értem mit akarsz. Az elõzõ generáció hasonló kategóriás kártyáihoz képest még 30%-kal lassítva is jóval erõsebb."
Figyelj: tegyük fel a G8x alapú új közép kat. 2x gyorsabb lesz, nint az elõzõ. Ebbõl levonunk 30%-ot, máris csak 10%-kal lenne gyorsabb. Az a legtöbb játékosnak kevés lenne, nem áldoznak be ennyit fizikára.
Természetesen, de nem várható el egy gyengébb kártyától ,hogy nagy felbontásban még élsimítson is.
"A 4x-es AA nem olyan nagy igényû, és most már ezzel az új CSAA-val a 16xAA is alig kér többet, mint a 4x-es."
Én úgy tapasztaltam, hogy azért eléggé számít, még a G80-aknál is.
"Vélhetõen nem akkor kezdték csinálni hozzá a drivert, amikor teljesen kész lett, hanem már jóval elõbb."
Idõ kell a driver belövéséhez, és kell hozzá a közel végleges HW.
Az a tapasztalat, hogy az új generációk megjelenése után a driver még gyorsul.
"2-2.5x-ös gyorsulás az elõzõ gen.-hez neked nem elég?"
Nekem elég, te kevesled.
"Szerinted abba a kis chipbe elfért többtízmega embedded ram...?"
Miért ne? Valamelyik cikkben pontosan az volt leírva, hogy a GPU a kiszámolt képet egy külön chip-nek küldi át, és az jeleníti meg. Persze leeht, hogy félreértettem valamit (vagy a cikk írója).
"Ha egy a korábbiakhoz képest elég komoly fizikára elég egy fél C2D, miért ennek többszörösében gondolkodnak már elsõ lépésként is?"
Mert még annál is jobbat akarnak csinálni. Egyébként az eddigi megoldások nem is olyan erõsek.
"A programozható shader teljesítmény kb. 500 GFlops."
Tudom. Csak az X1600-asét is tudni kellene.
A Physix kb. 100 gflops. Az X1600XT-ról nem találtam infót.
"És én mondtam is egy szóval azt? Megint nem figyelsz. Én az elõzõ gen. középkategóriájához hasonlítottam a G8x középkategóriáját, utóbbiból levonva a fizikára 30%-ot."
Akkor nem értem mit akarsz. Az elõzõ generáció hasonló kategóriás kártyáihoz képest még 30%-kal lassítva is jóval erõsebb.
"Mit adtál a Cellhez?"
Még egy korábbi vitában volt róla szó, én is onnan emlékeztem a 300-ra.
Attól, hogy nagyobb a felbontás, még láthatóak maradnak a recék, lévén a képernyõ is jóval nagyobb a szokásosnál. Minimum egy 4xAA elmegy.
A 4x-es AA nem olyan nagy igényû, és most már ezzel az új CSAA-val a 16xAA is alig kér többet, mint a 4x-es.
"Arról ven szó, hogy a driverek még nyílván kiforratlanok. Ha megnézed a driver letöltéseket, láthatod, hogy a 8-as szériának külön drivere van, míg az összes többi GeForce-é közös (kivéve a Go-kat)."
Vélhetõen nem akkor kezdték csinálni hozzá a drivert, amikor teljesen kész lett, hanem már jóval elõbb. Akár az is lehet, hogy már épp eléggé kiforrott a driver. 2-2.5x-ös gyorsulás az elõzõ gen.-hez neked nem elég?
"Én úgy értettem a leírásokból, hogy valóban külön chip-en vannak a megjelenítendõ framebuffer-ek is."
Szerinted abba a kis chipbe elfért többtízmega embedded ram...? Ugye, hogy nem... Vagy szerinted a G80-on keresztül olvasgatja a vramban lévõ framebuffert? Ez sem túl valószínû.
Olyan jó lenne, ha nem helyetted kellene állandóan gondolkodnom. Ez olyan, mintha sakkban vakon lépkednél, és az ellefélnek kellene állandóan felvilágosítania, hogy az a lépés miért rossz. 😊
"DirectX10
G80"
Mint írtam, olvasgattam már ezekrõl. De az itt leírtakon kívül más drasztikus sebességnövelõ dolgot nem láttam. Ezért kértem, ha tudsz ilyenrõl, oszd meg velem is. Erre te benyomod a komplett leírást...
"Vagy akkor, ha nem sokmagos csúcsprocid van alaposan húzva.
Ha ugyanahoz a grafikához kisebb proci is elég (és ezt tudja a DX10), akkor olcsóbban jön ki egy játékgép. Illetve esetünkben a paciens megvehet egy erõsebb kártyát, amibe belefér a fizika számolás is."
Oké, ez jogosnak tûnik.
"Nálunk a korábbiakhoz képest elég komoly fizika van, full szoftveresen egyelõre, mégis szépen megy egy átlagos gépen is. Az eddigi tesztek szerint a G80 fizikában 10x gyorsabb egy jobb Core2-nél (ha mindkettõ cask fizikát számol). Nálunk meg a fizik acask 1 magon fut, és mellette ott van az egész játék."
Ha egy a korábbiakhoz képest elég komoly fizikára elég egy fél C2D, miért ennek többszörösében gondolkodnak már elsõ lépésként is? (Physix PPU, X1600.)
"A programozható shader teljesítmény kb. 500 GFlops."
Tudom. Csak az X1600-asét is tudni kellene. Ezt nem feltétlenül adja vissza, hogy jétékokban összesen hány fps-t tudnak, mert az nem csak a shadereken múlik. Persze lehetséges, hogy a két dolog arányosan növekedett, de az is lehet, hogy nem teljesen. Úgy tudom, az ATI vonal máig erõsebb kicsit shaderben. Ezzel nem azt akarom mondani, hogy a G80 pl. alig gyorsabb ebben, mint egy X1600, de pl. mondjuk nem 10x.
"Azok közép- és alsó kategóriás kártyák lesznek. Azoktól senki sem várja el, hogy full HD-ben full élsimítással vigyenek pl. egy Ghost Recon-t, és még mellette fizikát is számoljanak."
És én mondtam is egy szóval azt? Megint nem figyelsz. Én az elõzõ gen. középkategóriájához hasonlítottam a G8x középkategóriáját, utóbbiból levonva a fizikára 30%-ot.
"Ha a plusz tranzisztor plusz magot jelent, akkor az plusz teljesítmény is. Ha a cell-nél a PPE helyett is SPE-k lennének, jóval nagyobb lehetne a teljesítménye."
A PPE-bõl és az õ L2-jébõl kb. 2db SPE jönne ki. Viszont a PPE-ben is van VMX, ami kicsivel még gyorsabb is, mint egy SPE. Tehát kevesebb, mint 1db SPE teljesítménye esik ki így.
De amúgy igazad volt, kb. 2x annyi tranyóból kb. 2x annyi FLOPS-t hoz ki a G80, mint a Cell. (Csak ugye nem csak az elméleti számok számítanak.)
"Lehet, de mivel csak számolniuk kell, ez nem sokat számít."
Ahol semmi mást nem kell csinálni, csak számítási mûveleteket végezni egymás után, ott nem számít. Összetettebb feladatoknál mást is kell csinálni, és annak lassúsága, körülményessége erõsen elveheti az idõt a számításoktól. Mint kiderült, pl. még egy egyszerû raytracer algoritmusban is.
"A cell-hez már korábban adtam, a G80-ról meg nagyon egyszerû adatot találni."
Mit adtál a Cellhez? Én nem ott találtam meg a tranyószámra és a méretre vonatkozó adatokat. A G80-as adatai meg megvoltak, magam is írtam már a 700 millió tranyóról. Mellesleg utóbbi magmérete csak nemrég derült ki, amikor leszedték egy halott kártyán lévõ G80 kupakját.
"Te beszéltél a nagyfelbontáson elért fps-rõl."
Azt mondtam, hogy még ilyen felbontásban is remekül mennek ezek a kártyák.
"Mindenesetre egyre jobban terjednek a relatíve alacsonyabb árkategóriás 20-24"-es monitorok, kimondottan játék célra."
Az élsimítást akkor is ki lehet kapcsolni, vagy lejjebb venni egy kicsit.
"Nem hiszem, hogy ezen felül pusztán driver által (újabb) nagyságrendi ugrás következne be."
Arról ven szó, hogy a driverek még nyílván kiforratlanok. Ha megnézed a driver letöltéseket, láthatod, hogy a 8-as szériának külön drivere van, míg az összes többi GeForce-é közös (kivéve a Go-kat).
"Valószínû nem a külön chipben van a teljes monitorvezérlés, mert ahhoz legalább 2 framebuffernek is ott kellene lennie"
Én úgy értettem a leírásokból, hogy valóban külön chip-en vannak a megjelenítendõ framebuffer-ek is.
"Oké, ezt nem tagadom. Csak nem tudom, mennyivel gyorsabb, ill. mi gyorsabb."
DirectX10
G80
"mai játékoknál csak a legnagyobb (ma elérhetõ) bontásokban jön ki procilimit."
Vagy akkor, ha nem sokmagos csúcsprocid van alaposan húzva.
Ha ugyanahoz a grafikához kisebb proci is elég (és ezt tudja a DX10), akkor olcsóbban jön ki egy játékgép. Illetve esetünkben a paciens megvehet egy erõsebb kártyát, amibe belefér a fizika számolás is.
"Hát, a mai játékokban egészen minimális a fizika, így egy normálisabb fizika máris sokkal erõsebb..."
Nálunk a korábbiakhoz képest elég komoly fizika van, full szoftveresen egyelõre, mégis szépen megy egy átlagos gépen is. Az eddigi tesztek szerint a G80 fizikában 10x gyorsabb egy jobb Core2-nél (ha mindkettõ cask fizikát számol). Nálunk meg a fizik acask 1 magon fut, és mellette ott van az egész játék.
"Grafikai teljesítményben igen, de itt a prog. shaderteljesítményrõl van szó."
A programozható shader teljesítmény kb. 500 GFlops.
"És ugye nem is a G80-ról volt szó, hanem annak felét, harmadát, negyedét tudó kártyákról."
Azok közép- és alsó kategóriás kártyák lesznek. Azoktól senki sem várja el, hogy full HD-ben full élsimítással vigyenek pl. egy Ghost Recon-t, és még mellette fizikát is számoljanak.
"Nem csak a tranzisztorok számától függ az, hékás!"
Ha a plusz tranzisztor plusz magot jelent, akkor az plusz teljesítmény is. Ha a cell-nél a PPE helyett is SPE-k lennének, jóval nagyobb lehetne a teljesítménye.
"Így az elemi számítási mûveleteken kívüli feladatok nehézkesek, lassúak lehetnek."
Lehet, de mivel csak számolniuk kell, ez nem sokat számít.
"Nem azt kértem, hogy ismételd meg, hanem hogy adj forrást."
A cell-hez már korábban adtam, a G80-ról meg nagyon egyszerû adatot találni.
Végülis lehet, hogy a G80 tizede a telj., de a 1/3 G80-hoz képest az már 30%.
A minimális fizikát úgy kell érteni, hogy kevés darabka van fizikailag rendesen szimulálva. Attól még pl. egy autó szimulációja lehet elég jó.
A G80 700 millióját tudom, de nehezen hittem el, hogy a Cell fele annyiból van, mert úgy láttam, kb. ugyanakkora a lapka. De utánanéztem, és tényleg fele akkora, mint a G80.
Viszont a kifejlesztésekor az egyik fontos szempont volt a lehetõ legjobb telj./watt és telj./tranzisztor arány.
Hát 2764800 vs 2073600 pixel, szal 691200 pixelnyi különbség, 25%-al kevesebb... ez nagyon nem kevés 😊 szal az az alig, inkább sokkal 😄
"Grafikai teljesítményben igen, de itt a prog. shaderteljesítményrõl van szó. Abban talán nem 10x gyorsabb."
Hát az x1600 egy elég gyenge kártya a felsõbb kategóriás ati/nvidia kártyákhoz képest, sõt az nvidia középkategóriájához képest is, shaderben fõleg, szal lehet reális az a 10x.
"Hát, a mai játékokban egészen minimális a fizika,"
Nem minden játékban... van ahol elég jó fizika van (szimulátorok) persze nem olyan hülyeségeken van jó fizika mint a szétrepülõ darabok, stb. Inkább érezhetõ fizika van, és hát az erõs fizikás próbálkozások inkább "látványfizikát" jelentenek, mert szép hogy milyen élethûen repkednek szét a darabok, meg szépen folyik a víz, de igazából csak látvány, a játékmenetre nemnagyon van hatással. Ja mondjuk hülyeséget beszélek, hiszen a mai legtöbb játékban már csak a látvány számít...
Egyébként a g80 700 millió tranzisztorja igaz, én is olvastam a prohardveres tesztben IS, de most nem keresném meg 😊
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Biztos? Azért hangsúlyoztam ki az 1920x1080-at, mert az 1280x720 is HD. Az a kisebbik HD szabvány-felbontás.
"Viszont te elnézted, ezek az fps értékek 1920x1440-ben illetve 1920x1200-ban vannak."
Ezek a felbontások közel esnek a fentiekhez, szabványos 1080p-ben alig lenne több.
"És sok másik játék jóval gyorsabb."
Na de most azokról beszélünk, amik nem. 😄
"Ezen kívül, azért ezek elég nagy felbontások, ráadásul élsimítással. Az átlag játékos 1024-ben, vagy 1280-ban játszik még.
Aki meg nagy felbontást akar, annak meg kell fizetnie az árát (ahogy ma is)."
Te beszéltél a nagyfelbontáson elért fps-rõl. Mindenesetre egyre jobban terjednek a relatíve alacsonyabb árkategóriás 20-24"-es monitorok, kimondottan játék célra.
"Nem erre gondoltam. Arról beszélek, hogy ez egy teljesen új architektúra, így a mostani driverek még elég kiforratlanok lehetnek."
Mindenesetre azt már kihasználják, hogy univerzális shaderek vannak, és ez szépen kijön a sebességben. Nem hiszem, hogy ezen felül pusztán driver által (újabb) nagyságrendi ugrás következne be.
"Fõleg ha azt is nézzük, hogy itt a driverre nagyobb felelõsség hárul, mert a HW sokkal rugalmasabb."
Azért a shaderek asm kódja kötött, és már most is elég jó az Nvidia fordítója (cg-rõl, HLSL-rõl).
"Gyakorlatilag a G80 egy általános célú vektor proci tömb, és szinte csak a rajta futó szoftver teszi grafikus kártyává"
Ez így nem igaz: a kis procimagok sokmindenre használhatók, de attól még van ott sok megszokott GPU-s egység (textúra-kezelés, - filterezés, ROP-ok, AA-kezelõk, stb.).
"(a tényleges monitor vezérlõ rész is külön chip-en van)."
Valószínû nem a külön chipben van a teljes monitorvezérlés, mert ahhoz legalább 2 framebuffernek is ott kellene lennie, hogy megfelelõ idõzítéssel küldhesse a képet a monitor felé. Inkább csak a DAC-ok és talán a digitális DVI-kezelés van ott.
"Nem csak arra gondoltam, a DX10 sok szempontból fejlettebb, és gyorsabb. A teljes kihasználásához kicsit át is kell írni a játékokat."
Oké, ezt nem tagadom. Csak nem tudom, mennyivel gyorsabb, ill. mi gyorsabb. Az egy dolog, hogy az összes shader-proci használható vertex- és pixel mûveletekre (ezt viszont DX9 alatt is megcsinálja, átlátszóan a DX9 számára), és SM3.0 helyett SM4.0 van, de az miben lesz jobb? Pl. kevesebbe "kerülnek" az ugrások?
"Több lesz az 25-nél. És a poci limitesség nem olyan ritka."
25-re emlékszem, ami ezt illeti. G80-nál, mai játékoknál csak a legnagyobb (ma elérhetõ) bontásokban jön ki procilimit.
"Én is errõl beszélek. Egyelõre nem tudnánk mit kezdeni a mainál sokkal erõsebb fizikával. Ki kell még forrnia a dolognak."
Hát, a mai játékokban egészen minimális a fizika, így egy normálisabb fizika máris sokkal erõsebb... 😊 Az elõ lépéseken (lásd némi pattogó pötty robbanásokkor, stb.) már azért túlvagyunk.
"A G80-nak ez semmiség. Grafikai teljesítményben közel 10X erõsebb az X1600-nál, és sokkal alkalmasabb fizikára. Emiatt szerintem a teljesítménye 10%-val is leköröz minden mást."
Grafikai teljesítményben igen, de itt a prog. shaderteljesítményrõl van szó. Abban talán nem 10x gyorsabb. És ugye nem is a G80-ról volt szó, hanem annak felét, harmadát, negyedét tudó kártyákról. (Szerintem eleve nem a fele lesz a középkat., mert már a GTS is csak 2/3-a a GTX-nek, ha jól emlékszem.) "Harmad G80"-nál ugyanehhez már 30% teljesítmény kell. Nem hiszem, hogy ennyit mindenki szívesen beáldozna, az amúgy is 1/3 teljesítménybõl, mert úgy grafikailag nem jut elõrrébb, mint volt elõzõleg.
"És a G80 architektúra mellett szerintem a Physix értelmetlen. Ugyanolyan áron egy butított G80 sokkal erõsebb tud lenni."
Ez igaz, de csak példa volt a Physix.
"Errõl van szó. A G80-nál a PPE helyett is lehet SPE, így ugyanannyi tranzisztorból nagyobb teljesítmény jön ki"
Nem csak a tranzisztorok számától függ az, hékás!
"Pont ezt mondom. a G80-nál az SPE-k lehetnek ennél egyszerûbbek, mert sokkal specializáltabb a feladatuk."
De éppen ezért butácskábbak is. Így az elemi számítási mûveleteken kívüli feladatok nehézkesek, lassúak lehetnek.
"A Cell-ben kb. 300M tranzisztor van, a G80-ban meg közel 700M."
Nem azt kértem, hogy ismételd meg, hanem hogy adj forrást. Mint én is tettem az elõzõben.
Tudom, hogy mennyi a HD. Viszont te elnézted, ezek az fps értékek 1920x1440-ben illetve 1920x1200-ban vannak. És sok másik játék jóval gyorsabb. Ezen kívül, azért ezek elég nagy felbontások, ráadásul élsimítással. Az átlag játékos 1024-ben, vagy 1280-ban játszik még.
Aki meg nagy felbontást akar, annak meg kell fizetnie az árát (ahogy ma is).
"Már a mostani, DX9-es driverek is kihasználják az univerzális shadermagokat olyan szempontból, hogy mindig mindet igénybe veszik (vertex és pixel shader kódra)."
Nem erre gondoltam. Arról beszélek, hogy ez egy teljesen új architektúra, így a mostani driverek még elég kiforratlanok lehetnek. Fõleg ha azt is nézzük, hogy itt a driverre nagyobb felelõsség hárul, mert a HW sokkal rugalmasabb. Gyakorlatilag a G80 egy általános célú vektor proci tömb, és szinte csak a rajta futó szoftver teszi grafikus kártyává (a tényleges monitor vezérlõ rész is külön chip-en van).
"Ha az adatcsomag-szervezési optimizálás 25%-ára gondolsz"
Nem csak arra gondoltam, a DX10 sok szempontból fejlettebb, és gyorsabb. A teljes kihasználásához kicsit át is kell írni a játékokat.
"az inkább csak procilimites helyzetben jön ki, mivel a proci munkájából jön le itt az a 25%."
Több lesz az 25-nél. És a poci limitesség nem olyan ritka.
"Nem ebbõl kell kiindulni, hanem abból, mire fogják belõni a fizikát."
Én is errõl beszélek. Egyelõre nem tudnánk mit kezdeni a mainál sokkal erõsebb fizikával. Ki kell még forrnia a dolognak.
"A minimumnak tekinthetõ a Physix chipje, de inkább egy annál gyorsabbnak mondott X1600."
A G80-nak ez semmiség. Grafikai teljesítményben közel 10X erõsebb az X1600-nál, és sokkal alkalmasabb fizikára. Emiatt szerintem a teljesítménye 10%-val is leköröz minden mást. És a G80 architektúra mellett szerintem a Physix értelmetlen. Ugyanolyan áron egy butított G80 sokkal erõsebb tud lenni.
"Az SPE-knek sem feltétlenül kell, az éppen alkalmazott metódustól függ (lásd itt)."
"Alapvetõen azért van ott a PPE, mert ugyebár a Cellnek önállóan is "el kell mennie" egy rendszerben."
Errõl van szó. A G80-nál a PPE helyett is lehet SPE, így ugyanannyi tranzisztorból nagyobb teljesítmény jön ki (ráadásul több mint 2x annyi van benne).
"Mindent tud, amit egy PPC proci"
Pont ezt mondom. a G80-nál az SPE-k lehetnek ennél egyszerûbbek, mert sokkal specializáltabb a feladatuk.
"Ezt honnan szedted?"
A Cell-ben kb. 300M tranzisztor van, a G80-ban meg közel 700M.
Álmodban, ha a HD alatt 1920x1080-at értünk: TC's Ghost Recon 66fps, F.E.A.R. 57fps, Oblivion és néhány másik még kevesebb. (Már CSAA-val ráadásul.) (Lásd pl. itt: itt.)
"Ráadásul még várható komoly javulás az újabb driver-ekkel, hiszen ez egy teljesen új architektúra. És ugye ott van a DX10, ami szintén jelentõs teljesítmény növekedést hozhat."
Már a mostani, DX9-es driverek is kihasználják az univerzális shadermagokat olyan szempontból, hogy mindig mindet igénybe veszik (vertex és pixel shader kódra).
Ha az adatcsomag-szervezési optimizálás 25%-ára gondolsz, az inkább csak procilimites helyzetben jön ki, mivel a proci munkájából jön le itt az a 25%.
"És mint mondtam, a fizikára messze nem kell a teljesítmény fele. A tizedével is lealáz egy kétmagos PC-t."
Nem ebbõl kell kiindulni, hanem abból, mire fogják belõni a fizikát. A minimumnak tekinthetõ a Physix chipje, de inkább egy annál gyorsabbnak mondott X1600.
"Érdemes olvasgatni a cikkeket róla, nagyon durva cuccos."
Már olvasgattam.
"Az alapelv lényegében ugyanaz, mint a Cell-nél, csak nem kell neki általános célú mag (helyette is még SPE-k vannak)"
Az SPE-knek sem feltétlenül kell, az éppen alkalmazott metódustól függ (lásd itt). Alapvetõen azért van ott a PPE, mert ugyebár a Cellnek önállóan is "el kell mennie" egy rendszerben.
"és a SPE-k is egyszerûbbek, mert specializáltabb a feladata."
Mindent tud, amit egy PPC proci (v. a PPE mag), csak pl. nincs branch-prediction, de nem is igazán kell, lévén egy cache-sebességû rammal dolgozik. Lásd pl. itt, mi minden van egy SPE-ben.
"És nem mellékesen több mint 2x annyi tranzisztor van benne."
Ezt honnan szedted? Mindkettõ 90nm-es, és méretre is kb. egyformák. Meg egy G80-ban még jópár dolog van a kis magokon kívül.
Azért ez még nem jellemzõ. Még a legdurvább játékok HD felbontásba erõs élsimítással is 100fps körül mennek rajta.
Ráadásul még várható komoly javulás az újabb driver-ekkel, hiszen ez egy teljesen új architektúra.
És ugye ott van a DX10, ami szintén jelentõs teljesítmény növekedést hozhat.
És mint mondtam, a fizikára messze nem kell a teljesítmény fele. A tizedével is lealáz egy kétmagos PC-t.
Érdemes olvasgatni a cikkeket róla, nagyon durva cuccos. Az alapelv lényegében ugyanaz, mint a Cell-nél, csak nem kell neki általános célú mag (helyette is még SPE-k vannak), és a SPE-k is egyszerûbbek, mert specializáltabb a feladata. És nem mellékesen több mint 2x annyi tranzisztor van benne.
Lehet, hogy nem volt jól optimalizálva GPU-ra. És egyébként a G80 fényévekkel jobb ilyen célokra.
Én is így értettem.
"Általában oda szeretik pozicionálni, ahol a legtöbb vevõ található"
Nem ilyen egyszerû. Egy játék általában egy bizonyos rétegnek szól, és ehhez kell igazítani a HW igényt.
"Ha nem csak néhány extra pöttyöt jelent a fizika, akkor nem lesz egyszerû ezt így kialakítani, mert alaposan össze kell dolgozni a grafikával."
Természetesen.
"A köv. generációban."
"Nézd meg, mekkora hatalmas chip, és mekkora hûtés kell neki"
Megnéztem, sõt vettem is egyet.
Vedd figyelembe azt is, hogy ez egy jó nagy technológiai váltás volt, és még 90nm-en gyártják. És sok helyen olvasom, hogy nemsoká 65nm-en fogják gyártani, ami valószínûleg azt jelenti, hogy emberi méretû és fogyasztású lesz.
"pedig már 80nm-es"
Ezek még 90nm-esek.
"Csak a fele a G80-nak, és te még ezt is meg akarod felezni"
A mostani közép- és alsó kategóriánál gyorsabbak lesznek a közép- és alsó kategóriás G80-ak. Tehát a mai grafikai színvonal mellé el fog férni a fizika. A fizika által igényelt teljesítmény elõször kevés, lész, és folyamatosan fog nõni, így lesz ideje alkalmazkodni a HW-nek és a fejlesztõknek is.
"A G80 nem 4x nagyobb teljesítményû, mint a mai csúcs, csak 2x."
Tehát a negyede annyi, mint a maiak fele. És a fizika messze nem viszi el a fele teljesítményt.
"Dehogynem kell, eddig is kellett."
Eddig kellett, de a DX10 és a Vista egy elgé jó választóvonal.
"GPUs vs Cell
Recently I came across a link on www.gpgpu.org that I found interesting. It described a method of ray-tracing quaternion Julia fractals using the floating point power in graphics processing units (GPUs). The author of the GPU code , Keenan Crane, stated that “This kind of algorithm is pretty much ideal for the GPU - extremely high arithmetic intensity and almost zero bandwidth usage”. I thought it would be interesting to port this Nvidia CG code to the Cell processor, using the public SDK, and see how it performs given that it was ideal for a GPU. First we directly translated the CG code line for line to C + SPE intrinsics. All the CG code structures and data types were maintained. Then we wrote a CG framework to execute this shader for Cell that included a backend image compression and network delivery layer for the finished images. To our surprise, well not really, we found that using only 7 SPEs for rendering a 3.2 GHz Cell chip could out run an Nvidia 7800 GT OC card at this task by about 30%. We reserved one SPE for the image compression and delivery task. Furthermore the way CG structures it SIMD computation is inefficient as it causes large percentages of the code to execute in scalar mode. This is due to the way they structure their vector data, AOS vs SOA. By converting this CG shader from AOS to SOA form, SIMD utilization was much higher which resulted in Cell out performing the Nvidia 7800 by a factor of 5 - 6x using only 7 SPEs for rendering. Given that the Nvidia 7800 GT is listed as having 313 GFLOPs of computational power and seven 3.2 GHz SPEs only have 179.2 GFLOPs this seems impossible but then again maybe we should start reading more white papers and less marketing hype."
link
Itt arról van szó, hogy egy gpu-s shaderként megírt speciális raytracer programot portoltak Cellre, és 5-6x gyorsabban futott a Cellen, mint elõzõleg egy 7800GT-n, pedig az utóbbinak magasabb az elvi flops értéke. (Ugye amirõl beszéltem, hogy nem csak a flops nagysága érdekes a Cellnél, hanem hogy tudás is társul hozzá.)