151
  • dez
    #111
    "Tudom, hogy mennyi a HD."

    Biztos? Azért hangsúlyoztam ki az 1920x1080-at, mert az 1280x720 is HD. Az a kisebbik HD szabvány-felbontás.

    "Viszont te elnézted, ezek az fps értékek 1920x1440-ben illetve 1920x1200-ban vannak."

    Ezek a felbontások közel esnek a fentiekhez, szabványos 1080p-ben alig lenne több.

    "És sok másik játék jóval gyorsabb."

    Na de most azokról beszélünk, amik nem. :D

    "Ezen kívül, azért ezek elég nagy felbontások, ráadásul élsimítással. Az átlag játékos 1024-ben, vagy 1280-ban játszik még.
    Aki meg nagy felbontást akar, annak meg kell fizetnie az árát (ahogy ma is)."

    Te beszéltél a nagyfelbontáson elért fps-ről. Mindenesetre egyre jobban terjednek a relatíve alacsonyabb árkategóriás 20-24"-es monitorok, kimondottan játék célra.

    "Nem erre gondoltam. Arról beszélek, hogy ez egy teljesen új architektúra, így a mostani driverek még elég kiforratlanok lehetnek."

    Mindenesetre azt már kihasználják, hogy univerzális shaderek vannak, és ez szépen kijön a sebességben. Nem hiszem, hogy ezen felül pusztán driver által (újabb) nagyságrendi ugrás következne be.

    "Főleg ha azt is nézzük, hogy itt a driverre nagyobb felelősség hárul, mert a HW sokkal rugalmasabb."

    Azért a shaderek asm kódja kötött, és már most is elég jó az Nvidia fordítója (cg-ről, HLSL-ről).

    "Gyakorlatilag a G80 egy általános célú vektor proci tömb, és szinte csak a rajta futó szoftver teszi grafikus kártyává"

    Ez így nem igaz: a kis procimagok sokmindenre használhatók, de attól még van ott sok megszokott GPU-s egység (textúra-kezelés, - filterezés, ROP-ok, AA-kezelők, stb.).

    "(a tényleges monitor vezérlő rész is külön chip-en van)."

    Valószínű nem a külön chipben van a teljes monitorvezérlés, mert ahhoz legalább 2 framebuffernek is ott kellene lennie, hogy megfelelő időzítéssel küldhesse a képet a monitor felé. Inkább csak a DAC-ok és talán a digitális DVI-kezelés van ott.

    "Nem csak arra gondoltam, a DX10 sok szempontból fejlettebb, és gyorsabb. A teljes kihasználásához kicsit át is kell írni a játékokat."

    Oké, ezt nem tagadom. Csak nem tudom, mennyivel gyorsabb, ill. mi gyorsabb. Az egy dolog, hogy az összes shader-proci használható vertex- és pixel műveletekre (ezt viszont DX9 alatt is megcsinálja, átlátszóan a DX9 számára), és SM3.0 helyett SM4.0 van, de az miben lesz jobb? Pl. kevesebbe "kerülnek" az ugrások?

    "Több lesz az 25-nél. És a poci limitesség nem olyan ritka."

    25-re emlékszem, ami ezt illeti. G80-nál, mai játékoknál csak a legnagyobb (ma elérhető) bontásokban jön ki procilimit.

    "Én is erről beszélek. Egyelőre nem tudnánk mit kezdeni a mainál sokkal erősebb fizikával. Ki kell még forrnia a dolognak."

    Hát, a mai játékokban egészen minimális a fizika, így egy normálisabb fizika máris sokkal erősebb... :) Az elő lépéseken (lásd némi pattogó pötty robbanásokkor, stb.) már azért túlvagyunk.

    "A G80-nak ez semmiség. Grafikai teljesítményben közel 10X erősebb az X1600-nál, és sokkal alkalmasabb fizikára. Emiatt szerintem a teljesítménye 10%-val is leköröz minden mást."

    Grafikai teljesítményben igen, de itt a prog. shaderteljesítményről van szó. Abban talán nem 10x gyorsabb. És ugye nem is a G80-ról volt szó, hanem annak felét, harmadát, negyedét tudó kártyákról. (Szerintem eleve nem a fele lesz a középkat., mert már a GTS is csak 2/3-a a GTX-nek, ha jól emlékszem.) "Harmad G80"-nál ugyanehhez már 30% teljesítmény kell. Nem hiszem, hogy ennyit mindenki szívesen beáldozna, az amúgy is 1/3 teljesítményből, mert úgy grafikailag nem jut előrrébb, mint volt előzőleg.

    "És a G80 architektúra mellett szerintem a Physix értelmetlen. Ugyanolyan áron egy butított G80 sokkal erősebb tud lenni."

    Ez igaz, de csak példa volt a Physix.

    "Erről van szó. A G80-nál a PPE helyett is lehet SPE, így ugyanannyi tranzisztorból nagyobb teljesítmény jön ki"

    Nem csak a tranzisztorok számától függ az, hékás!

    "Pont ezt mondom. a G80-nál az SPE-k lehetnek ennél egyszerűbbek, mert sokkal specializáltabb a feladatuk."

    De éppen ezért butácskábbak is. Így az elemi számítási műveleteken kívüli feladatok nehézkesek, lassúak lehetnek.

    "A Cell-ben kb. 300M tranzisztor van, a G80-ban meg közel 700M."

    Nem azt kértem, hogy ismételd meg, hanem hogy adj forrást. Mint én is tettem az előzőben.
  • BiroAndras
    #110
    "Álmodban, ha a HD alatt 1920x1080-at értünk: TC's Ghost Recon 66fps, F.E.A.R. 57fps, Oblivion és néhány másik még kevesebb."

    Tudom, hogy mennyi a HD. Viszont te elnézted, ezek az fps értékek 1920x1440-ben illetve 1920x1200-ban vannak. És sok másik játék jóval gyorsabb. Ezen kívül, azért ezek elég nagy felbontások, ráadásul élsimítással. Az átlag játékos 1024-ben, vagy 1280-ban játszik még.
    Aki meg nagy felbontást akar, annak meg kell fizetnie az árát (ahogy ma is).

    "Már a mostani, DX9-es driverek is kihasználják az univerzális shadermagokat olyan szempontból, hogy mindig mindet igénybe veszik (vertex és pixel shader kódra)."

    Nem erre gondoltam. Arról beszélek, hogy ez egy teljesen új architektúra, így a mostani driverek még elég kiforratlanok lehetnek. Főleg ha azt is nézzük, hogy itt a driverre nagyobb felelősség hárul, mert a HW sokkal rugalmasabb. Gyakorlatilag a G80 egy általános célú vektor proci tömb, és szinte csak a rajta futó szoftver teszi grafikus kártyává (a tényleges monitor vezérlő rész is külön chip-en van).

    "Ha az adatcsomag-szervezési optimizálás 25%-ára gondolsz"

    Nem csak arra gondoltam, a DX10 sok szempontból fejlettebb, és gyorsabb. A teljes kihasználásához kicsit át is kell írni a játékokat.

    "az inkább csak procilimites helyzetben jön ki, mivel a proci munkájából jön le itt az a 25%."

    Több lesz az 25-nél. És a poci limitesség nem olyan ritka.

    "Nem ebből kell kiindulni, hanem abból, mire fogják belőni a fizikát."

    Én is erről beszélek. Egyelőre nem tudnánk mit kezdeni a mainál sokkal erősebb fizikával. Ki kell még forrnia a dolognak.

    "A minimumnak tekinthető a Physix chipje, de inkább egy annál gyorsabbnak mondott X1600."

    A G80-nak ez semmiség. Grafikai teljesítményben közel 10X erősebb az X1600-nál, és sokkal alkalmasabb fizikára. Emiatt szerintem a teljesítménye 10%-val is leköröz minden mást. És a G80 architektúra mellett szerintem a Physix értelmetlen. Ugyanolyan áron egy butított G80 sokkal erősebb tud lenni.

    "Az SPE-knek sem feltétlenül kell, az éppen alkalmazott metódustól függ (lásd itt)."

    "Alapvetően azért van ott a PPE, mert ugyebár a Cellnek önállóan is "el kell mennie" egy rendszerben."

    Erről van szó. A G80-nál a PPE helyett is lehet SPE, így ugyanannyi tranzisztorból nagyobb teljesítmény jön ki (ráadásul több mint 2x annyi van benne).

    "Mindent tud, amit egy PPC proci"

    Pont ezt mondom. a G80-nál az SPE-k lehetnek ennél egyszerűbbek, mert sokkal specializáltabb a feladatuk.

    "Ezt honnan szedted?"

    A Cell-ben kb. 300M tranzisztor van, a G80-ban meg közel 700M.
  • dez
    #109
    "Azért ez még nem jellemző. Még a legdurvább játékok HD felbontásba erős élsimítással is 100fps körül mennek rajta."

    Álmodban, ha a HD alatt 1920x1080-at értünk: TC's Ghost Recon 66fps, F.E.A.R. 57fps, Oblivion és néhány másik még kevesebb. (Már CSAA-val ráadásul.) (Lásd pl. itt: itt.)

    "Ráadásul még várható komoly javulás az újabb driver-ekkel, hiszen ez egy teljesen új architektúra. És ugye ott van a DX10, ami szintén jelentős teljesítmény növekedést hozhat."

    Már a mostani, DX9-es driverek is kihasználják az univerzális shadermagokat olyan szempontból, hogy mindig mindet igénybe veszik (vertex és pixel shader kódra).

    Ha az adatcsomag-szervezési optimizálás 25%-ára gondolsz, az inkább csak procilimites helyzetben jön ki, mivel a proci munkájából jön le itt az a 25%.

    "És mint mondtam, a fizikára messze nem kell a teljesítmény fele. A tizedével is lealáz egy kétmagos PC-t."

    Nem ebből kell kiindulni, hanem abból, mire fogják belőni a fizikát. A minimumnak tekinthető a Physix chipje, de inkább egy annál gyorsabbnak mondott X1600.

    "Érdemes olvasgatni a cikkeket róla, nagyon durva cuccos."

    Már olvasgattam.

    "Az alapelv lényegében ugyanaz, mint a Cell-nél, csak nem kell neki általános célú mag (helyette is még SPE-k vannak)"

    Az SPE-knek sem feltétlenül kell, az éppen alkalmazott metódustól függ (lásd itt). Alapvetően azért van ott a PPE, mert ugyebár a Cellnek önállóan is "el kell mennie" egy rendszerben.

    "és a SPE-k is egyszerűbbek, mert specializáltabb a feladata."

    Mindent tud, amit egy PPC proci (v. a PPE mag), csak pl. nincs branch-prediction, de nem is igazán kell, lévén egy cache-sebességű rammal dolgozik. Lásd pl. itt, mi minden van egy SPE-ben.

    "És nem mellékesen több mint 2x annyi tranzisztor van benne."

    Ezt honnan szedted? Mindkettő 90nm-es, és méretre is kb. egyformák. Meg egy G80-ban még jópár dolog van a kis magokon kívül.
  • BiroAndras
    #108
    "Viszont néhány játékhoz már a G80 fele is eleve kevés kezd lenni"

    Azért ez még nem jellemző. Még a legdurvább játékok HD felbontásba erős élsimítással is 100fps körül mennek rajta.
    Ráadásul még várható komoly javulás az újabb driver-ekkel, hiszen ez egy teljesen új architektúra.
    És ugye ott van a DX10, ami szintén jelentős teljesítmény növekedést hozhat.
    És mint mondtam, a fizikára messze nem kell a teljesítmény fele. A tizedével is lealáz egy kétmagos PC-t.
    Érdemes olvasgatni a cikkeket róla, nagyon durva cuccos. Az alapelv lényegében ugyanaz, mint a Cell-nél, csak nem kell neki általános célú mag (helyette is még SPE-k vannak), és a SPE-k is egyszerűbbek, mert specializáltabb a feladata. És nem mellékesen több mint 2x annyi tranzisztor van benne.
  • dez
    #107
    Érdekes lesz majd megnézni az eredményeket G80-nal, az utóléri-e majd a Cellt.
  • dez
    #106
    Nem hinném, hogy az lenne a helyzet, eleve a GPU-k képességeinek demonstrálására készült Nvidiás fejlesztő által, és ráadásul eleve ideális feladat GPU-knak.
  • dez
    #105
    Ha nem kell a fele teljesítmény a fizikára, az jó. Viszont néhány játékhoz már a G80 fele is eleve kevés kezd lenni, pedig pont az ilyen "csúcsjátékokban" várna az ember először jobb fizikát is.
  • BiroAndras
    #104
    "Itt arról van szó, hogy egy gpu-s shaderként megírt speciális raytracer programot portoltak Cellre, és 5-6x gyorsabban futott a Cellen, mint előzőleg egy 7800GT-n"

    Lehet, hogy nem volt jól optimalizálva GPU-ra. És egyébként a G80 fényévekkel jobb ilyen célokra.
  • BiroAndras
    #103
    "Elsősorban nem a képzettségtől függ (bár tudom, a diplomások szeretik ezt hangsúlyozni) a dolog, hanem a képességektől, tehetségtől."

    Én is így értettem.

    "Általában oda szeretik pozicionálni, ahol a legtöbb vevő található"

    Nem ilyen egyszerű. Egy játék általában egy bizonyos rétegnek szól, és ehhez kell igazítani a HW igényt.

    "Ha nem csak néhány extra pöttyöt jelent a fizika, akkor nem lesz egyszerű ezt így kialakítani, mert alaposan össze kell dolgozni a grafikával."

    Természetesen.

    "A köv. generációban."

    "Nézd meg, mekkora hatalmas chip, és mekkora hűtés kell neki"

    Megnéztem, sőt vettem is egyet.
    Vedd figyelembe azt is, hogy ez egy jó nagy technológiai váltás volt, és még 90nm-en gyártják. És sok helyen olvasom, hogy nemsoká 65nm-en fogják gyártani, ami valószínűleg azt jelenti, hogy emberi méretű és fogyasztású lesz.

    "pedig már 80nm-es"

    Ezek még 90nm-esek.

    "Csak a fele a G80-nak, és te még ezt is meg akarod felezni"

    A mostani közép- és alsó kategóriánál gyorsabbak lesznek a közép- és alsó kategóriás G80-ak. Tehát a mai grafikai színvonal mellé el fog férni a fizika. A fizika által igényelt teljesítmény először kevés, lész, és folyamatosan fog nőni, így lesz ideje alkalmazkodni a HW-nek és a fejlesztőknek is.

    "A G80 nem 4x nagyobb teljesítményű, mint a mai csúcs, csak 2x."

    Tehát a negyede annyi, mint a maiak fele. És a fizika messze nem viszi el a fele teljesítményt.

    "Dehogynem kell, eddig is kellett."

    Eddig kellett, de a DX10 és a Vista egy elgé jó választóvonal.
  • dez
    #102
    BiroAndras (és mások) figyelmébe (akit érdekel).

    "GPUs vs Cell

    Recently I came across a link on www.gpgpu.org that I found interesting. It described a method of ray-tracing quaternion Julia fractals using the floating point power in graphics processing units (GPUs). The author of the GPU code , Keenan Crane, stated that “This kind of algorithm is pretty much ideal for the GPU - extremely high arithmetic intensity and almost zero bandwidth usage”. I thought it would be interesting to port this Nvidia CG code to the Cell processor, using the public SDK, and see how it performs given that it was ideal for a GPU. First we directly translated the CG code line for line to C + SPE intrinsics. All the CG code structures and data types were maintained. Then we wrote a CG framework to execute this shader for Cell that included a backend image compression and network delivery layer for the finished images. To our surprise, well not really, we found that using only 7 SPEs for rendering a 3.2 GHz Cell chip could out run an Nvidia 7800 GT OC card at this task by about 30%. We reserved one SPE for the image compression and delivery task. Furthermore the way CG structures it SIMD computation is inefficient as it causes large percentages of the code to execute in scalar mode. This is due to the way they structure their vector data, AOS vs SOA. By converting this CG shader from AOS to SOA form, SIMD utilization was much higher which resulted in Cell out performing the Nvidia 7800 by a factor of 5 - 6x using only 7 SPEs for rendering. Given that the Nvidia 7800 GT is listed as having 313 GFLOPs of computational power and seven 3.2 GHz SPEs only have 179.2 GFLOPs this seems impossible but then again maybe we should start reading more white papers and less marketing hype."

    link

    Itt arról van szó, hogy egy gpu-s shaderként megírt speciális raytracer programot portoltak Cellre, és 5-6x gyorsabban futott a Cellen, mint előzőleg egy 7800GT-n, pedig az utóbbinak magasabb az elvi flops értéke. (Ugye amiről beszéltem, hogy nem csak a flops nagysága érdekes a Cellnél, hanem hogy tudás is társul hozzá.)
  • dez
    #101
    Ja, egyesek egyenesen a hitelességét is kétségbe vonták, mert egyrészt semmi olyat nem írt, amit bárki ne tudhatna, aki akár távolabbról ismeri a két gép specifikációit. Meg ilyen butaságok vannak benne, hogy a Cell SPE-i még több évig nem lesznek kihasználva (és ilyen alapon az x360 3 ált. magja veri a Cell 1 ált. magját). Pedig PS3-on eleve adott pl. egy SPE(-k?) által számolt fizikai motor, amit talán már most is felhasználnak pár fejlesztésben, miközben ilyen lehetőség és kapacitás nem adott az x360-ban, azaz jóval gyengébb lesz pl. fizikában. De nem nehéz egyéb feladatokat is találni a Cellnek, és nem olyan nagy ördöngősség leprogramozni sem, mint egyesek hiszik, vagy próbálják beállítani.
  • dez
    #100
    Ez nem csak más forrás, másról is szól. :) Egyébként igen, a fejlesztők egy része így gondolja. Egy másik részük meg máshogy. (Pl. a beyond3d.com-on, ami egy független 3d-grafikai és programozási fórum, kissé biased-nek nevezték ezt.)
  • dez
    #99
    "Erről már írtam. Az ember képzettségétől is függ, hogy mennyi idő alatt tudja megírni. Mag az, hogy egyáltalán meg tudja-e írni."

    1. Nyilván, de jobb helyeken ezzel arányosan drágább is az ideje.
    2. Elsősorban nem a képzettségtől függ (bár tudom, a diplomások szeretik ezt hangsúlyozni) a dolog, hanem a képességektől, tehetségtől.

    "Az tudod úgy van, hogy a nyugati fizetések sokszorosak, a motor ára viszont ugyanaz, így nekik természetesen kevésbbé éri meg a saját feljesztés."

    Tudom, pont ezt magyarázom.

    "Az meg hogy mi a kicsi és a nagy cég teljesen relatív.

    Nyilván, ezért kell viszonyítani.

    "Attól függ, hova pozícionálják a játékot."

    Általában oda szeretik pozicionálni, ahol a legtöbb vevő található... :)

    "Most is be kell lőni egy csomó fix dolgot (pl. AI), többnyire csak a grafika minőségét tudja a júzer állítgati."

    Akkor ezután azt is be kell majd állítani, milyen elemszámú legyen a particle system? Ha nem csak néhány extra pöttyöt jelent a fizika, akkor nem lesz egyszerű ezt így kialakítani, mert alaposan össze kell dolgozni a grafikával.

    "A köv. generációban."

    A köv. generációban még nem hiszem. Nézd meg, mekkora hatalmas chip, és mekkora hűtés kell neki, pedig már 80nm-es, azaz az GPU-gyártók jelenlegi legfejlettebb technológiája.

    "De addig is itt lesznek a G80 közép- és alsókategóriás változatai, amik épp elég gyorsak."

    Csak a fele a G80-nak, és te még ezt is meg akarod felezni, ami által csak annyi marad grafikára, mint ami ma a középkategória, és hamarosan az alsó.

    "Az a negyedelt teljesítmény is több, mint ami ma van."

    Dehogy. A G80 nem 4x nagyobb teljesítményű, mint a mai csúcs, csak 2x. Vagy adott esetben kevesebbszer.

    "Tudásban pedig megegyeznek a legerősebbel. Nagyon Sokat segít az is, hogy nem kell a régi hardverre is optimalizálni. Pl. lehet csak 4.0 shader-eket használni."

    Dehogynem kell, eddig is kellett.
  • muerte2
    #98
    ezt is érdemes megnézni más forrás. :
    http://www.hardcoreware.net/reviews/review-348-1.htm
  • dez
    #97
    Ez egy már rég lefutott dolog, rögtön utána több fejlesztő cáfolta, amit ez az idióta Charlie Demerjian összehordott, teljesen félreértelmezve azt a táblázatot. A Local memory nem a Cell belső ramjai, hanem a grafikus memória. Néha persze hasznos lenne, ha gyorsabb lenne a hozzáférés a Cell által, de a fejlesztők szerint ennek alig van jelentősége, mert nem szokás procival túrkálni a grafikus ramban, hanem inkább a GPU-val szokás hozzáférni a main ramhoz. Azt is mondták, hogy a triangle setup gyorsaságának eltérése a két gép között nem okoz akkora különbséget a két gép között, mint amit ez a pojáca neki tulajdonít.
  • muerte2
    #96
    Egy érdekes cikk:

    PS3 hardware slow and broken

    In words and pictures

    By Charlie Demerjian in Taipei: Monday 05 June 2006, 03:35
    AFTER BREAKING THE news to me about PS3 RSX speeds earlier on the flight to Japan, my row-mate said 'if you think that's interesting, wait till you see this. Cell is hurting, badly'.

    For those of you that believe in religions with karmic tendencies, scoops like this meant one of two things, the wings of the plane are about to fall off and I am going to die in a fiery ball, or worse yet, the movie selection will be worrisome. Cell memory access appears to be broken, RSX has half the triangle setup rate of the ATI chip in XBox360, and the true horror, Big Momma's House 2 and a Queen Latifa movie.

    With the movie selection still making my brain throb from the glances I caught, I furiously took notes on what the source was saying. He started out saying that the RSX can only write about half as much vertex data as it can fetch, not an ideal situation by any stretch, but survivable.

    Then came the horrible news, RSX appears to be limited to setting up 275 Million triangles/second, anemic compared to the 500+ million in XBox360. When asked about this apparent thumping dished out by MS, the reply from one notable ISV relations boffin was a terse 'What a Piece of Junk'. Talk about a steak in the heart.

    Half the triangle setup capability in the PS3, could things get worse? Yes, far far worse, how about another disparity of three orders of magnitude? No, I am not joking, looking at Sony's own figures, Cell appears to be pretty badly broken.



    For main memory, it looks like Cell has about 25GBps of main memory bandwidth, and RSX is about 15-20GBps. Achievable bandwidth is between about two thirds of that and nearly 100%, clearly the elves in the caves surrounding Rambus central did something right with XDR. That is the happy news.

    For local memory, the measured vs theoretical bandwidth is missing, I wonder why? RSX is at a solid 22.4GBps for both read and write, good job there green team. Then comes the blue team with Cell. Local memory write is about 4GBps, 40% of the next slowest bandwidth there. Then comes the bomb from hell, the Cell local memory read bandwidth is a stunning 16MBps, note that is a capital M to connote Mega vs a capital G to connote Giga. This is a three order of magnitude oopsie, and it is an oopsie, as Sony put it "(no, this isn't a typo...)".

    If you can write at 250x the read speed, it makes Cell local memory just about useless. That means you do all your work out of main memory, and the whole point of local is, well, pointless. This can lead to contention issues for the main memory bus, and all sorts of nightmarish to debug performance problems. Basically, if this Sony presentation to PS3 devs shown to us is correct, it looks like PS3 will be hobbled in a serious way.

    The next slide goes on to say "Don't read from local memory, but write to main memory with RSX(tm) and read it from there instead", and repeats the table numbers. This is very very bad. The number of times the presentation goes on to say that it is correct, and the lack of anything like "this will be fixed by production steppings, so take measures X, Y and Z" say to me that it is not a fixable snafu. Remember at E3 when I said that the PS3 demos there were object sparse? Any guesses why?

    Someone screwed up so badly it looks like it will relegate the console to second place behind the 360. All the devs I talked to were lukewarm on the 360 architecture but universally negative on the PS3. Revelations like this go a long way to explain why you keep hearing about simmering problems from the Sony devs.

    You end up with a console with half the triangle setup rate of the 360, a crippled CPU that is a bitch to program, and tools that are atrocious compared to the 360. To make matters worse, you have an arrogant set of execs telling us that twice the price is worth it for half the power, a year late. If it isn't already too late, Sony had better do something about this recto-cranial inversion or it may very well sink the console. µ



  • BiroAndras
    #95
    "Nem, attól függ, mennyibe kerül az ideje."

    Erről már írtam. Az ember képzettségétől is függ, hogy mennyi idő alatt tudja megírni. Mag az, hogy egyáltalán meg tudja-e írni.

    "Hát, ti vagy igen nagy cég vagytok, ami ugye nem valószínű, vagy egy apró cég apró fizetésekkel. A külföldi cégek többsége a kettő között van, és láss csodát, legtöbben fejlett fizikához a Havok motort használják."

    Az tudod úgy van, hogy a nyugati fizetések sokszorosak, a motor ára viszont ugyanaz, így nekik természetesen kevésbbé éri meg a saját feljesztés.
    Az meg hogy mi a kicsi és a nagy cég teljesen relatív.

    "Na, egy pillanat. Milyen kártyáról van egyátalán szó? Milyen kártyára akarod belőni? Középkategória? Felső-közép? Felső? Csúcs? Nem igazán mindegy, mivel a fizika ugyanaz marad, miközben a kívánt felbontás és egyéb beállítások függvényében változik a szükséges kártya."

    Attól függ, hova pozícionálják a játékot. Most is be kell lőni egy csomó fix dolgot (pl. AI), többnyire csak a grafika minőségét tudja a júzer állítgati.

    "Viszont nem tudom, mikor lesz 700 millió tranyó egy középkat. gpu-ban."

    A köv. generációban. De addig is itt lesznek a G80 közép- és alsókategóriás változatai, amik épp elég gyorsak.

    "Na persze, ki fog jönni közép- és alsókat. változat - felezett, negyedelt teljesítménnyel."

    Az a negyedelt teljesítmény is több, mint ami ma van. Tudásban pedig megegyeznek a legerősebbel. Nagyon Sokat segít az is, hogy nem kell a régi hardverre is optimalizálni. Pl. lehet csak 4.0 shader-eket használni.
  • dez
    #94
    (A 8 speciális magból 1 bizonyos okokból le van tiltva, 1-et meg az alap-OS használ fel különféle feladatokra, így 6 áll rendelkezésre a programoknak.)
  • dez
    #93
    Hát az úgy volt, hogy réges régen még egy proci egy magból állt. Aztán egyszercsak jöttek a két proci egy tokba - jobb esetben egy lapkára - helyezésével születő dual-core procik. Aztán a 4 magosok, és így tovább. A Cell meg egy 9 magos chip (1 hagyományos és 8 speciális). Naszóval összebújtak egy nagy prociba. :)

    Gondolj, amit akarsz, de az 5-600 dolláros szám, mint veszteség, irracionálisan sok. Bár korábban ezt hozta ki egy pancser elemző is (azért pancser, mert neki az lenne a dolga, hogy jól tájékozott legyen, és valamennyire értse is, miről van szó), de azóta mások közelebb vitték ezt a valósághoz.

    Mellesleg ha komoly vesztesége lenne a Sonynak minden darabon, minden eszközzel meggátolná az idegen oprendszerek használatát, mivel aki másra használja a gépet, mint gyári játékok és blu-ray filmek nézegetése, véglegesítené a veszteséget azon a gépen. (Most nem azokról beszélek, akik csak poénból teszik fel.)
  • Malbeth
    #92
    Szia dez!
    nem akartalak megbántani..bocsi!
    A ps3-ban csak 1 db Cell proci van???És a másik 6-7 proci amiről beszéltek régebben az micsoda.
    Én kitartok azon álláspontom melett,hogy a Sonyi minden eggyes eladott PS3-on bukik 500-600 dollárt,és ezért van szarban...Az már viszont tuti biztos,hogy márciusban nem lesz Európában a PS3..Erre nagy tétben mernék fogadni!A PS3 totális bukására azért még nem!
  • dez
    #91
    Tudom, de ettől nem lesz többszázszor drágább az előállítás. A kifejleszés és a gyártósor sokba kerül, de utána egy-egy lézerdióda előállítása már um. fillérekbe kerül (persze forgalmazáskor nem ez számít). Tehát, nem sokat számít költség szempontból, összegszerűleg, hogy pl. 8-ból 2 jó. Ha 100-ból, v. 1000-ből 1 jó, az már kezd.
  • dez
    #90
    Mármint mik a friss számok? És ki garantája, hogy ezek már a valósak?
  • dez
    #89
    "Attól függ, van-e megfelelő képzettségű emberük."

    Nem, attól függ, mennyibe kerül az ideje. Nem 2 nap egy ilyet kidolgozni, megírni, ráadásul úgy, hogy a gpu-s gyorsítást is bele lehessen tenni, stb. (Nem valami alap fizikáról beszélünk.)

    "Nálunk olcsóbbra jött ki a saját fejlesztés, mint ha vettünk volna motort. Ráadásul gyorsabb is, és teljesen a mi igényeinkre van szabva.
    Egyébként nem is kell egyben megírni vagy átírni, lehet fokozatosan átterhelni a számolásokat a GPU-ra."

    Hát, ti vagy igen nagy cég vagytok, ami ugye nem valószínű, vagy egy apró cég apró fizetésekkel. A külföldi cégek többsége a kettő között van, és láss csodát, legtöbben fejlett fizikához a Havok motort használják.

    "Egyszerűbb, de nem feltétlen olcsóbb. Ha a cégnek van rá erőforrása, érdemes lehet sajátot írni. Ha több játékhoz is tudja használni, akkor biztosan megéri."

    Lehetséges, de talán nem az itthoni bérezésből kellene kiindulni.

    "Persze, de át lehet írni GPU-ra, ha eljön az ideje."

    Az nem olyan egyszerű, és ésszerű eleve úgy tervezni az egészet.

    "Nem lehet (céges policy)."

    Ilyenről még nem hallottam, pedig van néhány játékfejlesztő ismerősöm, de mindegy.

    "Megírni is. Egyszerűen úgy kell belőni a garfikát és a fizikát is.
    Most a CPU-t kell megosztani ezer féle feladat közt, ugyanezt kell csinálni a GPU-nál is."

    Na, egy pillanat. Milyen kártyáról van egyátalán szó? Milyen kártyára akarod belőni? Középkategória? Felső-közép? Felső? Csúcs? Nem igazán mindegy, mivel a fizika ugyanaz marad, miközben a kívánt felbontás és egyéb beállítások függvényében változik a szükséges kártya.

    "Idővel lemegy az ára."

    Nem jellemző, inkább kivonják a forgalomból. Tehát az már valami újabb cucc középkat. változata lesz. Viszont nem tudom, mikor lesz 700 millió tranyó egy középkat. gpu-ban. Talán ha ők is átállnak 65nm-re, ami nem holnap lesz. Még csak most jött el a 80.

    "Meg adnak ki közép- és alsókategóriás cuccokat is baráti áron. A DX10-es játékoknál meg lehet ezt lépni, amert azokhoz úgyse jók a régi kártyák, így adott a szükséges technológia, és teljesítmény."

    Na persze, ki fog jönni közép- és alsókat. változat - felezett, negyedelt teljesítménnyel. Talán csak 2-3 év múlva lesz a középkategóriában a G80-nak megfelelő chip.
  • Inquisitor
    #88
    "És most attól, hogy a kéklézer dióda újdonság, még az előállítási költsége nem lesz ennek többszázszorosa. Csak esetleg másoknak adják annyiért."

    Jól hangzik, de ha igazak a hírek, 10-ből 2 jó csak a legyártottból, valószinüleg "picit" nehezebb legyártani mint a vöröslézeres kistesót. Nagyjából ilyen vagy rosszabb kihozatala volt a Cell procinak is, ezek pedig belejátszanak az árba. Meg a LED probléma miatt (is?) csúszott a megjelenés/gyártás.
  • Inquisitor
    #87
    Akire te gondolsz, az ilyen 1200 dolláros árral számolt és 4-600 dollár bukta per darabbal. Ezek driss és reális számok, talán két hetesek sincsenek.
  • BiroAndras
    #86
    "De nem sok játékfejlesztő cég engedheti meg magának, hogy félévek alatt GPU-támogatású saját fizikát írjon"

    Attól függ, van-e megfelelő képzettségű emberük. Nálunk olcsóbbra jött ki a saját fejlesztés, mint ha vettünk volna motort. Ráadásul gyorsabb is, és teljesen a mi igényeinkre van szabva.
    Egyébként nem is kell egyben megírni vagy átírni, lehet fokozatosan átterhelni a számolásokat a GPU-ra.

    "sokkal egyszerűbb egy létező motor API-ját használni, amely motor alacsony szinten azt használja, amit beállítanak a lehetőségek függvényében (osztott GPU, 2. GPU, osztott CPU, 2. CPU mag)."

    Egyszerűbb, de nem feltétlen olcsóbb. Ha a cégnek van rá erőforrása, érdemes lehet sajátot írni. Ha több játékhoz is tudja használni, akkor biztosan megéri.

    "Ja, múltkor még azt mondtad, CPU-ra készül a motorotok."

    Persze, de át lehet írni GPU-ra, ha eljön az ideje.

    "Egyébként már ideje lenne elárulnod, ki az a "mi"..."

    Nem lehet (céges policy).

    ""A játékokat kell úgy megírni, hogy mindkét feladatra elég legyen egy kártya."
    Mondani könnyű..."

    Megírni is. Egyszerűen úgy kell belőni a garfikát és a fizikát is.
    Most a CPU-t kell megosztani ezer féle feladat közt, ugyanezt kell csinálni a GPU-nál is.

    "Ez egy G80 esetén már-már adottnak tekinthető, csak épp nézd meg az árát is, és valószínű, hogy ezt nem fogják fél áron adni jövőre sem..."

    Idővel lemegy az ára. Meg adnak ki közép- és alsókategóriás cuccokat is baráti áron. A DX10-es játékoknál meg lehet ezt lépni, amert azokhoz úgyse jók a régi kártyák, így adott a szükséges technológia, és teljesítmény.
  • dez
    #85
    Gondolom, a lézerfejre gondolsz, mert egy stepper-motor kb. 50 forint, egy fémkeret meg 5. :)
    Nos egy PS2-höz való lézerfej bolti ára kb. 8eFt, előállítási ára ennek töredéke. És most attól, hogy a kéklézer dióda újdonság, még az előállítási költsége nem lesz ennek többszázszorosa. Csak esetleg másoknak adják annyiért.
    (Egyébként egy komplett meghajtóban vannak custom chipek is, az is benne van jópár dollárban.)
  • Sanyix
    #84
    Nemnagyon jelent az semmit, mert egy meghajtó árát 80%-ban ezek adják.
  • dez
    #83
    (Ja, mellesleg a PS3-ba nem egy különálló BRD player van beépítve mindenestül, csak természetesen egy lézerfej, egy stepper-motor, és némi fémkeret...)
  • dez
    #82
    "Nem erre gondoltam, hanem hogy a játék fejlesztő cég ír saját fizikát (mint pl. mi). Nem egy rettenetes nehéz dolog."

    Pontosan ezt jelentette az első mondat... De nem sok játékfejlesztő cég engedheti meg magának, hogy félévek alatt GPU-támogatású saját fizikát írjon - sokkal egyszerűbb egy létező motor API-ját használni, amely motor alacsony szinten azt használja, amit beállítanak a lehetőségek függvényében (osztott GPU, 2. GPU, osztott CPU, 2. CPU mag).
    Ja, múltkor még azt mondtad, CPU-ra készül a motorotok. Nem 2 nap átírni GPU-ra... Egyébként már ideje lenne elárulnod, ki az a "mi"... Más fejlesztők nem ilyen titkolózók ám...

    "A játékokat kell úgy megírni, hogy mindkét feladatra elég legyen egy kártya."

    Mondani könnyű...

    "Ezt majd a piac eldönti. De szerintem 2 kártyát nehéz lesz megvetetni az emberekkel (de egy kártyán lehet több GPU). Egyébként hatékonyabb egy 1 GPU-ba rakni a szükséges teljesítményt, mert akkor az aktuális feladathoz lehet igazítani a teljesítmény megoszlását a grafika és a fizika közt."

    Ez egy G80 esetén már-már adottnak tekinthető, csak épp nézd meg az árát is, és valószínű, hogy ezt nem fogják fél áron adni jövőre sem...
  • dez
    #81
    Nos, az a "mondjuk 200 dollár" nyugodtan lehet 150 is, az sem kevés, mint gyártási alapköltség. Elemzők (leginkább egy elemző, aki köztudottan Sony-ellenes) mire tippeltek? 250 meg 350 dollárra, ami nevetségesen sok...
  • BiroAndras
    #80
    "Na ja, írtak fizika motorokat, meg írtak különféle alkalmazásokat a gpgpu keretében, de túl sok gpu alapú 3rd party komplett fizika-motor fejlesztésről tudok, ami teljesen kompatibilis az elterjedt szabványokkal."

    Nem erre gondoltam, hanem hogy a játék fejlesztő cég ír saját fizikát (mint pl. mi). Nem egy rettenetes nehéz dolog.

    "If the game being played, at the resolution the user selects, is able to render more frames than necessary per second than required for adequate visual quality, the extra GPU cycles can be utilized in physics calculations."

    A játékokat kell úgy megírni, hogy mindkét feladatra elég legyen egy kártya.

    "An even better solution, for the user and for ATI, is that you have two ATI GPUs that can split the rendering and physics calculations between the two different cards."

    Ezt majd a piac eldönti. De szerintem 2 kártyát nehéz lesz megvetetni az emberekkel (de egy kártyán lehet több GPU). Egyébként hatékonyabb egy 1 GPU-ba rakni a szükséges teljesítményt, mert akkor az aktuális feladathoz lehet igazítani a teljesítmény megoszlását a grafika és a fizika közt.

    Nézhetjük úgy is, hogy a játékossal egy adott értékű konfigot lehet megvetetni. Ha ez két videokártyát jelent, akkor azoknak olcsóbbaknak kell lenniük, tehát nem kapunk plusz teljesítményt. Sőt az egykártyás megoldás lesz a nagyobb teljesítményű, hiszen egy csomó elektronikát le lehet spórolni. Több GPU-nak lehet értelme, mert a magméret korlátozott a gyártástechnológia miatt, de ezeket a GPU-kat is olcsóbb egy kártyára rakni (Pl. 2 7950-es GPU egy kártyán 150.000Ft, 1 GPU-val 130.000Ft).
  • muerte2
    #79
    Hú gyerekek minek ez baromii nagy ellenségeskedés. (Leírtam elsőre. :) )
    Azt hiszem a BR meghajtó a SONY-nak is 200-400 dollár között van már nem emlékszem mennyiről szólt a fáma, legyen mondjuk 200, a CELL arhitectura (Nem a vektoros műveletvégző egységek száma a fontos. :) ) szerintem megint nem több 200 dolcsinál, ezeken felül a költségekhez hozzátartozik a többi egyéb alkatrész, mondjuk még 100 dolcsi. Ez eddig 500 dolcsi, úgy hogy nagyon soványan és csak az előállítási kötségeket számoltam, nem számoltam a fejlesztési költségeket, az esetleges szabványok utáni jogdíjakat, marketing költségeket, stb, ami majd a végén megadja, hogy 1-1gép előállítása a boltbakerülésig mennyibe is kerül. Mire a kalkuláció végére ér a SONY 1-1 gépen simán bukhat 100-200dollárt is, na de ezzel kalkuláltak is, nem hiszem hogy ez meglepetést okozna nekik.
  • dez
    #78
    Először is, most ki a szád, ha velem beszélsz. Másodszor, kurvára nem te fogod megmondani, én mit képzeljek. Javasolhatsz. Harmadszor, kurvára nem érdekel, SZERINTED mennyi egy BD meghajtó. Úgy tűnik, fingos sincs róla valójában, mennyibe kerül a gyártónak az, amit te x-ért megveszel a boltban. Negyedszer, bazzeg, te még azt sem tudod, mi az a Cell, és mennyi van belőle a PS3-ban. 1db. Ennyit az információidról.
  • Malbeth
    #77
    "Épp tegnap írtam neked, hogy szerintem valójában nincs is a PS3-on veszteség. (Jóval olcsóbban szerezhetik be vagy gyárt(at)hatják az alkatrészeket az elemzők által megadottnál."

    Te meg vagy borulva!!!Nemhogy nincs veszteség a ps3-on,hanem sokkal nagyobb a veszteség,mint amiről álltalában a cikkekben beszélnek...
    Nem 200-300 dollárt bukik a Sony minden darab után,hanem ennek minimum a dupláját és akkor még óvatos voltam (tehát500-600 dolcsit)! Jobb lesz ha visszatérsz a földre,és nem képzelegsz ekkora marhaságokat!
    Mitgondolsz az a kibaszott blu-ray meghajtó mennyibe kerülhet (sztem úgy 100,000 Ft lehet,ha óvatos vagyok).Nem véletlenül hagyta el Bill Gates az amúgy a Br. meghajtónál jóval olcsóbb Hd-DVD-t az Xbox360-ból.És azok az agyonmagasztalt,híresneves cell processzorok (nem is tudom pontosan mennyi van belőlük a ps-ben,7 v.8??)mennyibe kerülhetnek,de csak számolj egy nevetségesen alacsony 15.000 forintos árral...mindjárt kapsz egy szép 120.000 ft-os összeget csak a procikra.Az Nvidia kártyáról,és a többi cuccról már ne is beszéljünk!!
    Az egész Ps3-as üzleti koncepciót elbaszta a sony...,de ez nem egyedi...volt már ilyen a történelemben! Szerintem az is csak kacsa,hogy a bluray diódák gyártása miatt akadozik a ps szállítása...
    Szerintem egyszerűen anyagilag nem tudnak ennél több ps3-as gyártását finanszírozni.Ebből még kurvanagy bukás lehet...
  • dez
    #76
    Erre is érvényes az átmeneti állapot. Jópár "nyitó cím" késik (talán arra számítottak, hogy úgyis késik majd a PS3 is), sok más játék meg eleve rajt utánra volt téve, tehát ilyen január-február. 1-2 játékot lemondtak (pl. "GT HD" - viszont jön a köv. verzió), ettől még nem dől össze a világ.

    (Épp tegnap írtam neked, hogy szerintem valójában nincs is a PS3-on veszteség. (Jóval olcsóbban szerezhetik be vagy gyárt(at)hatják az alkatrészeket az elemzők által megadottnál.) Persze jól hangzik ez a veszteségesdi, így a vevők úgy érezhetik, sokkal nagyobb értékű cuccot kapnak, mint amennyit fizetnek. Ez persze csak az én véleményem, de ehhez tartom magam.)
  • dez
    #75
    Nos, kicsit még nézelődtem a témában, és azt találtam (nem volt nehéz), hogy az Nvidia-féle megoldás is mehet egy GPU-n. Eddig azt hittem, közvetlenül kezelik a GPU-t, de mégsem, hanem a DX-en keresztül megy ez is. (link)
  • Inquisitor
    #74
    "Most a PS3-ból hiány van, ami remélhetőleg csak átmeneti."
    De akkornem értettél meg, nem csak a PS3-ból van hiány, hanem normális játékokból rá!
    Nagyjából elment kb. 1 millió Wii és átlag 2,5 játékkal adták el őket, a PS3 esetén jó ha az 1,5-öt eléri az index. Na most minden eladott Wii-n jön be haszon, a PS3-on meg ugye vesztesség van, ha ehhez hozzáveszed az eladott konzolokat és az eladott játékokat, akkor elég gázos mérleg jön ki.

    Be lett harangozva egy halom játék ami PS3 only, és úgy néz ki, hogy lemászik a képről, erre sehol sincsenek, elhalasztódtak, nem PS only-ra váltottak vagy simán rondábbak lettek, mert nem volt elég idő optimalizálni őket és vissza kellett venni a részletességből.
  • muerte2
    #73
    Pont ez a marha nagy gonda SONY-nál, hogy akkora a huiány hogy itt még nagyon sokáig nem lessz megfelelő készlet. A jelek szerint a Japán és az amerikai piacon is fél év mire valamelyest el tudják látni a korai vásárlókat, itt meg még ugye meg sem jelent, majd valamikor 2007-ben és gyanítom hogy először azokat a területeket szeretnék ellátni, ahol már debütált a gép, a baromi sok előrendelésről nem is beszélve.
    Szó mi szó, a megjelenést nagyon elcseszerintette a cég és ebből kijönni nagy veszteségek árán lehet csak, ami még ront a helyzetükön. Bár én sosem szerettem a SONY termékeit a régi walkman-okat leszámítva. Remélem, hogy megmarad a cég és még csinál 1-2 konzolt a piac kiegyensúlyozása miatt.
    A BOX360 melegedéséről annyit, hogy igen gond, főleg a régebbi kiadásoknál. Ettől függetlenül nekem pl egy 2006.06.-előtt kiadot gépem van amiben nincs hűtés megtuningolva, ennek ellenére a GoW és a Deadrising sem sütötte meg a gépet hosszas játék után sem, pedig 1280*1024-ben hajtom a gépet egy monitoron, sokszor játék közben mp3-at is hallgatok, tehát terhelést azért kap. Ezt csak azért írtam le mert szeretnek általánosítani a géppel kapcsolatban, de nem kell. Ja a hűtés hangjával sincs gond szerintem pedig nem rég még egy vízhűtéses PC volt az asztalom mellett, ami után minden hangosnak tűnik. (A box miatt lecseréltem egy olcsóbb PC-re) Ha valaki ultra low nois cuccost akar az meg tud bele megfelelű ultrahalk hűtést venni kis pénzért, vagy akár vízhűtést is.
  • dez
    #72
    A valós számok ma sem ismertek, az itt-ott látható számokat abból kiindulva silabizálták ki, hogy RSX=GF7800/7900 (még ezt sem lehet tudni). De ez nem olyan biztos, lévén csak a piacra dobás előtt nem sokkal készült el a végleges RSX. És joval nagyobb is (die méretben), mint az említett chipek, és nem tudni, mit tartalmaz a bővítés (miközben pl. a PCI-Express buszkezelést egy az egyben ki lehetett hagyni).