92
  • szcsaby
    #92
    Valaki aki tudd xboxra 100% mentést írjon már. Köszi
  • ftc
    #91
    tudja valaki xboxhoz vannak csitek lehet pl gta4 hez fegyverkód
  • dez
    #90
    (Szóval azt hitte, hogy a Cell SPE-i a saját belső ramjukat érik el lassan.)
  • dez
    #89
    Ja, a The Inquirer amúgy is Sony-hater Chenje kicsit félreértett egy slide-ot (mivel nem gondolkodott), ahol a vramot local memoryként tüntették föl, miközben az SPE-k belső ramra local storage néven fut.
  • dez
    #88
    Nem olvastam őket, de kívácsi lennék rájuk. Tudsz esetleg egy jó liket?

    Hol olvastál az SPE-k vram eléréséről? Tudnál erről is linket? (Sok helyen van ilyesmi említve, de engem az érdekelne, ami konkrétan erről szól.)

    "Az tény, hogy a cell-ben nagyobb a potenciál mint a Xenonban, de Xenonra egyszerűbb programozni, és emiatt sokan választják elsődleges platformnak. Nagyjából hasonló a jelenség mint az ATI R6xx és G80/G92 között (max ott kevesebb eltérés van)."

    Ezt aláírom. Ezért van, hogy egyelőre az Xbox360-on mennek jobban a dolgok (főleg a portok), de ez idővel meg fog változni.

    "Amúgy IBM hoz ki a cell-ből újabb változatot a közeljövőben (pl több spe)?"

    A közeljövőben tudtommal csak olyan lesz, amiben alaposan meg lesz növelve a double precision floating-foint szám. telj.
    45nm-ig a fogyasztás és a méret csökkentésére törekednek, hogy egy lapon minnél több Cell lehessen. Aztán 32nm-től jöhet a több mag, pl. tervben van egy 8 PPE + 64 SPE-s változat. Ilyen magszámoknál már igen sokat fog számítani az SPE-k belső ramja, és hogy a fejlesztők azt már megtanulták jól használni...

    "Mert remélhetőleg nyár végefelé itt vannak az 1 TFlopsos GPU-k."

    Már az Nvidiától? Azt kötve hiszem, mert a G92 is csak 400 körül van, és az új chip állítólag 2x gyorsabb sincs. Szóval esetleg a 2 GPU-s kártyák tudják ezt. Az ATI részéről az RV770 sincs 2x gyorsabb, mint a mostani.
  • NEXUS6
    #87
    Asszem erre az SPE VRAM elérésre írták mindíg negatív példának, hogy borzasztó LASSSSSÚÚÚ, ezért nem célszerű sehol sem alkalmazni, amit a fud-szakemberek egyből felkaptak, hogy el lett baxva az architektúra, meg nem is hozza az ígért teljesítményt.
  • sirpalee
    #86
    Bocs, másként értelmeztem a scalar-t és superscalar-t, de utánanéztem micsoda, de kb ugyanazt mondtuk.
  • sirpalee
    #85
    Lehet a gpu-k scalarok kód szemszögéből, de elsősorban atin nagyon figyelni kell arra hogy írod meg a kódod, mert nagyon képes párhuzamosítani. Az R6xx széria legnagyobb előnye, egyben a legnagyobb hátránya is. Nagyon képes párhuzamosan dolgozni, ha a fejlesztők optimizálnak rá, és megfelelő arányban használják a különböző egységeken futó utasításokat, de mivel egy halom gémnél ott az nvidia logo, ezért magas ívben szarnak rá... Sajnos.

    Gondolom olvastad a GDC2008-as doksikat, ott volt egy nagyon érdekes, a dx10-es optimizációknál, érdekes volt ahogy az atis trükkök és az nvidiás trükkök egymás mellett voltak... NVidia : ne használd a geometry shader csak ha muszáj, ATI : nyugodtan használd, van ott jópár "ingyenes" órajel...

    Tegnap este olvasgattam, és akkor bukkantam rá, hogy az spe-k képesek a videó ramhoz hozzáférni (ha jól emlékszem az sramon keresztül), a fizikával kapcsolatban, nem hiszem hogy teljes, tényleges renderelésre kerülő vertex buffereken dolgoznak (vagy éppen amilyen formátumba töltik fel) az spe-k az kissé pazarlás lenne, bár ez csak apróság :) .

    Az tény, hogy a cell-ben nagyobb a potenciál mint a Xenonban, de Xenonra egyszerűbb programozni, és emiatt sokan választják elsődleges platformnak. Nagyjából hasonló a jelenség mint az ATI R6xx és G80/G92 között (max ott kevesebb eltérés van).

    Amúgy IBM hoz ki a cell-ből újabb változatot a közeljövőben (pl több spe)? Mert remélhetőleg nyár végefelé itt vannak az 1 TFlopsos GPU-k.
  • dez
    #84
    "hanem scalarok (G8x/G9x), vagy superscalarok (R6xx)." -> ami persze jó lenne, ha épp nem többszáz szállal kellene dolgozni.
  • dez
    #83
    Lényeg, hogy csak a feladatok igen szűk régiójában igazán hatékony, máshol a töredékére esik a teljesítménye a GPU-knak.

    A Cell esetén nem kell ennyire nagyon jól párhuzamosíthatónak lennie, mivel nem számoló egységek százai vannak, csak 6-8 SPE, plusz a PPE. Igaz, itt is SIMD-ben kell dolgozni, de a mai GPU-k a kód szemszögéből nem SIMD-esek, hanem scalarok (G8x/G9x), vagy superscalarok (R6xx).

    És akkor vannak ilyenek, hogy Cellen nem kell annyira spórolni a memóriahozzáférésekkel (főleg az SPE-k belső ramját illetően), az ugrások is kevésbé fektetik meg, stb.

    Jó dolog a Geometry shader (csak kár, hogy az Nvidia jelenlegi chipjein, és talán a következőn is) nevetségesen lassú... A Xenoson (Xbox360 GPU) meg ugyancsak nincs ilyen, de ott nem is nagyon van mivel kiváltani.

    Hozzá tud férni a Cell a videoramhoz, csak nem túl hatékonyan. Azonban az RSX igen nagy sávszéllel fér a main (xdr) ramhoz. Alapvetően a fizikát is a Cell számolja (egyre összetettebb fizikát), így amúgy is van dolga pl. a poligonokkal. Pixel alapú effekteket is számolhat, vagy textúrákat real-time, az RSX rendereléskor kb. ugyanolyan sávszélen olvashatja őket a main ramból, mint a sajátjából.
  • Nagy01
    #82
    Már csak 1hét gyerekek!!!!!:D
  • sirpalee
    #81
    Lusta voltam tf2-t bekapcsolni, teljesen tisztában vagyok a gpu hátrányaival és előnyeivel. Nem mondtam sosem, hogy világot lehet vele váltani, de vannak olyan kódok amiben az a jobb és van amiben a cell. Csak most valaki lobogtat egy statisztikát, hogy jééé a cell megverte a g80-at, nem ér semmit. Egy kiragadott példa sosem lehet általános érvényű. GPGPU-t pedig egyre több helyen használnak, fizikai számításokban, áramlástani számításokban (ott nagyon ottvan) például.

    A nagyon párhuzamosítható kód pedig nem azt jelenti, hogy akkor párhuzamosíthatunk vagy sem, hanem az hogy az átlagosnál sokkal jobban. Például most rakunk össze, kis bemutatót a gpu és cpu összehasonlításból (előadás lesz eltén), és éppen párhuzamosan csinálunk egy kis kedves részecskeszimulációt. Nagyon egyszerű módszerekkel van egy részecske rendszered, ami egy adott terepen (jelen esetben egy egyszerű oszlopcsarnok) áramlik, és meglehet anélkül oldani egyszerűbb fizikai hatásokat (nem tudom pontosan, én a technikai részével foglalkozom, a fizikai részét más ember rakja össze) anélkül hogy tényleges részecske-részecske hatást vizsgálnánk. Például ilyen feladatokra tökéletes a GPU ahol sok kicsi független egység dolgozhat.

    Az hogy be tud-e segíteni a cell a grafikába, vagy sem az érdekes kérdés (úgy értem hatékonyan). Én dx10 alatt megszoktam, hogy a cpunak hozzá sem kell szagolnia a gpu-n lévő adatokhoz, ha változtatni akarok, arra ott a geometry shader és nem kell hozzányúlni az adatokhoz. Ezért nekem fura ez a hozzáállás, de amit lehet még mindig érdemesebb tisztán gpu-n végezni, míg lekérdezni a cpu részére, és onnan lefuttatni, majd visszatölteni neki. És ha jól tudom (nyugodtan javíts ki) a cell nem fér hozzá a videómemóriához (arra csak az xbox360 cpu-ja képes).
  • dez
    #80
    (Ezért van, hogy a GPGPU-s alkalmazások nem váltották meg a világot. Csak speciális esetekben használható igazán hatékonyan.)
  • dez
    #79
    Ha annyira otthon lennél GPU-ban, tudnád, hogy pl. néhány ugrás máris a töredékére ejti a teljesítményt. És más hasonló gyengeségei is vannak.
  • dez
    #78
    Ja, menj TF2-zni, az való neked, idiot.
  • dez
    #77
    Mint ahogy sokminden másra sem.
    És mint ahogy sokminden másban is hasonlóan erős a Cell, egy x86-hoz hasonlítva is.
  • dez
    #76
    Éppenséggel korábban volt egy másik hasonló összehasonlítás, ahol egy GPU-s guru által direkt G71-re fejlesztett, szerinte annak optimális kódot vittek át utólag Cellre, és az is vagy 8x gyorsabb volt.
  • dez
    #75
    Neked, főleg a #72-es után? Egy szart.
    A párhuzamosítás meg kényszer, nem választási lehetőség.
  • dez
    #74
    Nyugodtan besegíthet grafikai effektekbe, vannak is ilyen törekvések.
    Sőt, már van is rá példa, lásd The Getaway PS3.
  • dez
    #73
    Version kicsit el van szállva, én közel sem vagyok annyira. :)
    A Cellt könnyebb legalább alapszinten, de kihasználni, mint a PS2-t.
  • sirpalee
    #72


    Asszem jobb ha leállok... Megyek inkább TF2-zni, remélem már helyre állt a psn, reggel elég szar volt. (inkább lenne fizetős, de stabilabb)
  • sirpalee
    #71
    Bár ezzel mindenkinek tisztában kellene lennie, aki ért egy kicsit a gpu-hoz... Lehet cpu-ban nem vagyok teljesen otthon, de gpu-ban igen. Próbálkozz folyadékszimuláció összehasonlítással, normal map generálással stb.
  • sirpalee
    #70
    Most nézem a tesztet... Hát persze hogy raytracing... Arra nem a legjobb a gpu.
  • sirpalee
    #69
    Nem nagy művészet olyan kódot írni ami jól fut cell-en, és szarul gpu-n... Olvastam olyan tesztekről ahol 32 8800 gtx volt összekötve és 7.2 terraflopsot kihoztak hálózatban... Kiszámolva a felét ki tudták stabilan hozni... Ami nagyobb mint a cell elméleti maximuma.
  • sirpalee
    #68
    Részletezd nyugodtan :) . Az tény hogy kevesen párhuzamosítanak kódot, hányan csinálták meg rendesen? Supreme commander, kb...

    Aztán hasonlíts össze egy mental ray-os párhuzamosítást...
  • sirpalee
    #67
    És te mennyire tartod magad hozzáértőnek, ha szerinted a cell grafikai effekteken fog dolgozni?
  • narumon
    #66
    "A Cell erejének nagy része egyelőre szintén kihasználatlan. De később erre is jobban ráállnak (brutálisabb fizika, AI, grafikai effektek segítése, stb.)."

    Mikor? A ti megfogalmazásotokkal élve a ps2 sem használja ki még a proci 100%-át de mégis mikor fogja?
    Emlékszem anno a kétezres évek elején ahol verz (pontolyan mint te), elmagyarázta és szépen le is vezette hogy a ps2 mindent megöl (mármint pct, meg Macet meg szervert), mert ha elkezdik kihasználni akkor valósághű grafika lesz, meg brutális ai, meg azzal fogják az animációs filmeket is számolni mert hogy mindent lever. Én most is csak ugyanezeket hallom csak most a ps3-ra vetitve, de látni megint nem látom.
  • dez
    #65
    Amúgy megkérdezhetem, honnan kaptad ezeket a linkeket, ezekre a roppant "elmés" szövegekre?
  • dez
    #64
    Az eredeti szerző egy hsz-e:
    "Since I'm not a game developer when I did the original post I did not understand how a game application was structured so I made some assumptions that current game applications were single threaded except for some minor parallelism. Since than I have been reading some basic concepts of game development and it appears that games are usually developed using multiple threads."

    Aztán amit a továbbiakban ír, az is tévedés. De ezt már nem részletezem.
  • dez
    #63
    Na, kicsit beleolvastam a szövegbe, de néhány mondat után nyilvánvalóvá vált, hogy ez sem más, mint féligazságok butácska gyűjteménye, ami az alapfogalmakat legalább távolról ismerőket próbálja győzködni, hogy a Xenon milyen jó, és a Cell milyen rossz "valójában". Más szóval FUD. Jól egymásra találtatok.
  • dez
    #62
    Talán mert ma a konzolok jelentik a számítógépes játékpiac szívét, és a PC egyre inkább perifériára szorul?
    Egy csomó játék eleve csak konzolra jön ki, és ezek főleg az újszerűbb játékok. PC-re inkább csak azt hozzák ki, ami a kisebb eladások miatt biztos nem bukta, és azok a sematikusabb játékok.

    A PS3-on nem csak netezni lehet, hanem teljes értékű Linuxot futtatni. Csak a szűkös memória miatt nem lehet akármire használni.

    A PS3 kontrolleráben is van mozgásérzékelés, és kezdik is használni. Nem tud olyan pontosan "célozni", mint a Wii kontrollere, de a mozgáslekövetés megvan.

    A Cell erejének nagy része egyelőre szintén kihasználatlan. De később erre is jobban ráállnak (brutálisabb fizika, AI, grafikai effektek segítése, stb.).

    A komolyabb játékokhoz Wii-n teljesítény is kellene, meg felbontás...

  • ziipp
    #61
    Egy játék miatt nem érdemes konzolt venni. PC sokoldalúbb: netezni, dolgozni, DVD írni, stb. is lehet rajta, nem csak játszani. Ha valami új igény felmerül, leszedsz egy új progit és meg van oldva. Ezek után mi értelme van egy konzolt is birtokolni? Én azt mondom, várok még 10 évet, amikor - reményeim szerint - kijönnek majd az első PC-konzol hibridek. ;)

    A GTA első része valóban PC-n volt kint előszőr, csak megerősíteni tudom.

    Egyébként egyetértek azokkal, akik nem teszik le a voksukat egyik oldalon sem. Meglátásom szerint a piac így néz ki: a két nagy konzol között megy az adok-kapok, mialatt a Wii nevető harmadikként szépen uralja az eladási listákak. Ha pedig már forradalmi játékokról, játékélményről, stb. beszélünk, itt is a Wii-t kell kiemelni. Azt hiszem ezzel az irányítás dologgal bőven újszerűbb, mint a két másik konzol együtt véve.

    Viszont az kérdés, hogy meddig tudja megtartani a helyét? Mert előbb-utóbb kifulladnak majd a játékaik. Én ha helyükben lennék, vennék "komolyabb" játékokat is platformra, ezzel végleg földbedöngölve a másik kettőt.
  • dez
    #60
    Minek pofázol bele, ha csak messziről szagolod a témát, és 1-2 alapfogalom szintjén el is akadsz?

    Leírok pár dolgot, meglátjuk, te mennyit értesz meg belőle...

    1. Az in-order végrehajtás nem a világvége, ahogy egyesek be akarják állítani. Mondok neked még pár in-ordres procit: UltraSPARC, Itanium (2), Crusoe, POWER6, Larrabee... Az összes GPU. És mellesleg a Xeonon is.
    2. Az in-order végrehajtás jó részt kompenzálható megfelelő optimizálással (akár egy fordítóban). Ma már jobb technikák állnak rendelkezésre erre, mint régen. Az out-of-order végrehajtás részben éppen a gyenge optimizálást volt hivatott ellensúlyozni. (Persze vannak esetek, amik nem tartoznak ide.)
    3. Miért éri meg ma is in-orderes végrehajtást csinálni? Mert sokkal kisebbek lehetnek így a magok, miáltal több mag fér el, stb.
    4. Az in-orderesség inkább csak a PPE-nél (a fő procimag, főleg általános kódvégrehajtásra) számít, és az sem full in-order, 1-2 utasítás mélységben fel tudja cserélni a végrehajtást. Ez általánan meg is oldja azokat a bizonyos kivételes eseteket, amit a fordító nem tud.
    5. A SPE-knél nem igazán számít az in-orderesség, hiszen egyrészt többnyire nem általános kódot futtat, plusz nem a lassú külső memóriból dolgozik, nem kell állandóan arra várnia, mint egy in-orderes procinak kellene rossz esetben.

    Még az adatokat sem tudod jól, mert egy 3.2 GHz-es Cell peak értéke 230 GFLOPS, és az IBM ennek 90%-át tudta kihozni valós kódokkal. És ez még nem minden. A belső felépítés következtében sokkal hatékonyabb a Cell, mint mondjuk egy GPU, ha a kód kicsit is közelebb áll az általánoshoz, mint egy sima shaderhez: a Cell 5x gyorsabb, mint egy 2x akkora elméleti peak értékkel rendelkező G80! (Egy Opteronhoz képest - valószínű egymagosról van szó - meg 30x...) G80 vs. Cell

    Valóban, ez a dolog a matematikai számítási teljesítményre vonatkozik. Arra nagyon is igaz, hogy 16-32 x86 maggal ér fel, tehát matematikai számítási teljesítményben. Nos én eddig is erről beszéltem, nem másról, sőt ki is emeltem. Úgyhogy felesleges is volt az egész hozzászólásod...

    Azonban annyira nem veri oda a Cellt általános kódban sem egy átlagos x86, mint gondolod. Ugyanis, a számításigényesebb részek SPE-kre való átruházásával a PPE-nek máris kevesebb a dolga. És mellesleg 6-8 SPE is tud általános kódot végrehajtani, csak kisebb hatékonysággal.

    A PS3 Cell butítása ennyi: egy mag le van tiltva, egyet meg a rendszer használ különféle feladatokra.

    Igenis, a Cell matematikai számítási teljesítménye a Xenon többszöröse. Ez tény.

    El fogom olvasni, amit linkeltél, meglátjuk, vajon ez is csak a szokásos FUD, ír-e olyat, amit eddig nem tudtunk, stb.
  • sirpalee
    #59
    Ha már cell vs egyéb vita, főleg szemben PC, gondolom pár embernek mond valamit hogy a Cell in order execution proci, míg az x86 / x64 out of order execution proci. Szóval hogy 16 x86-ossal ér fel az teljesen baromság. A cellből kihozható maximális teljesítmény (amit az ibmesek értek el egy fullos cell-el), az alig 100-120 gflops, de ezt külön arra optimizált nagyon párhuzamosítható kód volt... Ugye a ps3 procija meg butított a teljes értékű cell-hez képest. A Xenon-al nyugodtan lehet hasonlítgatni (de nem töredék a sebessége), de a PC-t ki lehet hagyni... Egy általános kódban egy közepes 2 magos proci is odaveri (persze cellre optimizált kódban, vagy raytraceben nem).

    Mondjuk én is furcsállom, hogy miért a cell-t szidták, miért nem az rsx-et...

    Egy elég alapos összefoglaló, és a lényeges részeket is elmagyarázza...

    elso
    masodik

    Bár elismerem a fanok nem fogják megérteni, vagy úgyis jön a szöveg, hogy kamu stb...
  • dez
    #58
    1. Hányszor kell még leírni: ahhoz, amit eredetileg terveztek.
    2. Látom, nagyon tetszik ez a mondat neked, csak épp önmagában semmit sem jelent. Az Xbox360 mat. szám. teljesítménye és fontosabb sávszélei meg a PS3 töredéke.
    3. Te előre látod az elkövetkezendő 10 évet, vagy mi?
    4. És? Egy "nagy név" mindent kapásból tud, és sosem tévedhet, vagy mi?
    Szerinted ki tudja jobban kihasználni a gépet, aki kapásból nekikezd egy nagy projektnek, vagy aki egy évet csak arra szán, hogy kiismerje, hogy lehet belőle kihozni a legtöbbet. (Megnézted egyátalán a linkelt oldalt?)

    És még én vagyok a fanatikus, amikor te gondolkodni sem tudsz a vehemens fikázástól.
  • ldavid
    #57
    "a GTA I ha emlékeim nemcsalnak először PS1re jött ki"
    sajna csalnak: DOS, Win, PS
  • fade2black
    #56
    1- MGS4hez? Ez poénnak igencsak gyenge.
    2- Hát igen jóval lejjebb kellett adni mért is? Hisz ott van: "A PS3 álomgép volt indulásakor (emlékezzetek a marketing által a Cell csodás bevezetésére) és rengeteg ötlettel álltunk elő. Aztán amikor fejleszteni kezdtünk, egymás után jöttek elő a PS3 korlátai."
    3- Nem MGS4re hanem akármi másra is nézve.
    4- Mért ő nem elég nagy név?
  • dez
    #55
    Így is drágább a PS3.
    Amcsin kívül korábban is jobban fogyott a PS3, csak nem ennyivel.
    Éppenséggel most az Xbox360 is kelendőbb, mint pl. tavaly ilyenkor.
  • dez
    #54
    Ez nem elmélet volt, hanem egy mindkét platformon dolgozó fejlesztő gyakotlati tapasztalata.
  • dez
    #53
    Az eredmény megvelel az elméletnek is. Egy dolog a shaderteljesítmény, és egy másik a textúrázási képesség, stb.