73
  • tau ceti
    #73
    Végiggondolva:persze,ha lerendelsz egy scene-t akkor kinyomod az összes poligont,míg raynál csak a pixel metszéspontot kell meghatároznod.De enyhe gond,hogy BSP-t bspline-n nem tudsz csinálni(obj. a származtatott poligonhálót minden frame-nál fel kellene dolgozni),így marad a poligonok előzetes indexelése(powervr által alkalmazott technológia).Ráadsásul le kell vágni a viszaverődési lehetőségeket ált.felületnél 1-re,tükröknél pedig előre programozni a lehetséges állásokat a többszörös viszaverődések kivédésére.
    De amit kaunk,az nem lesz más mint a powervr által alkalmazott eljárás.(kyro,DC pl.)
    A kapott képmínőség egyenértékű lesz legjobb esetben a normál módszerekkel,ellenben a poligonindexelés,az indexelt poligonok tárolása és a feldolgozás nagy bonyolultásgú hardwert,illetve a maiaktol különböző programozási módszereket igényel.(árnyékok,alpha ....)
    Szóval jobban végiggondolva nincs új a nap alatt.Ez a rayos dolog egyszer már létezett,a neve powervr és kyro volt...
  • Vers
    #70
    BSP -vel elég jol le lehet csökkenteni a metszéspont számitást emiatt lesz logaritmikus az algoritmus

    azt gondold végig mind a 2 eljárásnál mi lenne ha a képernyó 1x1 pixeles lenne és van a térben x billio polygon vagy object
  • tau ceti
    #69
    Hmm.A valós idejű(inkrementális) megjelenítés a 1 lépésben követi csak vissza a dolgokat a fényforrásig.Kettő vagy több visszakövetési pont steciles trükkökel valósítható meg.
    Ha ezt érted ray-tracing alatt,akkor már most ebben van részünk.:-)

    Mi is lenne a ray?Ugye a nézöpontbol viszaindulva metszük a felületet(tök mndegy a teszeláció modja,hogy kvadratikus v. poligon,max a kvadratikus/poliline felület lassabb lesz 100*),majd a talált felületi végpontra viszaszámolunk valailyen szródásfügyvényel,meghatározzuk a sugárirányt,esetleg a szineloszlás szerint rgb-re másmilyen szögekkel,majd bizsgálju a pontbol látható felületeket.Ezt gyakolratilag a fényforrások mérete és a felületi minőség alapján bizonyos minimális számú lépésben el kell végezni,különben a fényforrások nem világítanak,illetve jópofa artifactok jönnek elő!
    Tehát a felületi elemek növekedése mit is hoz magával?Először is,a metszéspontmeghatáorzás előre nem jósolható modon alakul,vagyi a fő memóriábol kell viszonylag kis adatcsomagokat előbányászni.Ennek következtében a pixelszámmal arányosan csökken a sebesség és a memóriaigény.
    A rekurziv sugárkövető fügvény úthoszának növekedése,ami több felület esetén mindenképpen előjön ha el akarunk jutni a fényforrásba,további sebeségvesztést eredményez.A geometriai részletesgé növekedése is szintugy drasuztikusan rontja a sebességet.
    Továbbá ott van hogy igazábol csak poligonoknál lehet geometriai LOD-ot alkalmazni...

    Tehát mondjuk power vr technikával csinálunk egy képet,300kpixel,akkor ennyi metszés kell.Ha tovább megyünk,akkor a metszések száma arányosan növekszik.Helyezzünk bele új objektumokat(feltételezve hogy lodoljuk a cuccokat,és minden az optimális poligonszámon van.)
    Ha ezeket nem helyezzük bele a sugárkövetési útba újabb metszéspontokkal,akkor biz kellemetlen élményben lesz részünknem látszódnak a tükröző felületeken,illetve nem látszódik az árnyékuk.

    Tehát:a poligonszám növelése a képalkotás miatt tényleg csak kismértékben befolyásolja a sebeésget,de az objektuok számáva legyütt növelni illik a sugármetszések számát is ,ami viszont drasztikusan rontja a sebeséget.

    (ezt még át kell gondolnom,methogy soha nem foglalkoztam ray-tracingal.)
  • mir
    #68
    #65, #66 az ilyen emberek és beszólások miatt érdemes ide járni :)
  • Vers
    #64
    ott hibázik az elméleted hogy a raytracingnél logaritmikusan növekszik a számmitási teljesitmény
    és nem exponenciálisan
    emiatt komplex scenéknél a raytracing gyorsabb
    természetesen senki ne gondolkodjon 100-szoros rekurziv fénykövetésen mert az lassu mint állat
    de 1-2 ütközés-követés belefér
  • tau ceti
    #63
    A poligonok a teszeláció során jönnek létre.Nem muszáj velük számolni,de ha kvadratikus illetve spline felületekböl számolod ki a sugármetszéseket,akkor khm... szóval nem lesz valami gyors a megejelenítés.Ráadásul a scene létrehozása és leprogramozása sem lesz egy triviális feladat.Szóval ez egy eléggé elvetélt ötlet...(obj:a csg fák azok nem egy vertexlista,tehát nem lehet kihasználni a nagy sávszélességet,hanem az alacsony latencí a nyerő.De még úgy is tetűlassú lesz...)
    A megivlágítási algoritmusank pedig azért használják ezeket az inkrementális cuccokat(amik tulajdonképpen már nem teljesen ezek...)mertugye a ray-tracingnál egy kis méretű flület modelbekerülése nagyságrendi lassulásokat tud hozni.Tehát a scene méretével nem lineárisan,hanem exponenciálisan növekszik a számítási teljesítményigény,mig inkrementális képszintézisnél lineráisan növekszik.Tehát ez a ray-tracing megoldás valós idejű megjelenítésnél max. kisméetű demoknál müx,egyébként csak egyes elemeket lehet ilyen módon rednerelni.(pl. a türöknél használt stenciles cuccok közel álnak ehez,öszeházasítva egy ps-el jó kis rayos rednerelést lehetne öszehozni,addig míg nem fordítasz egybe több tükröt...)
  • NEXUS6
    #62
    "a raytracing gyorsabb mint a polygonos hülyeség, csak a kérdés az hopgy a ps3 architectura jo lesz e hozzá"

    Khm... hát én ezt azért nem igy tudom, mellesleg általában a raytracing is poligonos objecteket használ csak éppen sokkal élethűbb megvilágitási algoritmust jelent mint a játékoknál ma használatos árnyékolás/megvilágitás modellek. Minden számitógép alkalmas raytracingre, csak éppen lehet hogy napokba tellne, amig egyetlen képkockát kiszámolna.
    Egy ilyen bikabivaj teljesitményű hw, mint a ps3 -ha tényleg tudja hozni ezeket a paramétereket - talán már valóban képes lesz valósidejű sugárkövetés modellezésre. Azért kiváncsi vagyok megbirkozik-e majd egy finalfantasy movie összetettségű scenevel? ;)


    "igy minden kommunikálhat mindennel, és mindenen fut minden, egy nagy cell hálozat lesz a világ , remélem m$ nélkül :)"

    Ez meg mire lenne jó? Miért kellene fölcserélni az egyik bigbradert egy másikra? Én inkább a fejlődésnek vagyok hive, nem pedig valamelyik nagy cégnek.

    Amúgy köszi a linket! :)))
  • Vers
    #61
    a raytracing gyorsabb mint a polygonos hülyeség, csak a kérdés az hopgy a ps3 architectura jo lesz e hozzá
  • Vers
    #58
    valahogy igy:


  • Vers
    #57
    dehogynem tudják felhasználni, elvileg a sony mindenbe cell-t akar tenni tv-be,pda-ba,ps3-ba
    igy minden kommunikálhat mindennel, és mindenen fut minden, egy nagy cell hálozat lesz a világ , remélem m$ nélkül :)
  • Vers
    #56
    itt van a szabadalmi bejegyzés:

    http://appft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=/netahtml/PTO/search-bool.html&r=1&f=G&l=50&co1=AND&d=PG01&s1=20020138637&OS=20020138637&RS=20020138637
  • NEXUS6
    #55
    Te Vers!

    Hol lehet ilyen detailed infokat látni a PS3-ról, mint amilyen az a vázlat, amit betettél?

    Amúgy ezek tényleg korrekt, hívatalos(félhívatalos) adatok? Én egy kicsit lehidaltam tőlük:)

    Hát gondoltam, hogy valami nagy dobásra készül a Sanyi, de ez egy kicsit mellbe vágó!

    Pl 2x64 MB beágyazott memcsi, hát a legnagyobb paperware cég a Bitboys ígérgetett valami ilyesmit, azóta se látta őket senki:)

    Amúgy iszonyú technológiát fog követelni a megfelelően alacsony selejtszázalék kihozása. Sajna asanyi nem tudja eljáccani azt amit az intel: ha szar a cache/beágyazott memcsi eladjuk a selejtet sx, celeron, vagy PS3economic márkanéven;)
  • Vers
    #53
    talán éppen azér nem lesz benne hdd hogy maradjon pénz a procira:D
  • Vers
    #51
    most még , de ez változik
  • Vers
    #50
    a VectorC tudtommal a vectorprocira valo, bár látni nem láttam:)
  • GodBadka
    #46
    Aham. Bulvárlap. Ennyit is ér a "hír". Piha.
  • mir
    #44
    "Mir: Ps2-on valoban nem igazan szoktak cpu-t assembly-ben programozni, egyedul a vu-kat, amibol a VU1 durva hasonlattal a vertex shaderenek felel meg..."
    ok, még régebben olvastam(megjelenés után), hogy a MIPS fordítók nem szerették az EEt, lehet, hogy rosszul emlékeztem. vagy 4 év alatt kitaláltak valamit.
  • Vers
    #42
    "Mir: Ps2-on valoban nem igazan szoktak cpu-t assembly-ben programozni, egyedul a vu-kat, amibol a VU1 durva hasonlattal a vertex shaderenek felel meg..."


    pedig érdemes asm-ban nyomni a ps2 cpu-t mivel a simd utasitásokat csak ugy éred el ,a fordito képtelen simd kodot generálni, ja és 16 darab 16 bites müveletet tud végrehajtani ciklusonként(2 orajel), mig a vector proci 8 -at orajelenként
    tehát kb egyforma gyors
  • Vers
    #39
    ez meg egy kis érdekesség, FÉNYPROCESSOR, 8 teraflops, 20 watton, az intel mehet a sunyiba


  • Vers
    #38
    PS3:

  • Vers
    #37
    PS2:

  • Vers
    #36
    azér az EE-t nem lehet ilyen könnyen lerendezni ahogy te tetted van abban pár regiszter és mindegyik más bitszélességü
    r0 - r31
    f0 - f31
    v0f0 - v0f31
    v1f0 - v1f31
    vi0f0 - vi0f15
    vi1f0 - vi1f15

    ez kb olyan 150 register amik közül rengeteg 128 bites, a floating regek 32, a vector integer meg 16 bitesek
    a pentim prociban örülsz ha össze tudsz szedni 32 registert
  • Vers
    #35
    mi megy itt :DDDDDDDDDDD

    az xbox az szar ezt aláirom, de az x2 nem lesz az legalábbis a procija biztos nem , mondjon valaki jobb procit a g5-nél
    az viszont igaz hogy az x2 is pc szerü felépitésü lesz csak más procival ,semmi különleges technologia , viszont joval gyorsabb lesz egy mai csucs pc-nél
    a ps3 cell procija is power pc alapokra épül csak meg van támogatva pár vectoregységgel kb 32-vel

    azon meg hülyeség vitatkozni hogy hány bites egy mai proci mert minden busz más szélességü , pl a cimbusz mi a ráknak legyen nagyobb 32 bitnél amikor a konzolban nem mostanában lesz 4 giganal több ram
  • tau ceti
    #34
    A ps2 teljesen más.Ugye a box cpu->vertexshader->texura kitömörítés->renderelés vonalat úgy követi,hogy csak az elsőt végzi a p3-as,addig az EE-nél az első 3 feladat a procin belül marad.
    Gyakoraltilag az EE 4 procit foglal magában,az egyik ugye maga a konvencionális cpu,ami azért rendelkezik brutál vektrorrészel,a másik kettő pedig a két vu,illetve az mpeg kitömörítő.

    Az EE-nél a nehézséget az okozza,hogy a 4 db procit,a fő rednsermemóriát és a grafikus kártyának a sávszélességigényét úgy kell kiegyensúlyozni alacsony szinten,hogy királyul menjen a progi.A gond csak az,hogy az egyes egységekhez pár kbytes cache-k vannak rednelve , amik megnehezitik a dolgot.
    Ezzel szemben az xbox rendszere nagyságrendekkel kevesebb munkát igényel,és igaz ugyan hogy a teljesítménye valahol ott van ahol a ps2-é,csak éppen a maximum kihozatalához nem kell phd-val rednelkezni és nem igényel több hónapos opitmalizálást.
    Rányomod a p3-ra a fizszimet és az ütközésvizsgálatot,a vs nyomatja kifele a poligonokat anélkül,hogy a programozonak irási-olvasási és sávszélességmarhaságokkal kellene foglalkoznia,és kész.Igaz ugyan,hogy a sávszélesség limitált az egységek között,viszont a kommersz cpu akkora cache-t tartalmazz,ami lazán kielégítit az igényeket,ráadásul a videochip is jóféle tömörítő algoritmusokat tartalmaz,meg aztán ott van a pixel saheder.

    Ja,az utobbit pedig nem ,illetve iszonyatos erőfeszítések árán potolja csak az EE,hiszen itt alapvetően cpu feladatrol van szó.


    A pentium proci belső adatbusza256 bites,a p3-nak 128 bites az fpu-ja.

    Az EE legjobb esetben is 64 bites.:-)
    Ha a regiszetméreteket akarod nézni,akkor az integer regiszterei 16bitesek.


    Egyébként a vu0 dedikált csatornával rednelkezik a cpu,a vu1 pedig a GS felé,de ez nem jelenti azt hogy ne lehetne őket másmilyen konfigban dolgoztatni.Objektíve mindkettő hozáfér a fő rednszerbuszhoz...
    A SIMD jelentése SingleInstructionMultipleData.Ennek szerinted mi köze van a cpu cím,utasítás és ált. használatú regisztereihez?Mertugye azoknak kéne 128biteseknek lenni,nem a simd regisztereknek.
  • Flashy
    #32
    hehe :) ez a jo amikor az osszes vita egyszerre elokerul. oprendszerek, processzorok, videokartyak, browserek, email kliensek, stb :))
  • mir
    #27
    dilettáns: ezt nem tudom megítélni.
    a sonyt nem utálom. mondjuk ha tehetem panasonicot veszek, de nem utálom a SONYt, és jelenleg a PS2-t tartom a legjobb konzolnak a piacon.
    és te meg csak azért nevezed el a processzort 128bitesnek, mert 128bites ALUja van? akkor a P4 meg 16bites, vagy mi a ****? merthogy annak meg 16bites aluja van.
    itt az érvem: az ALU által elvégezhető utasítások csak 64bitesek, és a virtuális memóriacímtér is 64 bites. bár a regiszterek 128bitesek. de szerintem ez akkor is 64bites.
  • mir
    #25
    http://prohardver.hu/rios3_content.php?mod=20&id=2&p=6

    az, hogy leírják, hogy 128bites nem azt jelenti, hogy annyi. szerintem csak 64bites. a sony PR meg azoknak van, akik elhiszik.
  • mir
    #22
    "A cpu meg nem igazán lényeges már.A videókártyát kell ugyis low levelen programozni,a cpu-n maradnak a magasabb szinten írt nyelvek,azoknak meg tökmindegy hogy milyen vasora vannak fordítva."
    a PS2ben nincs T n' L , ott még nagyon fontos volt a CPU
  • mir
    #21
    az ASM kódolás iszonyatosan lelasítja a játék fejlesztését, és a debugging költségeit meg többszörösére emeli. ezért nehéz az ASM kódolás(nem azért, mert nagy rogramozói feladat, nem az. gazdaságilag nehezíti meg a dolgot)
  • mir
    #20
    de az EE akkor sem 128bites.
    van benne 128bites ALU, de az úgy 128bites, hogy egyszerre tud 2 db. 64 bites műveletet elvégezni. tehát 1 db. 1238bitest NEM. ezért csak 64bites.
    arról meg már ne is beszéljünk, hogy a memóriacímtér is csak 64bites (virtuálisan)
    más megközelítésből az EE MIPS12K alapú cucc, ami szintén 64bites, mint az EE is.
    az, hogy van benne 128bites végrehajtóegység ne tévesszen meg, már a Pentium MMX-ben is volt 64bites integer egység(MMX néven :) )
  • mir
    #18
    csak most olvastam, hogy kettőt írtál.
    csak most látom, mekkora fasz is vagy.
    a duál-programozás egy megoldható feladat, de az EE teljesítmény szempontjából kritikus kódjait ASMben kellett írni, és ez volt a szopatás felső foka. duál processzorra fejleszteni meg közel sem olyan vasz-iszt-dasz mint ASMben írni valami komolyabb cuccot.
  • mir
    #16
    Elemér: ezt már megbeszéltük vagy 2 hete:
    a PS2 nem 128 bites, csak 64.
    és az, hogy egy processzor hány bites igen kis befolyással van a teljesítményre.
    és az xbox igen is konzol. mert nem a közpointi processzor típusa határozza meg konzol-e valami. ha az határozná meg, akkor a GC megjelenésekor középkategóriás UNIX szervernek számított volna, ami meg nem egészen igaz :)
    és valüóban: lol lol :D
  • tau ceti
    #12
    Áljunk csak meg egy picit!
    Nemtom emlékszik-e valaki a jó öreg dreamcastre.
    Namármost,az ugye egy hitachi cpu-t tartalmazott,illetve powervr grafikus magot és egy winCE-t dx6-al.Az első szoftvereket powervr kártyát tartalmazó PC-ken kezdték fejleszteniés a valódi katana sdk megjelenésekor fordították csak be a kódt a hitachi cpu-ra.Szóval ez a hír tökéletesen híhető és reális.Az meg hogy elkészítsék az nt kernelt(nevezzűk xp kernelnek inkább) a powerpc-re....Hát,nem hangzik valami katasztrofális nehéznek.
    Kompatibilitás:Ki nem teszik rá?Nem azért veszel új gépet,és a gyártók sem azért nyomnak bele milliókat az új gép ártámogatásába hogy a régi géphez készült játékokat futathasd rajta.A ps2 emelt szintű ps1 futtatása is kétséges volt a gép kijöveteléig.

    A cpu meg nem igazán lényeges már.A videókártyát kell ugyis low levelen programozni,a cpu-n maradnak a magasabb szinten írt nyelvek,azoknak meg tökmindegy hogy milyen vasora vannak fordítva.
  • Cat #11
    az elegendő itt elég érdekes szó, ugyanis tizmillió feletti XBOXnál elég ha csak minden huszadik játékos megveszi az adott cimet és máris félmillió elkelt, ami nagy piaci sikernek tekinthető
  • NEXUS6
    #10
    Ha csak úgy nem, murphy :)

    De ez felvet egy másik kérdést! (Nagyon filozófikus kedvemben vagyok)
    Tegyük fel valóban egy előzetesen kiadott béta kit-ről van szó és nem egy átizélés, amit a nagyon szavahihető forrástól átvettek.

    Ez azt jelenti, hogy valóban érdemes megkezdeni a X2 rendszerre írt szoftverek fejlesztését, mert az X2 hardvere természetes evolúciója már meglevő rendszereknek, nem úgy mint a SANYI Cell-re épülő rendszere.

    Csakhogy ekkor érdemes azon elgondolkozni, hogy a M$-nek vajon valóban megéri-e áttérni az X1 intel/nvidia/DirectX platformjáról egy PPC/ATI/DX(X?) platformra, feláldozva a kompatibilitást illetve a szoftverfejlesztő cégeknél meghonosodott programozói kultúrát -ami ugye azért volt könnyen elsajátítható, mert a intel-x86/win hardver/szoftver programozási "kultúrán" alapult. Honnan vesz most hirtelen minden fejlesztőcég ppc hardver programozásában járatos emberkéket?

    A X1 viszonylagos sikerét épp ez a könnyű áttérés jelentette, amit most egy csapásra feláldoznak.

    Mert miröl is van szó? Ahogy a NautyDog egyik programozója megjegyezte, megtanul ő bármire programozni akár szovjet gyármányú elektrónyika kalkulátorra is, ha valamennyire biztos a piaci siker, és ezen van a hangsúly mert...

    A PS3 visszafelé kompatibilis lesz az előző generáció(k)-val, vagy is induláskor pár száz gáméval indul. Csak néhány olyan effektet kell az új hardverbe belecsempészni, amit a PS2-is tudott a PS1-es játékokkal csinálni-pl textura simítás, nagyobb frame rate-és az emberek el fogják hinni, hogy már csak ezért is érdemes a SANYIÉKNÁL MARADNI.

    Ha ezt látják a progizó cégek, valszeg csak félerővel fognak megint fejleszteni az x-re, vagy is megismételheti magát a korábbi szitu. Lehet akár duplabivalyerős az új X, de ha már a kezdetektől le van osztva a SANYI elsősége akkor nincs miről beszélni, mert igazán ezen a piacon csak az első tud szakítani, szerintem a M$-nek a mai napig ráfizetéses a konzol üzlet.

    Az meg ugye nyílvánvaló, ha nem adnak el elegendő konzolt akkor a szupergámékat se tudják megfelelő példányszámban eladni.
  • NEXUS6
    #8
    Háj _!

    Hát ezt mondom én is! Ha nincs semmi extra ebben a masinériában, akkor mitől dev kit egyáltalán, ezek szerint csak az árától! Még mindíg nem találod furcsának? -akkor azt javaslom, elösször beszéld meg a pénzügyi tanácsadóiddal a dolgot ha ilyet veszel!

    Mi az a szoftver, amit a M$ a fejlesztésnek ebben a "viszonylag korai" stádiumában feltehetett rá, egy PPC-s C++ fordítót, vagy egy 3d modellező szoftvert, mert hardver specifikus szoftvert(drivert, os, stb) azt nem nagyon, mert az ezen a vason nem mehet el, lévén meglehetősen különbözik a végleges X2-től(hacsak ugye... - M$;) hát ez sokaknak azért mond valamit).

    Szóval szerintem max egy általános fejlesztő környezet, amit amúgy egy G5 Mac(hardver) + (szoftver) -jó eséllyel ingyért a netről le tudsz bányászni- áráért meg tudnál szerezni.
  • SoDI---
    #7
    ÁLLJ! ÁLLJ! ÁLLJ!

    G5-ön fottatható NT kernel???
    Lemeradtam valamiről????

    Úgy néz ki, nagyon is...
  • Vers
    #6
    hát ez elég nevetségesen hangzik
  • Cat #4
    ennek a hírnek a részletei már korábban is ismertek voltak, csak ez a power pc nem - de végülis nem lenne meglepő, sőt, mondhatnám logikus lenne, hogy ha az xbox2ben power pc procik lesznek, akkor az ezen futó programokat is ibm procin kezdik el fejleszteni

    szal a hir igaz LEHET, nem állítom hogy igy van, de lehetséges
  • NEXUS6
    #3
    Hát erre én is kíváncsi vagyok, mert ennek így se füle se farka.

    Vagy az a bizonyos bulvárlap siette el egy kicsit a dolgokat vagy a M$: se CPU, se grafrendszer, se driver, se oprendszer.
    Khm, szóval valakinek eladtak egy powermacet, és feltelepítették rá az ősöreg PPC winNT-t, és valaki azt mondta rá, hogy ez az X2 fejlesztő kit. Gondolom ráadásul nem is két fillérbe került ez a develop kit, de egy szimpla powermac-nél biztos drágább volt.
    Hát itt valakit nagyon átvertek, vagy valaki bennünket akar átverni.

    Én az utóbbit tartom valószínűnek.