2008 végén jön az Intel elsõ hibrid chipje
Jelentkezz be a hozzászóláshoz.
Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelõre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetõk, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan mûveletekbõl sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sûrûn fordul elõ (távolságmérés).
Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...
"Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene."
Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése elõtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
A felbontással lineáris az összefüggés hisz a képpontok számátúl függ az erõforrás igény. Idõvel ahogy egyre nõ a chipekben megjelenõ számítási teljesítmény, egyre inkább lesz reális lehetõség a raytracingre is.
Ez még nem azt jelenti hogy raszteres megoldások hip-hop jõvõ eltûnnek és ray-tracing lesz helyette. Ez egy sokkal lassabb folyamat lesz. Ráadásul ettõl a GPU-k sem fognak eltûnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni. Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene.
Az eltérõ piaci szereplõk Cell, Tesla, Larrabee, Fusion mind ezeket a piacokat célozzák majd meg a saját megoldásukkal. És nem csak a gamer front az egyedüli, hanem a HPC is, meg más piacok. A software támogatottságon nagyon sok múlni, az könnyen eldönthetõ hogy ezen termékek közül mely fog szélesebb körben elterjedni.
Az Intel IDF anyagaiban 2-3 év múlva jelzi a real ray-tracing beköszöntét, ez még közel sem jelenti azt hogy elsöpri a rasteres megoldásokat, csak az hogy megjelennek az elsõ olyan komolyabb rendszerek amiken már reálisabban használható ez a fajta megoldás. Nem véletlen hogy elsõször csak egy különálló kártyán érkezik majd az Intel féle Larrabee várhatóan 2009 elején, elöször 45nm-en. Igazából az csak arra lesz jó hogy szélesebb körben megindulhasson a software fejlesztés és támogatás, azzal hogy lesz fizikailag hozzáférhatõ platform. Aztán majd 2-3 év múlva ha már 32nm-en jön a következõ Larrabee generáció, ott már akár be is épülhet az általános chipek mellé egy lapkára.
A saját véleményen az hogy 2-3 év múlva az Intel elsõ próbálkozása nem lesz majd túl sikeres gémer fronton, de HPC-nél be fog válni és annyival elsõre elégedettek is lesznek majd, ott sincsenek azért irreális elvárások. De mondjuk újabb 2 év múlva, újabb gyártástechnológián, idõközben tovább növekvõ software támogatottság mellett másodszorra már összejöhet nekik. De a másik három elõbb felsorol piaci szereplõnek is ugyanígy megvannak az esélyei, és fognak is élni vele.
mennyi ilyen képtelenséget láttunk már megvalósulni. És mára már ezek jórésze rutinsemmiség. Szivesen sorolok listát.... :)
Meg az egyre bonyibb per-pixel shaderek is úgy eszik a teljesítményt (amire egyre brutálisabb hw a "válasz"), hogy egyre kisebb a különbség eközött, és a ray-tracing között teljesítmény-igényben...
Pl. ott van a füst/robbanás effekt. Gyors módszerrel éles határvonallal "beleáll" a földbe - valamivel élethûbben megvalósítva (nem "beleállósan") egy csúcs-vga-t is megfektet...
és hidd el én is szeretnék raytracingelni mert jo na, csak a hagyományos modszerekkel sokkal jobbat lehet csinálni a jelenlegi technologiával
pl van olyan trükk hogy cubemappal világitjuk be a testet ez nagyon közel jár a RT-s bevilágitáshoz,csak ez gyors :)
a trükkök mindig gyorsabbak,ez igy volt és igy is marad egy joideig
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
Viszont gondolom az Intelnél sem teljesen hülyék... (Bár... Annak az Ambrus akárkinek is képesek voltak egy feltalálói fõdíjat adni, mert nem láttak még zöld-piros szemüveges 3D-t számítógépen, vagy talán még papíron sem, LOL, miközben az Nvidia stereo3D drivere x éve tudja. A 3D-s toll - ami egy minden nagyobb animátor stúdióban megtalálható mozgáskövetõ kicsiben - nem is igazán érdekelte õket. Na persze a srác is szépen megjátszotta, hogy õ találta fel az anagliphet, ejnye ejnye.)
Back on topik... Azért talán elõször nem szórt megvilágítással, és más efféle nyalánksággal indítanak majd. Azért enélkül is elég szép lehet a kép.
és akkor még ugyanott vagy mint a raszteres cuccal
van olyan rt effect pl a szort megvilágitás ahol pixelenként 500 sugar kell
és a mai nagy felbontások mellett lehet számolni mennyi millio sugar szorozva a scene objectjeivel polygonjaival pláne ha displacementet is használunk
sok sok millio milliárd ciklus jön ki
higgyél nekem nem éri meg :) sokat foglalkoztam a témával
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
Ez nagyon sok poligon esetén talán még gyorsabb is lehet, mint a másik módszer... És akkor még ott vannak a mindenféle mappolások, amiket a raszterizációnál elõre ki kell számolni: ha abból is sok van, az is csökkenti a két módszer közötti különbséget számítási igényben.
És ha már amúgy is nagyon sokat kell számolni, akkor inkább ray-tracing... A sok igen komplikált, és még így is korlátolt trükk nélkül, "egyszerûen és nagyszerûen" jóval élethûbb kép nyerhetõ.
Streamelés? Hát... Már ahol. Nem hiszem, hogy a GPU-k (v. GPU-szerû képzõdmények, mint pl. Larrabee) többszáz bites memóriavezérlõit felcserélik egy sokkal kisebbre, és ráállnak a streameljünk mindent taktikára. :)
ps. privit küldök elõször is
ha érdekel a dolog keress meg icq-m:114874817
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
esetleg a 2 modzser kombinácioja adhatja alegjobb eredményt pl az árnyékokhoz raytracing a többihez meg a raszteres cucc
de ne várjatok a raytracingtöl csodát mert semmi csoda nincs benne
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
Az un. raszterizációs (amit most a GPU-k csinálnak) módszernél a háromszögeket perspektívába számolják, majd szépen egymás után kirajzolják (úgy, hogy a közelebb lévõ fedje a távolabb lévõt) õket, majd soronként haladva textúrázzák, árnyalják, stb. A tükrözõdéseket és árnyékokat trükkös módszerekkel számolják rá.
Ray-tracingél kapásból a képernyõ pixelein haladnak végig, és mindegyikre kiszámolják, hogy a nézõpontól azon a pixelen áthaladó egyenes melyik háromszöget (vagy akár más geometriai testet, csak algoritmus kérdése!) metszi legközelebb. Azaz végülis azt, hogy azon a pixelen "átnézve" mely tárgyat látnánk. (Tehát ez egy visszakövetés, nem pedig a lámpából követik a fénysugarakat, mert ahhoz túl sok sugár útját kellene követni.) Majd arra pontra kiszámolják a megvilágítást (ebben már benne van az árnyék is, tehát hogy az adott pont takarásban van-e egyik vagy másik fényforrástól, stb.). Továbbá ha tükrözõ felület, akkor tovább követik a sugár útját visszafelé, azaz hogy errõl a pontról mi is tükrözõdik. Persze egy tárgy lehet átlátszó vagy áttetszõ is, ekkor több sugár útját is ki kell számolni. (Nagyon élethû üveget vagy épp füstöt lehet pl. számolni.)
Elég komplikálltnak túnik ez a Ray-tracing. Valami a tárgyakról induló fénysugár útvonalának számításán alapul ?:S Sok érthetõ magyarázatot nem találtam.
Ahogy kivettem az írásaitokból, akkor ez nem pixel alapú megjelenítés hanem vektoros ? Csak mert a sima grafikában a vektoros grafikák nagyon jó megoldások, mint képminõség mint méret szempontjából. Az egyetlen gond a fény-árnyék, és a színátmenetnél van. Azok megjelenítése vektorossan igencsak erõforrásigényes :)
De persze lehet, hogy ez tök másról szól...
Egyébként addig úgy sem állnak le, amíg nem lesz olyan élethû a kép (fizikával együtt), hogy ne csak a nagy játékosok feledkezzenek bele, hanem az átlagemberek is. Mindegy, ezt most hagyjuk.
ps. régebben fõleg hobbiból foglalkoztam modellezéssel, renderinggel pár évig.
Persze, raytracinggel szebb képet lehet csinálni, nem vitás, de realtime-hoz olyan mennyiségben kell erõforrásokat bevetni ehhez, ami véleményem szerint nem éri meg azt a különbséget (ami, továbbra is tartom magam hozzá, nem olyan nagy). Tetszõleges számú, rekurzív tükrözõdés, lágy szélû árnyékok, radiosity (vagy hogyishívják, amikor mindehonnan visszaverõdik a fény mindenhova, és a fény betölti a szobát), meg minden tárgy nurbs felületekbõl álljon, sztem ez mind nem kell egy játékba, aminek az alapvetõ célja a szórakoztatás.
"Totál élethûtlen"?... te esetleg profi 3D modellezõ vagy?
Ha az ember egész nap félórás render-eket készít és nézeget, megértem, hogy amellett egy játék grafikája bizony hamar lealacsonyodik.
Mivel ez nem igazi holografikus kép, amit onnan nézel, ahonnan akarsz, illetve oda fókuszálsz, ahova akarsz, stb., hanem 2D-s képen alapul, csak 2db-on (a két szemnek külön), így 2x kell kiszámolni ugyanazt a képkockát, csak pár cm-rel odébb helyezett nézõpontból. Viszont adott esetben fele felbontással (a kép kép együtt adja ki az eredeti felbontást).
Azért ha jobban megnézed azt a Quake4-es képet, van ott pár tükrözõdõ felület (rekurzívan!)... És még csak nem is legélethûbb kép, csak hirtelen nem találtam jobbat.
Nincs értelme látvány terén tovább fejlõdni? Hát ezzel nem igazán értek egyet, LOL. A mai GPU-s 3D totál élethûtlen. :D
A ray-tracing nem zárja ám ki a shadereket!
Naszóval, már évek óta majdnem minden DX-es játékot játszhatsz 3D sisakkal (csak a fej-elfordítást nem nagyon figyelik a programok), vagy sztereo monitoron! Nvidiának van saját drivere erre, és ATI-hoz is van külsõ driver. De valahogy nem érdeklõdnek iránta az emberek.
A 3D-s kijelzõ ráadásul a teljesítményigényesebb, mint a mai 2D-n ábrázolt 3D-s kép. Nem tudom, hogy mennyivel több számítási igénye van, de mindenképpen elég sokkal több.
Azért azt ugye belátod, hogy ez a látvány, amit belinkeltél, még fényévekre le van maradva attól, amit a háromszög+shader alapú 3D ma tud? És az sem fog resten ülni abban az elkövetkezendõ 10- évben.
(bár mondjuk részemrõl 3D-s látvány terén már nincs értelme tovább fejlõdni)
A legvalószinûbb, hogy még tovább fokozzák a shaderteljesítményt, olyannyira, hogy raytracing-re is alkalmas lesz, és majd verenyeznek az Intel sokmagos ajánlataival, mikor majd a realtime raytracing lesz az új vesszõparipa, mert több pénzt majd nem lehet kipréselni a polishader 3D-bõl.
indokold meg mibe jobb a ray tracing? a 100-szoros eröforrás igény mellett
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
Amúgy mért nem térnek már át valami virtuális valóság project-re elérhetõ áron? Úgyértem, nem lehet a végtelenségig nyúzni ezt a megszokott 2D-s felületet.
Igaz még 300 ezer Ft körül vannak az ilyen VR sisakok. Ha ebbõl tömegterméket sikerülne csinálni akkor lényegessen olcsóbbá válhatnak...
na jó ez tényleg elég meredek ötlet...
De anyagi okokon kívül lenne technikai akadálya hogy a mostanit, vagy hasonló grafikát átvigyünk egy virtuális térbe? most a Vr sisakos megoldásokra gondolok... Mert végülis az lenen az igazi élmény =)
The End of Rasterization
További sok cikk az IDF-es bemutatóról: link
További sok cikk az Intel terveirõl a témában: link
a pixelek buzerálására meg a sok threades alacsonyabb orajelü sok-sok magos memoria latencyt eltüntetö gpu a jobb
ezért lesznek valoszinülg olyan chipek amik több különbözö tömböl állnak, lesz magas orajelü tömb meg alacsonyabb orajelü tömb, minden feladathoz a jobbik megoldást választhatjuk
a chipek hamarosan 3D-sek lesznek, több réteg egymás fölött, és a rétegek a lábak számának minimalizásása miatt indukcioval , magyarul rádios jelekkel kommunikálnak
Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)
Mindharom megoldas mukodokepes, bar az nvidia fele megoldas olcsobb, kevesebb fejlesztest igenyel es regebbi technologiaval is mukodokepes. Amig a pixelek szama tobb mint a cpu-k szama, addig az o techikajuk jol skalazhato. (tehat jelenleg kb. 2 millio gpu magnal van az elmeleti limit)
Az ibm fele cell-es megoldas sem rossz, viszont otvozi a gpu-k bonyolult programozhatosagat a cpu-k teljesitmenybeli hatranyaival.
Az intel fele megoldas pedig csak az olcso szegmensbe jo, ahol eddig egy 1-4 pipeline-os integralt gpu volt, es ebben az esetben mar a 10 pipeline (mag) is jonak szamit. A legjobb inteles kiserleti rendszerben 80 mag volt. Ez az nvidia 128-ahoz kepest meg mindig keves, bar az intelnek annyi az elonye, hogy modernebb a gyartasi technikaja, tehat magasabb orajelet hasznalhat.
A szemelyes velemenyem az, hogy jelenleg a legjobb eredmenyt az xbox360-as architektura dx10-es valtozata hozna. Ez all egy egyszeru tobbmagos cpu-bol, egy cpu magokat tartalmazo gpu chipbol es a gpu-hoz kotott memoriabol. A gpu-cpu hid pedig egy sima soros busz (pcie16/pcie32) lehetne. A cpu oldalara meg memoria sem kell, gyorsabb ha a grafikus rambol dolgozik a gpu-t hasznalva memoriakezelonek. (a grafikus ram gyorsabb) Veletlenul ugyanezt a megoldast hasznaltak annak idejen az amiga rendszerek, de meglepo modon hasolno volt a felepitese az elso sinclair zx81-eseknek is.
A trükkös 3D akkor fog majd csak kihalni, ha már nem lehet tovább fokozni a teljesítményét, meg szebbé tenni az effekteket. És akkor, a DirectX 19 után úgy jön be új slágernek a realtime raytracing, ahogy most jön be a DirectX 10... (ugyanaz, csak lassabb)
És sajnos meg fogjuk venni, akármennyire is hülyeség lesz.
A külsõ GPU még egy ideig (amíg létezik ebben a formában) sokkal jobb lesz a mostani típusú 3D grafikára, mint az akár hová integrált, mert nem kell osztoznia sem chipterületbn, sem hõtermelésben...
Legalábbis egyelõre két dolgot céloztak meg:
1. A mobil és belépõ szinten költségcsökkentés, tehát az eddigi chipsetbe integrált grafika kerül majd át a prociba - a proci mindig fejlettebb technológiával, így kisebb vonalszélességgel (nm) készül, mint a chipset, így a prociban kisebb chipterületet fog igényelni. Plusz miután a memóriavezérlõ is átkerült, nem is lenne okos dolog ezt kint hagyni.
2. GPGPU alkalmazások, ahol a GPU számoló egységeivel egyéb számítási feladatokat végeztetnek. A CPU és egy GPU közelebb kerülése gyorsabb adatcserét tesz lehetõvé, így optimálisabb algoritmusok születhetnek. (A GPU nagyon gyors bizonyos alapvetõ számításokban, de összetettebb mûveletekhez a CPU-ra is szükség van. Ketten együtt lesznek igazán ütõsek.)
Viszont ahogy fejlõdik ez a dolog, és növekszik az összetettebb algoritmusok futtatására is felhasználható teljesítmény (és az Intel máris konkrét terveket szövöget errõl), lassan a mostani 3D-grafikai módszerek, ahol az élethû hatásokat sokszor csak mindenféle trükkel lehet elérni, szal ez átadja a helyét a sokkal kézenfekvõbb módon élethû képet generáló real-time ray-tracingnek...
Tulajdonképpen részben így akarják kiütni a nyeregbõl az Nvidiát, akik már elõre félnek, mivel nekik nincs tapasztalatuk CPU-tervezésben. (És ezt látva elõre egyesült az AMD és az ATI is.)
Szót ejthetünk a Larrabee-rõl is (ez lesz az Intel külsõ "GPU"-ja), ami a hagyománnyal szakítva nem sok-sok kis számoló egységet tartalmaz, mint a szokásos GPU-k (mondjuk ez nem is lenne igazán az õ asztaluk), hanem pártíz matematikai számításokra optimizált, leegyszerûsített CPU-magot, ami azért elbír összetettebb kódokkal is. Esetleg már ez is képes lesz a real-time ray-tracingre. De legalábbis újabb érdekes effektekre. És minden bizonnyal késõbb ez veszi át a szokásosabb GPU helyét a proci mellett is. Ezzel tulajdonképpen a Cell proci fejlesztési stratégiáját követik majd: a Cellbõl is lesz olyan, ami több CPU magot, és még több kiegészítõ magot tartalmaz. Meg nyilván az AMD is ott lesz a sorban. Az a nagy kérdés, az Nvidia hol lesz...
Na, ha valami hülyeséget írtam, dezz majd kijavít. :)
Egyébként meg akinek nagy teljesítmény kell úgy fogja használni, hogy GPUCPU + rendes videokártya.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Intel külön álló grafkártyáira leszek mégjobban kiváncsi.Bár sikerülne neki komolyat alkotni mert az ára szempontjából csak nekünk lenne jó!
Next PC upgrade: 2022