39
  • dez
    #39
    A "geometria elszórásához" is kell nem kevés szám. telj.
  • dez
    #38
    "Ráadásul ettől a GPU-k sem fognak eltűnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni."
    Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelőre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetők, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan műveletekből sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sűrűn fordul elő (távolságmérés).

    Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...

    "Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene."
    Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése előtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)
  • Vers
    #37
    ja ezt szoptam be én is pár éve, csakhogy a raszteres cuccnál is el lehet szorni a fölösleges geometriát, és akkor már egész hasonlo függvényt kapunk csak 100-szor gyorsabb minden értéken :)
  • shabba
    #36
    Ha elolvasod pl. a dez által linkelt cikkeket, akkor azokból pont az jön le hogy a kép komplexitásának és poligonszám emelkedésével a Raytracing egyre inkább realítássá válik, mert az algoritmusa kevésbé érzékeny a kép komplexitásának növekedésére mint a raszteres megoldások.



    A felbontással lineáris az összefüggés hisz a képpontok számátúl függ az erőforrás igény. Idővel ahogy egyre nő a chipekben megjelenő számítási teljesítmény, egyre inkább lesz reális lehetőség a raytracingre is.

    Ez még nem azt jelenti hogy raszteres megoldások hip-hop jővő eltűnnek és ray-tracing lesz helyette. Ez egy sokkal lassabb folyamat lesz. Ráadásul ettől a GPU-k sem fognak eltűnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni. Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene.

    Az eltérő piaci szereplők Cell, Tesla, Larrabee, Fusion mind ezeket a piacokat célozzák majd meg a saját megoldásukkal. És nem csak a gamer front az egyedüli, hanem a HPC is, meg más piacok. A software támogatottságon nagyon sok múlni, az könnyen eldönthető hogy ezen termékek közül mely fog szélesebb körben elterjedni.

    Az Intel IDF anyagaiban 2-3 év múlva jelzi a real ray-tracing beköszöntét, ez még közel sem jelenti azt hogy elsöpri a rasteres megoldásokat, csak az hogy megjelennek az első olyan komolyabb rendszerek amiken már reálisabban használható ez a fajta megoldás. Nem véletlen hogy elsőször csak egy különálló kártyán érkezik majd az Intel féle Larrabee várhatóan 2009 elején, elöször 45nm-en. Igazából az csak arra lesz jó hogy szélesebb körben megindulhasson a software fejlesztés és támogatás, azzal hogy lesz fizikailag hozzáférhatő platform. Aztán majd 2-3 év múlva ha már 32nm-en jön a következő Larrabee generáció, ott már akár be is épülhet az általános chipek mellé egy lapkára.

    A saját véleményen az hogy 2-3 év múlva az Intel első próbálkozása nem lesz majd túl sikeres gémer fronton, de HPC-nél be fog válni és annyival elsőre elégedettek is lesznek majd, ott sincsenek azért irreális elvárások. De mondjuk újabb 2 év múlva, újabb gyártástechnológián, időközben tovább növekvő software támogatottság mellett másodszorra már összejöhet nekik. De a másik három előbb felsorol piaci szereplőnek is ugyanígy megvannak az esélyei, és fognak is élni vele.
  • fade2black
    #35
    "de képtelenség realtimra felgyorsitani egy több millio polys scenét"

    mennyi ilyen képtelenséget láttunk már megvalósulni. És mára már ezek jórésze rutinsemmiség. Szivesen sorolok listát.... :)
  • dez
    #34
    Na jó, csak a viszonylag élethű, és a valóban eléggé élethű között egyre többen látják meg a különbséget...
    Meg az egyre bonyibb per-pixel shaderek is úgy eszik a teljesítményt (amire egyre brutálisabb hw a "válasz"), hogy egyre kisebb a különbség eközött, és a ray-tracing között teljesítmény-igényben...
    Pl. ott van a füst/robbanás effekt. Gyors módszerrel éles határvonallal "beleáll" a földbe - valamivel élethűbben megvalósítva (nem "beleállósan") egy csúcs-vga-t is megfektet...
  • Vers
    #33
    a raytracingnek a halála a nagy felbontás és sajnos vagy nem sajnos errefelé megyünk most alap a 2k*1k,nemsokára a 4k*2k
    és hidd el én is szeretnék raytracingelni mert jo na, csak a hagyományos modszerekkel sokkal jobbat lehet csinálni a jelenlegi technologiával
    pl van olyan trükk hogy cubemappal világitjuk be a testet ez nagyon közel jár a RT-s bevilágitáshoz,csak ez gyors :)
    a trükkök mindig gyorsabbak,ez igy volt és igy is marad egy joideig
  • dez
    #32
    Elhiszem, hogy sokat foglalkoztál vele. Egyébként én is, bár már jó rég, amikor még nem volt ennyire rettentő sok poligon meg object.

    Viszont gondolom az Intelnél sem teljesen hülyék... (Bár... Annak az Ambrus akárkinek is képesek voltak egy feltalálói fődíjat adni, mert nem láttak még zöld-piros szemüveges 3D-t számítógépen, vagy talán még papíron sem, LOL, miközben az Nvidia stereo3D drivere x éve tudja. A 3D-s toll - ami egy minden nagyobb animátor stúdióban megtalálható mozgáskövető kicsiben - nem is igazán érdekelte őket. Na persze a srác is szépen megjátszotta, hogy ő találta fel az anagliphet, ejnye ejnye.)

    Back on topik... Azért talán először nem szórt megvilágítással, és más efféle nyalánksággal indítanak majd. Azért enélkül is elég szép lehet a kép.
  • Vers
    #31
    gyorsitani mindig lehet, ezt aláirom , de képtelenség realtimra felgyorsitani egy több millio polys scenét
    és akkor még ugyanott vagy mint a raszteres cuccal
    van olyan rt effect pl a szort megvilágitás ahol pixelenként 500 sugar kell
    és a mai nagy felbontások mellett lehet számolni mennyi millio sugar szorozva a scene objectjeivel polygonjaival pláne ha displacementet is használunk
    sok sok millio milliárd ciklus jön ki
    higgyél nekem nem éri meg :) sokat foglalkoztam a témával
  • dez
    #30
    Az objecteket eleve egyesével téglatestekbe "teszik", és először ezekkel való metszést számolnak, ez igen sokat gyorsít. Ezt meg lehet tenni egymás közelében lévő objectekkel is, dinamikusan.

    Ez nagyon sok poligon esetén talán még gyorsabb is lehet, mint a másik módszer... És akkor még ott vannak a mindenféle mappolások, amiket a raszterizációnál előre ki kell számolni: ha abból is sok van, az is csökkenti a két módszer közötti különbséget számítási igényben.

    És ha már amúgy is nagyon sokat kell számolni, akkor inkább ray-tracing... A sok igen komplikált, és még így is korlátolt trükk nélkül, "egyszerűen és nagyszerűen" jóval élethűbb kép nyerhető.

    Streamelés? Hát... Már ahol. Nem hiszem, hogy a GPU-k (v. GPU-szerű képződmények, mint pl. Larrabee) többszáz bites memóriavezérlőit felcserélik egy sokkal kisebbre, és ráállnak a streameljünk mindent taktikára. :)

    ps. privit küldök először is
  • Vers
    #29
    Dez régebben kerestél , keresek ps3 fejlesztöket:)
    ha érdekel a dolog keress meg icq-m:114874817
  • Vers
    #28
    nagyjábol igy megy ,csak egy baj van a ray tracing algoritmus 90%-ban a sugar és a felületek metszéspontjának keresésével foglalkozik , ami általában térfeloszto algoriitmus, csakhogy egy dinamikus scenében aholminden mozog, elég nehéz jo algot csinálni és nagyon véletlenszerü lesz a találat, ami a mai ramoknak nem igazán fexik mivel az ipar pont a streames irányba halad
    esetleg a 2 modzser kombinácioja adhatja alegjobb eredményt pl az árnyékokhoz raytracing a többihez meg a raszteres cucc

    de ne várjatok a raytracingtöl csodát mert semmi csoda nincs benne
  • dez
    #27
    Anélkül, hogy jobban a részletekbe mennénk:
    Az un. raszterizációs (amit most a GPU-k csinálnak) módszernél a háromszögeket perspektívába számolják, majd szépen egymás után kirajzolják (úgy, hogy a közelebb lévő fedje a távolabb lévőt) őket, majd soronként haladva textúrázzák, árnyalják, stb. A tükröződéseket és árnyékokat trükkös módszerekkel számolják rá.

    Ray-tracingél kapásból a képernyő pixelein haladnak végig, és mindegyikre kiszámolják, hogy a nézőpontól azon a pixelen áthaladó egyenes melyik háromszöget (vagy akár más geometriai testet, csak algoritmus kérdése!) metszi legközelebb. Azaz végülis azt, hogy azon a pixelen "átnézve" mely tárgyat látnánk. (Tehát ez egy visszakövetés, nem pedig a lámpából követik a fénysugarakat, mert ahhoz túl sok sugár útját kellene követni.) Majd arra pontra kiszámolják a megvilágítást (ebben már benne van az árnyék is, tehát hogy az adott pont takarásban van-e egyik vagy másik fényforrástól, stb.). Továbbá ha tükröző felület, akkor tovább követik a sugár útját visszafelé, azaz hogy erről a pontról mi is tükröződik. Persze egy tárgy lehet átlátszó vagy áttetsző is, ekkor több sugár útját is ki kell számolni. (Nagyon élethű üveget vagy épp füstöt lehet pl. számolni.)
  • Dany007
    #26
    Naa nekem valami ilyesmi grafika kellene real-time renderinggel :) igazez 3dsmax.
    Elég komplikálltnak túnik ez a Ray-tracing. Valami a tárgyakról induló fénysugár útvonalának számításán alapul ?:S Sok érthető magyarázatot nem találtam.
    Ahogy kivettem az írásaitokból, akkor ez nem pixel alapú megjelenítés hanem vektoros ? Csak mert a sima grafikában a vektoros grafikák nagyon jó megoldások, mint képminőség mint méret szempontjából. Az egyetlen gond a fény-árnyék, és a színátmenetnél van. Azok megjelenítése vektorossan igencsak erőforrásigényes :)
    De persze lehet, hogy ez tök másról szól...
  • dez
    #25
    Áhh, közben látom, hogy a "profi" szón volt a hangsúly. Mert az nagyon fontos ahhoz, hogy az ember lásson a szemével, LOL.
  • dez
    #24
    Egyébként egyes aliasing-hatásokat is csak raytracinggel rendesen kiküszöbölni.
  • dez
    #23
    Azt nem csak a szemed sarkából látod egy pillanatra, hogy az egész kép mennyire élethű és szép, vagy durván mesterséges.

    Egyébként addig úgy sem állnak le, amíg nem lesz olyan élethű a kép (fizikával együtt), hogy ne csak a nagy játékosok feledkezzenek bele, hanem az átlagemberek is. Mindegy, ezt most hagyjuk.

    ps. régebben főleg hobbiból foglalkoztam modellezéssel, renderinggel pár évig.
  • SuperCharger
    #22
    Jó, de egy játékban ez minek? Látod a szemed sarkából, egy fél másodpercre, aztán lõsz az ellenre, ugrálsz, mozogsz, és már nem is látod. Én legalábbis nem állok le egy tíz percre gyönyörködni benne.

    Persze, raytracinggel szebb képet lehet csinálni, nem vitás, de realtime-hoz olyan mennyiségben kell erõforrásokat bevetni ehhez, ami véleményem szerint nem éri meg azt a különbséget (ami, továbbra is tartom magam hozzá, nem olyan nagy). Tetszõleges számú, rekurzív tükrözõdés, lágy szélű árnyékok, radiosity (vagy hogyishívják, amikor mindehonnan visszaverõdik a fény mindenhova, és a fény betölti a szobát), meg minden tárgy nurbs felületekbõl álljon, sztem ez mind nem kell egy játékba, aminek az alapvetõ célja a szórakoztatás.

    "Totál élethűtlen"?... te esetleg profi 3D modellezõ vagy?
    Ha az ember egész nap félórás render-eket készít és nézeget, megértem, hogy amellett egy játék grafikája bizony hamar lealacsonyodik.
  • dez
    #21
    Párszáz ezerért már kapsz elég jó auto-stereo monitort. Szal amihez nem kell semmilyen szemüveg. Sőt ennél olcsóbb megoldások is vannak.

    Mivel ez nem igazi holografikus kép, amit onnan nézel, ahonnan akarsz, illetve oda fókuszálsz, ahova akarsz, stb., hanem 2D-s képen alapul, csak 2db-on (a két szemnek külön), így 2x kell kiszámolni ugyanazt a képkockát, csak pár cm-rel odébb helyezett nézőpontból. Viszont adott esetben fele felbontással (a kép kép együtt adja ki az eredeti felbontást).
  • dez
    #20
    Figyu, az Intel ezzel akarja biztosítani, hogy a grafikában is minnél hamarabb vezető legyen. Raszterizációban nem tudnak versenyezni az Nvidiával és az AMD/ATI-val, marad ez. Már 1000-rel rá is álltak erre, és tarolni fognak, mint az úthenger...

    Azért ha jobban megnézed azt a Quake4-es képet, van ott pár tükröződő felület (rekurzívan!)... És még csak nem is legélethűbb kép, csak hirtelen nem találtam jobbat.
    Nincs értelme látvány terén tovább fejlődni? Hát ezzel nem igazán értek egyet, LOL. A mai GPU-s 3D totál élethűtlen. :D
    A ray-tracing nem zárja ám ki a shadereket!
  • dez
    #19
    Ha tele van a kép tükröződő felületekkel, a megszokottnál élethűbb árnyalásra és árnyékokra van szükség, akkor már nem is igazán hatékonyabb a raszterizációs megoldás... Plusz egyszerűbben lesz élethűbb a kép.
  • dez
    #18
    Á, dehogy, csak ennyi butaságot egy halomban még nem olvastam, mint amit kvp összehordott. Ráadásul amilyen "meggyőződéssel" előadja... Uhh. És akkor még vissza sem nézi a topikot. (Ennek nagy részét már 1x leírta pár napja.)

    Naszóval, már évek óta majdnem minden DX-es játékot játszhatsz 3D sisakkal (csak a fej-elfordítást nem nagyon figyelik a programok), vagy sztereo monitoron! Nvidiának van saját drivere erre, és ATI-hoz is van külső driver. De valahogy nem érdeklődnek iránta az emberek.
  • JTBM
    #17
    A 3D-s kijelző már valóság, a kis probléma az árával van, legutoljára 4M volt egy monitor...

    A 3D-s kijelző ráadásul a teljesítményigényesebb, mint a mai 2D-n ábrázolt 3D-s kép. Nem tudom, hogy mennyivel több számítási igénye van, de mindenképpen elég sokkal több.
  • SuperCharger
    #16
    Na jó, a 10 év lehet, hogy kicsit magas volt konkrétan a realtime raytracing-re, de arra semmiképpen sem, amikorra átveszi az uralmat a normál 3D-től.

    Azért azt ugye belátod, hogy ez a látvány, amit belinkeltél, még fényévekre le van maradva attól, amit a háromszög+shader alapú 3D ma tud? És az sem fog resten ülni abban az elkövetkezendő 10- évben.
    (bár mondjuk részemről 3D-s látvány terén már nincs értelme tovább fejlődni)
    A legvalószinűbb, hogy még tovább fokozzák a shaderteljesítményt, olyannyira, hogy raytracing-re is alkalmas lesz, és majd verenyeznek az Intel sokmagos ajánlataival, mikor majd a realtime raytracing lesz az új vesszőparipa, mert több pénzt majd nem lehet kipréselni a polishader 3D-ből.
  • Vers
    #15
    én is eltévelyedtem pár éve mikor a rytracingbe láttam a jövöt
    indokold meg mibe jobb a ray tracing? a 100-szoros eröforrás igény mellett
  • Dany007
    #14
    Azta fene :O Látom szar kedvedben vagy :)

    Amúgy mért nem térnek már át valami virtuális valóság project-re elérhető áron? Úgyértem, nem lehet a végtelenségig nyúzni ezt a megszokott 2D-s felületet.
    Igaz még 300 ezer Ft körül vannak az ilyen VR sisakok. Ha ebből tömegterméket sikerülne csinálni akkor lényegessen olcsóbbá válhatnak...
    na jó ez tényleg elég meredek ötlet...
    De anyagi okokon kívül lenne technikai akadálya hogy a mostanit, vagy hasonló grafikát átvigyünk egy virtuális térbe? most a Vr sisakos megoldásokra gondolok... Mert végülis az lenen az igazi élmény =)
  • dez
    #13
    Úgy, onstd csak a tömény baromságot. Bakker, majdnem minden mondatod téves. Egy részére éppen pár napja válaszoltam valahol (ezt most nem ismétlem meg), de te még csak el sem olvasod a válaszokat, csak behányod az ökörséget, aztán továbbállsz. Nyilván ezt sem olvasod el, és legközelebb ugyanitt folytatod majd.
  • dez
    #12
    Ha csöndbe maradtál volna... ;) Basszus, a mostani IDF-en real-time ray-tracelt Quake4-et demóztak egy 2x4 magos gépen. A Larrabee-t is úgy tervezik, hogy alkalmas legyen erre is.

    The End of Rasterization

    További sok cikk az IDF-es bemutatóról: link

    További sok cikk az Intel terveiről a témában: link
  • Vers
    #11
    szerintem külön kell választani a dolgokat, a vertexek buzerálására a magas orajelü cpu a jobb
    a pixelek buzerálására meg a sok threades alacsonyabb orajelü sok-sok magos memoria latencyt eltüntetö gpu a jobb
    ezért lesznek valoszinülg olyan chipek amik több különbözö tömböl állnak, lesz magas orajelü tömb meg alacsonyabb orajelü tömb, minden feladathoz a jobbik megoldást választhatjuk
    a chipek hamarosan 3D-sek lesznek, több réteg egymás fölött, és a rétegek a lábak számának minimalizásása miatt indukcioval , magyarul rádios jelekkel kommunikálnak
  • kvp
    #10
    Az nvidia gf8800-as sorozata altalanos cpu-kat tartalmaz, egyszeru felepitessel, alacsony orajelen, de sokat. Ezzel szemben az intel terve a keves, bonyolult, de nagy orajelu cpu gpu-kenti felhasznalasa. A ps3-ban ilyenek az spe egysegek. (6-8 darab kozepesen bonyolult, nagyon gyors altalanos cpu)

    Mindharom megoldas mukodokepes, bar az nvidia fele megoldas olcsobb, kevesebb fejlesztest igenyel es regebbi technologiaval is mukodokepes. Amig a pixelek szama tobb mint a cpu-k szama, addig az o techikajuk jol skalazhato. (tehat jelenleg kb. 2 millio gpu magnal van az elmeleti limit)

    Az ibm fele cell-es megoldas sem rossz, viszont otvozi a gpu-k bonyolult programozhatosagat a cpu-k teljesitmenybeli hatranyaival.

    Az intel fele megoldas pedig csak az olcso szegmensbe jo, ahol eddig egy 1-4 pipeline-os integralt gpu volt, es ebben az esetben mar a 10 pipeline (mag) is jonak szamit. A legjobb inteles kiserleti rendszerben 80 mag volt. Ez az nvidia 128-ahoz kepest meg mindig keves, bar az intelnek annyi az elonye, hogy modernebb a gyartasi technikaja, tehat magasabb orajelet hasznalhat.

    A szemelyes velemenyem az, hogy jelenleg a legjobb eredmenyt az xbox360-as architektura dx10-es valtozata hozna. Ez all egy egyszeru tobbmagos cpu-bol, egy cpu magokat tartalmazo gpu chipbol es a gpu-hoz kotott memoriabol. A gpu-cpu hid pedig egy sima soros busz (pcie16/pcie32) lehetne. A cpu oldalara meg memoria sem kell, gyorsabb ha a grafikus rambol dolgozik a gpu-t hasznalva memoriakezelonek. (a grafikus ram gyorsabb) Veletlenul ugyanezt a megoldast hasznaltak annak idejen az amiga rendszerek, de meglepo modon hasolno volt a felepitese az elso sinclair zx81-eseknek is.
  • SuperCharger
    #9
    Azért a realtime raytracing-től sztem még vagyunk min. 10 évre, ami alatt a "trükkös" 3D is fejlődik majd, és fog majdnem olyan képet produkálni, mint a tracing. Az a "majdnem" meg a játékoknak elég lesz (a 3D ipart meg ugye a játékok táplálják).

    A trükkös 3D akkor fog majd csak kihalni, ha már nem lehet tovább fokozni a teljesítményét, meg szebbé tenni az effekteket. És akkor, a DirectX 19 után úgy jön be új slágernek a realtime raytracing, ahogy most jön be a DirectX 10... (ugyanaz, csak lassabb)
    És sajnos meg fogjuk venni, akármennyire is hülyeség lesz.
  • dez
    #8
    "mivel nekik nincs tapasztalatuk CPU-tervezésben" -> mondjuk épp most olvastam, hogy a Nvidia főnöke, az a Huang akármi régebben CPU tervező volt az AMD-nél. :) Szóval azért még ott is történhetnek érdekes dolgok. Bár ehhez kevés egy ember, a többiek meg inkább GPU tervezők.
  • dez
    #7
    Izé, először is a cikkhez: a legnagyobb változás inkább az integrált memóriavezérlő. Nem tudom, a cikk miért nem említi. Plusz ennek folyományaként a QPI már nem a (szokásos értelemben vett) rendszerbusz (mint ahogy a hasonló, és hasonló szerepet betöltő HyperTransport sem annak hívatik AMD-nél).

    A külső GPU még egy ideig (amíg létezik ebben a formában) sokkal jobb lesz a mostani típusú 3D grafikára, mint az akár hová integrált, mert nem kell osztoznia sem chipterületbn, sem hőtermelésben...

    Legalábbis egyelőre két dolgot céloztak meg:
    1. A mobil és belépő szinten költségcsökkentés, tehát az eddigi chipsetbe integrált grafika kerül majd át a prociba - a proci mindig fejlettebb technológiával, így kisebb vonalszélességgel (nm) készül, mint a chipset, így a prociban kisebb chipterületet fog igényelni. Plusz miután a memóriavezérlő is átkerült, nem is lenne okos dolog ezt kint hagyni.
    2. GPGPU alkalmazások, ahol a GPU számoló egységeivel egyéb számítási feladatokat végeztetnek. A CPU és egy GPU közelebb kerülése gyorsabb adatcserét tesz lehetővé, így optimálisabb algoritmusok születhetnek. (A GPU nagyon gyors bizonyos alapvető számításokban, de összetettebb műveletekhez a CPU-ra is szükség van. Ketten együtt lesznek igazán ütősek.)

    Viszont ahogy fejlődik ez a dolog, és növekszik az összetettebb algoritmusok futtatására is felhasználható teljesítmény (és az Intel máris konkrét terveket szövöget erről), lassan a mostani 3D-grafikai módszerek, ahol az élethű hatásokat sokszor csak mindenféle trükkel lehet elérni, szal ez átadja a helyét a sokkal kézenfekvőbb módon élethű képet generáló real-time ray-tracingnek...

    Tulajdonképpen részben így akarják kiütni a nyeregből az Nvidiát, akik már előre félnek, mivel nekik nincs tapasztalatuk CPU-tervezésben. (És ezt látva előre egyesült az AMD és az ATI is.)

    Szót ejthetünk a Larrabee-ről is (ez lesz az Intel külső "GPU"-ja), ami a hagyománnyal szakítva nem sok-sok kis számoló egységet tartalmaz, mint a szokásos GPU-k (mondjuk ez nem is lenne igazán az ő asztaluk), hanem pártíz matematikai számításokra optimizált, leegyszerűsített CPU-magot, ami azért elbír összetettebb kódokkal is. Esetleg már ez is képes lesz a real-time ray-tracingre. De legalábbis újabb érdekes effektekre. És minden bizonnyal később ez veszi át a szokásosabb GPU helyét a proci mellett is. Ezzel tulajdonképpen a Cell proci fejlesztési stratégiáját követik majd: a Cellből is lesz olyan, ami több CPU magot, és még több kiegészítő magot tartalmaz. Meg nyilván az AMD is ott lesz a sorban. Az a nagy kérdés, az Nvidia hol lesz...
  • m4G1c
    #6
    voxeles motort nem tudnak a mostani gpu-k kezelni, szóval egy előnye már van a cpu-nak ezzel szemben :) mondjuk arra az irányra rá is gyúrhatnának, mert több lehetőség van benne, mint a poligonos megoldásokban. de majd eldöntik.
  • sgember
    #5
    Ez nem fogja xarrá verni a külső vga-t, az még messze van gondolom. Sztem talán arra megy ki a dolog, hogy lassan egyre több mindent egybegyúrnak, így olcsóbb alaplapok gyárthatók, mobil pc-khez is jól jöhet. A Sun Niagara 2 szerverproci péld. már tartalmaz 2 ethernet és egy nyolcsávos pci-e vezérlőt. Lehet pc-nél is ebbe az irányba mennek.
    Na, ha valami hülyeséget írtam, dezz majd kijavít. :)
  • fade2black
    #4
    dezz kiváncsi lennék a véleméynedre... :)
  • Sanyix
    #3
    "Kiváncsi leszek ezekra a VGA+cpu egybe dologra lesz-e valami olyan előnye amivel szarrá aláz egy külön álló VGA és cpu párost." Egyértelmű hogy nem. De nem kis számítási teljesítményt fog jelenteni pluszban.

    Egyébként meg akinek nagy teljesítmény kell úgy fogja használni, hogy GPUCPU + rendes videokártya.
  • barret
    #2
    1 elonye biztosan lesz,a hotermelese :D
  • grebber
    #1
    Kiváncsi leszek ezekra a VGA+cpu egybe dologra lesz-e valami olyan előnye amivel szarrá aláz egy külön álló VGA és cpu párost.

    Intel külön álló grafkártyáira leszek mégjobban kiváncsi.Bár sikerülne neki komolyat alkotni mert az ára szempontjából csak nekünk lenne jó!