SG.hu·

2008 végén jön az Intel első hibrid chipje

Friss információk szerint az Intel több újdonságot is elérhetővé tesz a Nehalem platform révén, amely grafikus vezérlővel egészül majd ki. Az AMD eközben ismét variál típusjelzésein.

Az X-bit Labs értesülése szerint az Intel 2008 utolsó negyedévében, vagyis nagyjából egy teljes év múlva mutatná be első olyan processzorát, amely már beépített grafikus vezérlővel érkezik. Ez azonban némi meglepetésre a már 2002-ben beígért Nehalem architektúra egyik tagja lesz, úgy tűnik ugyanis, hogy a platform lehetővé teszi majd az ilyen irányú kibővítést.

Elsőként a Bloomfield kódnéven emlegetett chipek jelennek majd meg, ezek már tartalmazni fogják a Nehalem fontosabb újításait. Első helyen említhetjük az új rendszerbuszt, amely az Intel Quick Path Interconnect (QPI) nevet kapta, valamint a többszálas vezérlést, amelynek révén ezek a processzorok egyszerre 8 szálon végezhetnek majd számításokat. Ikermagos és négymagos változatok egyaránt megjelennek majd, ezek a gyártó reményei szerint nagyban növelik a teljesítményt a jelenleg elérhető chipekhez képest. A már említett fejlesztések mellett az Intel akár egy grafikus vezérlőt is hozzácsaphat a processzorhoz, megalkotva ezzel az első hibrid chipet - az AMD 2009-re várja saját megoldását.

A Bloomfield sorozatot munkaállomásokba és extrém asztali konfigurációkba szánják, az ikermagos változatok pedig a középkategóriás, mainstream asztali gépekben kaphatnak helyet. A Nehalem EP változatok már a kétprocesszoros szerverekben találnak majd otthonra, 2008 végétől. Arról nincs hír, hogy a korábban szintén megemlített nyolcmagos processzorok mikor bukkanhatnak fel, erre valószínűleg csak 2009-ben kerül majd sor.

Az AMD típusjelzése eközben tovább módosult, legalábbis a lap információi szerint. A processzorgyártó három különböző márkanévvel és összesen hat sorozattal készül az asztali verseny folytatására. A csúcskategóriás Phenom processzorok FX (négymagos), 9000-es (szintén négymagos), illetve 7000-es (hárommagos) jelzéssel érkeznek, míg az Athlonok közül a 6000 ikermagos, az LE-1000 pedig egymagos felépítést takar. Ami a Sempronokat illeti, itt egyetlen sorozat lesz, az LE-1000 természetesen szintén egymagos chipeket jelez.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© dez2007. 10. 19.. 16:22||#39
A "geometria elszórásához" is kell nem kevés szám. telj.
© dez2007. 10. 19.. 16:18||#38
"Ráadásul ettõl a GPU-k sem fognak eltûnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni."
Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelõre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetõk, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan mûveletekbõl sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sûrûn fordul elõ (távolságmérés).

Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...

"Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene."
Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése elõtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)
© Vers2007. 10. 19.. 14:04||#37
ja ezt szoptam be én is pár éve, csakhogy a raszteres cuccnál is el lehet szorni a fölösleges geometriát, és akkor már egész hasonlo függvényt kapunk csak 100-szor gyorsabb minden értéken :)
© shabba2007. 10. 19.. 13:53||#36
Ha elolvasod pl. a dez által linkelt cikkeket, akkor azokból pont az jön le hogy a kép komplexitásának és poligonszám emelkedésével a Raytracing egyre inkább realítássá válik, mert az algoritmusa kevésbé érzékeny a kép komplexitásának növekedésére mint a raszteres megoldások.



A felbontással lineáris az összefüggés hisz a képpontok számátúl függ az erõforrás igény. Idõvel ahogy egyre nõ a chipekben megjelenõ számítási teljesítmény, egyre inkább lesz reális lehetõség a raytracingre is.

Ez még nem azt jelenti hogy raszteres megoldások hip-hop jõvõ eltûnnek és ray-tracing lesz helyette. Ez egy sokkal lassabb folyamat lesz. Ráadásul ettõl a GPU-k sem fognak eltûnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni. Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene.

Az eltérõ piaci szereplõk Cell, Tesla, Larrabee, Fusion mind ezeket a piacokat célozzák majd meg a saját megoldásukkal. És nem csak a gamer front az egyedüli, hanem a HPC is, meg más piacok. A software támogatottságon nagyon sok múlni, az könnyen eldönthetõ hogy ezen termékek közül mely fog szélesebb körben elterjedni.

Az Intel IDF anyagaiban 2-3 év múlva jelzi a real ray-tracing beköszöntét, ez még közel sem jelenti azt hogy elsöpri a rasteres megoldásokat, csak az hogy megjelennek az elsõ olyan komolyabb rendszerek amiken már reálisabban használható ez a fajta megoldás. Nem véletlen hogy elsõször csak egy különálló kártyán érkezik majd az Intel féle Larrabee várhatóan 2009 elején, elöször 45nm-en. Igazából az csak arra lesz jó hogy szélesebb körben megindulhasson a software fejlesztés és támogatás, azzal hogy lesz fizikailag hozzáférhatõ platform. Aztán majd 2-3 év múlva ha már 32nm-en jön a következõ Larrabee generáció, ott már akár be is épülhet az általános chipek mellé egy lapkára.

A saját véleményen az hogy 2-3 év múlva az Intel elsõ próbálkozása nem lesz majd túl sikeres gémer fronton, de HPC-nél be fog válni és annyival elsõre elégedettek is lesznek majd, ott sincsenek azért irreális elvárások. De mondjuk újabb 2 év múlva, újabb gyártástechnológián, idõközben tovább növekvõ software támogatottság mellett másodszorra már összejöhet nekik. De a másik három elõbb felsorol piaci szereplõnek is ugyanígy megvannak az esélyei, és fognak is élni vele.
© fade2black2007. 10. 19.. 13:16||#35
"de képtelenség realtimra felgyorsitani egy több millio polys scenét"

mennyi ilyen képtelenséget láttunk már megvalósulni. És mára már ezek jórésze rutinsemmiség. Szivesen sorolok listát.... :)
© dez2007. 10. 19.. 04:40||#34
Na jó, csak a viszonylag élethû, és a valóban eléggé élethû között egyre többen látják meg a különbséget...
Meg az egyre bonyibb per-pixel shaderek is úgy eszik a teljesítményt (amire egyre brutálisabb hw a "válasz"), hogy egyre kisebb a különbség eközött, és a ray-tracing között teljesítmény-igényben...
Pl. ott van a füst/robbanás effekt. Gyors módszerrel éles határvonallal "beleáll" a földbe - valamivel élethûbben megvalósítva (nem "beleállósan") egy csúcs-vga-t is megfektet...
© Vers2007. 10. 19.. 03:47||#33
a raytracingnek a halála a nagy felbontás és sajnos vagy nem sajnos errefelé megyünk most alap a 2k*1k,nemsokára a 4k*2k
és hidd el én is szeretnék raytracingelni mert jo na, csak a hagyományos modszerekkel sokkal jobbat lehet csinálni a jelenlegi technologiával
pl van olyan trükk hogy cubemappal világitjuk be a testet ez nagyon közel jár a RT-s bevilágitáshoz,csak ez gyors :)
a trükkök mindig gyorsabbak,ez igy volt és igy is marad egy joideig
© dez2007. 10. 19.. 03:34||#32
Elhiszem, hogy sokat foglalkoztál vele. Egyébként én is, bár már jó rég, amikor még nem volt ennyire rettentõ sok poligon meg object.

Viszont gondolom az Intelnél sem teljesen hülyék... (Bár... Annak az Ambrus akárkinek is képesek voltak egy feltalálói fõdíjat adni, mert nem láttak még zöld-piros szemüveges 3D-t számítógépen, vagy talán még papíron sem, LOL, miközben az Nvidia stereo3D drivere x éve tudja. A 3D-s toll - ami egy minden nagyobb animátor stúdióban megtalálható mozgáskövetõ kicsiben - nem is igazán érdekelte õket. Na persze a srác is szépen megjátszotta, hogy õ találta fel az anagliphet, ejnye ejnye.)

Back on topik... Azért talán elõször nem szórt megvilágítással, és más efféle nyalánksággal indítanak majd. Azért enélkül is elég szép lehet a kép.
© Vers2007. 10. 19.. 03:08||#31
gyorsitani mindig lehet, ezt aláirom , de képtelenség realtimra felgyorsitani egy több millio polys scenét
és akkor még ugyanott vagy mint a raszteres cuccal
van olyan rt effect pl a szort megvilágitás ahol pixelenként 500 sugar kell
és a mai nagy felbontások mellett lehet számolni mennyi millio sugar szorozva a scene objectjeivel polygonjaival pláne ha displacementet is használunk
sok sok millio milliárd ciklus jön ki
higgyél nekem nem éri meg :) sokat foglalkoztam a témával
© dez2007. 10. 19.. 02:59||#30
Az objecteket eleve egyesével téglatestekbe "teszik", és elõször ezekkel való metszést számolnak, ez igen sokat gyorsít. Ezt meg lehet tenni egymás közelében lévõ objectekkel is, dinamikusan.

Ez nagyon sok poligon esetén talán még gyorsabb is lehet, mint a másik módszer... És akkor még ott vannak a mindenféle mappolások, amiket a raszterizációnál elõre ki kell számolni: ha abból is sok van, az is csökkenti a két módszer közötti különbséget számítási igényben.

És ha már amúgy is nagyon sokat kell számolni, akkor inkább ray-tracing... A sok igen komplikált, és még így is korlátolt trükk nélkül, "egyszerûen és nagyszerûen" jóval élethûbb kép nyerhetõ.

Streamelés? Hát... Már ahol. Nem hiszem, hogy a GPU-k (v. GPU-szerû képzõdmények, mint pl. Larrabee) többszáz bites memóriavezérlõit felcserélik egy sokkal kisebbre, és ráállnak a streameljünk mindent taktikára. :)

ps. privit küldök elõször is