Gyurkity Péter

2008 végén jön az Intel első hibrid chipje

Friss információk szerint az Intel több újdonságot is elérhetővé tesz a Nehalem platform révén, amely grafikus vezérlővel egészül majd ki. Az AMD eközben ismét variál típusjelzésein.

Az X-bit Labs értesülése szerint az Intel 2008 utolsó negyedévében, vagyis nagyjából egy teljes év múlva mutatná be első olyan processzorát, amely már beépített grafikus vezérlővel érkezik. Ez azonban némi meglepetésre a már 2002-ben beígért Nehalem architektúra egyik tagja lesz, úgy tűnik ugyanis, hogy a platform lehetővé teszi majd az ilyen irányú kibővítést.

Elsőként a Bloomfield kódnéven emlegetett chipek jelennek majd meg, ezek már tartalmazni fogják a Nehalem fontosabb újításait. Első helyen említhetjük az új rendszerbuszt, amely az Intel Quick Path Interconnect (QPI) nevet kapta, valamint a többszálas vezérlést, amelynek révén ezek a processzorok egyszerre 8 szálon végezhetnek majd számításokat. Ikermagos és négymagos változatok egyaránt megjelennek majd, ezek a gyártó reményei szerint nagyban növelik a teljesítményt a jelenleg elérhető chipekhez képest. A már említett fejlesztések mellett az Intel akár egy grafikus vezérlőt is hozzácsaphat a processzorhoz, megalkotva ezzel az első hibrid chipet - az AMD 2009-re várja saját megoldását.

A Bloomfield sorozatot munkaállomásokba és extrém asztali konfigurációkba szánják, az ikermagos változatok pedig a középkategóriás, mainstream asztali gépekben kaphatnak helyet. A Nehalem EP változatok már a kétprocesszoros szerverekben találnak majd otthonra, 2008 végétől. Arról nincs hír, hogy a korábban szintén megemlített nyolcmagos processzorok mikor bukkanhatnak fel, erre valószínűleg csak 2009-ben kerül majd sor.

Az AMD típusjelzése eközben tovább módosult, legalábbis a lap információi szerint. A processzorgyártó három különböző márkanévvel és összesen hat sorozattal készül az asztali verseny folytatására. A csúcskategóriás Phenom processzorok FX (négymagos), 9000-es (szintén négymagos), illetve 7000-es (hárommagos) jelzéssel érkeznek, míg az Athlonok közül a 6000 ikermagos, az LE-1000 pedig egymagos felépítést takar. Ami a Sempronokat illeti, itt egyetlen sorozat lesz, az LE-1000 természetesen szintén egymagos chipeket jelez.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • dez #39
    A "geometria elszórásához" is kell nem kevés szám. telj.
  • dez #38
    "Ráadásul ettől a GPU-k sem fognak eltűnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni."
    Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelőre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetők, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan műveletekből sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sűrűn fordul elő (távolságmérés).

    Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...

    "Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene."
    Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése előtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)
  • Vers #37
    ja ezt szoptam be én is pár éve, csakhogy a raszteres cuccnál is el lehet szorni a fölösleges geometriát, és akkor már egész hasonlo függvényt kapunk csak 100-szor gyorsabb minden értéken :)
  • shabba #36
    Ha elolvasod pl. a dez által linkelt cikkeket, akkor azokból pont az jön le hogy a kép komplexitásának és poligonszám emelkedésével a Raytracing egyre inkább realítássá válik, mert az algoritmusa kevésbé érzékeny a kép komplexitásának növekedésére mint a raszteres megoldások.



    A felbontással lineáris az összefüggés hisz a képpontok számátúl függ az erőforrás igény. Idővel ahogy egyre nő a chipekben megjelenő számítási teljesítmény, egyre inkább lesz reális lehetőség a raytracingre is.

    Ez még nem azt jelenti hogy raszteres megoldások hip-hop jővő eltűnnek és ray-tracing lesz helyette. Ez egy sokkal lassabb folyamat lesz. Ráadásul ettől a GPU-k sem fognak eltűnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni. Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene.

    Az eltérő piaci szereplők Cell, Tesla, Larrabee, Fusion mind ezeket a piacokat célozzák majd meg a saját megoldásukkal. És nem csak a gamer front az egyedüli, hanem a HPC is, meg más piacok. A software támogatottságon nagyon sok múlni, az könnyen eldönthető hogy ezen termékek közül mely fog szélesebb körben elterjedni.

    Az Intel IDF anyagaiban 2-3 év múlva jelzi a real ray-tracing beköszöntét, ez még közel sem jelenti azt hogy elsöpri a rasteres megoldásokat, csak az hogy megjelennek az első olyan komolyabb rendszerek amiken már reálisabban használható ez a fajta megoldás. Nem véletlen hogy elsőször csak egy különálló kártyán érkezik majd az Intel féle Larrabee várhatóan 2009 elején, elöször 45nm-en. Igazából az csak arra lesz jó hogy szélesebb körben megindulhasson a software fejlesztés és támogatás, azzal hogy lesz fizikailag hozzáférhatő platform. Aztán majd 2-3 év múlva ha már 32nm-en jön a következő Larrabee generáció, ott már akár be is épülhet az általános chipek mellé egy lapkára.

    A saját véleményen az hogy 2-3 év múlva az Intel első próbálkozása nem lesz majd túl sikeres gémer fronton, de HPC-nél be fog válni és annyival elsőre elégedettek is lesznek majd, ott sincsenek azért irreális elvárások. De mondjuk újabb 2 év múlva, újabb gyártástechnológián, időközben tovább növekvő software támogatottság mellett másodszorra már összejöhet nekik. De a másik három előbb felsorol piaci szereplőnek is ugyanígy megvannak az esélyei, és fognak is élni vele.
  • fade2black #35
    "de képtelenség realtimra felgyorsitani egy több millio polys scenét"

    mennyi ilyen képtelenséget láttunk már megvalósulni. És mára már ezek jórésze rutinsemmiség. Szivesen sorolok listát.... :)
  • dez #34
    Na jó, csak a viszonylag élethű, és a valóban eléggé élethű között egyre többen látják meg a különbséget...
    Meg az egyre bonyibb per-pixel shaderek is úgy eszik a teljesítményt (amire egyre brutálisabb hw a "válasz"), hogy egyre kisebb a különbség eközött, és a ray-tracing között teljesítmény-igényben...
    Pl. ott van a füst/robbanás effekt. Gyors módszerrel éles határvonallal "beleáll" a földbe - valamivel élethűbben megvalósítva (nem "beleállósan") egy csúcs-vga-t is megfektet...
  • Vers #33
    a raytracingnek a halála a nagy felbontás és sajnos vagy nem sajnos errefelé megyünk most alap a 2k*1k,nemsokára a 4k*2k
    és hidd el én is szeretnék raytracingelni mert jo na, csak a hagyományos modszerekkel sokkal jobbat lehet csinálni a jelenlegi technologiával
    pl van olyan trükk hogy cubemappal világitjuk be a testet ez nagyon közel jár a RT-s bevilágitáshoz,csak ez gyors :)
    a trükkök mindig gyorsabbak,ez igy volt és igy is marad egy joideig
  • dez #32
    Elhiszem, hogy sokat foglalkoztál vele. Egyébként én is, bár már jó rég, amikor még nem volt ennyire rettentő sok poligon meg object.

    Viszont gondolom az Intelnél sem teljesen hülyék... (Bár... Annak az Ambrus akárkinek is képesek voltak egy feltalálói fődíjat adni, mert nem láttak még zöld-piros szemüveges 3D-t számítógépen, vagy talán még papíron sem, LOL, miközben az Nvidia stereo3D drivere x éve tudja. A 3D-s toll - ami egy minden nagyobb animátor stúdióban megtalálható mozgáskövető kicsiben - nem is igazán érdekelte őket. Na persze a srác is szépen megjátszotta, hogy ő találta fel az anagliphet, ejnye ejnye.)

    Back on topik... Azért talán először nem szórt megvilágítással, és más efféle nyalánksággal indítanak majd. Azért enélkül is elég szép lehet a kép.
  • Vers #31
    gyorsitani mindig lehet, ezt aláirom , de képtelenség realtimra felgyorsitani egy több millio polys scenét
    és akkor még ugyanott vagy mint a raszteres cuccal
    van olyan rt effect pl a szort megvilágitás ahol pixelenként 500 sugar kell
    és a mai nagy felbontások mellett lehet számolni mennyi millio sugar szorozva a scene objectjeivel polygonjaival pláne ha displacementet is használunk
    sok sok millio milliárd ciklus jön ki
    higgyél nekem nem éri meg :) sokat foglalkoztam a témával
  • dez #30
    Az objecteket eleve egyesével téglatestekbe "teszik", és először ezekkel való metszést számolnak, ez igen sokat gyorsít. Ezt meg lehet tenni egymás közelében lévő objectekkel is, dinamikusan.

    Ez nagyon sok poligon esetén talán még gyorsabb is lehet, mint a másik módszer... És akkor még ott vannak a mindenféle mappolások, amiket a raszterizációnál előre ki kell számolni: ha abból is sok van, az is csökkenti a két módszer közötti különbséget számítási igényben.

    És ha már amúgy is nagyon sokat kell számolni, akkor inkább ray-tracing... A sok igen komplikált, és még így is korlátolt trükk nélkül, "egyszerűen és nagyszerűen" jóval élethűbb kép nyerhető.

    Streamelés? Hát... Már ahol. Nem hiszem, hogy a GPU-k (v. GPU-szerű képződmények, mint pl. Larrabee) többszáz bites memóriavezérlőit felcserélik egy sokkal kisebbre, és ráállnak a streameljünk mindent taktikára. :)

    ps. privit küldök először is